
data 를 load 해 오는 것 까지 했음 다음으로 loss 와 , optimizer 를 정해줄 차례 앞에까지는 모델 만들었고, 데이터 불러왔고 다음으로는 학습 할 때 정해줘야 하는 부분인 loss : ( criterion ) nn.BCELoss() optim = torch.optim.Adam(model.parameters(), lr= 0.0005) //model 은 HelloCNN 우리가 만든 모델 --- 멀티 레이블 분류란, 기존의 softmax 분류와는 달리 여러개의 class 가 동시에 정답이 될 수 있는 것을 의미 기존의 softmax 분류에서는 문장의 class 가 여러 후보 중의 하나에만 해당 할 수 있었는데... > 이진분류 ( 이문제 여러개의 이진분류 ) 이진 분류는 항상 이 식을 만족..

이 부분 이해가 안간다.. 여기서 말하는 batch size 가 뭔지도 잘 모르겠음 ( 64 가 batch size 라는데 ) https://medium.com/@karpathy/yes-you-should-understand-backprop-e2f06eab496b#.lzeb58ksq Yes you should understand backprop When we offered CS231n (Deep Learning class) at Stanford, we intentionally designed the programming assignments to include explicit… medium.com advanced CNN 보고, 실습 코드 여러번 돌려 보면서 이해 직접 짜보기

이 부분이 잘 이해가 안가... osftmaz -> NLL loss 로 바꿔서 사용할 수 있다. this is for the input image sizes. MINST network 이렇게 직접 입력을 해 주는건가? 이렇게 network model 을 만든 후에는, 이 model 을 가지고 forward 를 진행한다. ( 학습 ) 아 저번에 code 다 적어놨었는데ㅜㅜ그래도 한번 다 적어놨으니까 기억 나겠지? cass Net (nn.Module) : def __nit__(self ): super(Net, self).__init__() self.l1 = nn.Linear(784, 520) self.l2 = nn.Linear(520, 320) self.l3 = nn.Linear(320, 240) self...

08 강 ) Pytorch DataLoader #training cycle for epoch in range ( training_epochs): // 한 batch size 만큼 epoch 이 돌아감 #loop over all batches for i in range(total_batch): 설명 : one epoch = one forward pass and one backward pass of all the training example ( 모든 training examples 가 학습이 한번 다 된 것 , 학습 = forward + backward ) batch size = the number of training examples in one forward/backward pass. Thr higer..

Diary 어제 팀이 꾸려지고, CNN FNN 을 다뤄서 lug 이미지를 classify 하는 과제가 주어졌다. 다른 사람은 뭘하지 가 아니라 나의 시간에 부족하다 싶으면 더 하면 된다. 일단은 어제 HDF5 라는 포멧에 대해 봤고 ( data 를load 해오기 위해서는 class 가 필요하다 ) 먼저 CNN 이부분 예습 없이 들어서, 다시 보고 code 도 돌려 보면서 빠르게 파악 하고, 다시 포멧에 대해서 이것 저것 찾아보면서 class 를 만들어서 빨리 해보고 싶다는 마음이 든다. 일단 이미지 분류다보니까, 뭔가 음 ㅎㅎㅎ 재밌을것 같다. 일단 오늘까지는 class 를 다 만들었으면 좋겠다!!!! 나는 적어도 전공 생이라면 정상적이라면 어떻게 해야하는지 안다. 더잘하는게 아니라 , 나의 무기를 최대..

> Diary 오늘은 캠프시간에 다양한 data set 을 가지고 실습을 진행한다. 지금까지 돌려본 코드를 다시 보면서 익히는 시간을 아침시간에 가져보려고 한다. 오늘도 내 전공에 대한 정상적인 마음가짐을 가지고, 내 꿈을 향해 한걸음 내딛는 시간이 되었으면 좋겠다. 오늘 새벽 교회 지체 분이 돌아가셨다. 그리고 내일부터 공식적인 예배 외에 모임을 금지한다고 한다. 참 많은 생각이 들었다. 오늘 하루 꿈에만 가까워 지는 것이 아니라, 예수님께 더욱 가까워 지는 하루가 되었으면 좋겠다. 이 모든 것 전에, 주님이 아니면 아무것도 아니기 때문이다. 무엇을 위해 하루를 사는가는 굉장히 중요하다. 배움을 가질 수 있는 것에 감사하며 오늘 하루 감사함으로 최선을 다 했으면 좋겠다. 살면서 나의 도구를 가지고 세상..

Diary 오늘 내가 꿈에 한 발자국 다가갈 수 있는 하루인가, 꼭 그런 하루를 만들어야지! 오늘은 이제 식사로 사놓은 것들을 다 먹어서 아침에 지에스를 갔다. 오늘은 조금 늦은 출근이었다. 거의 10 시가 다 되어서 도서관에 도착했으니까. 와서 어제 마저 보던 선형회귀 영상을 보고, 다음으로 python 코드를 바로 좀 써서 어제랑 그제 세션을 마무리 하는 걸로 해야겠다. ensemble Learning 에 대한 부분도 조금 정리 해 보고 가야지 영어 공부도 틈틈히 놓치지 않았으면 좋겠다. 아 오늘 왜이렇게 피곤하지!!ㅠㅠ 지금은 10:45 넘 졸려 나 졸려ㅠㅠ 어제 불키고 잤더니 졸린가봐ㅠㅠㅠㅠ, 긱사가서 조금 자고 일어났다. 꿀잠을 잤다ㅎㅎ 일어나서 지우언니가 준 삼각김밥을 먹었다. 오늘 캠프도 정..

> Logistic Regression 참조 : http://hleecaster.com/ml-logistic-regression-concept/ 로지스틱회귀(Logistic Regression) 쉽게 이해하기 - 아무튼 워라밸 본 포스팅에서는 머신러닝에서 분류 모델로 사용되는 로지스틱 회귀 알고리즘에 대한 개념을 최대한 쉽게 소개한다. (이전에 선형회귀에 대한 개념을 알고 있다면 금방 이해할 수 있는 수준으�� hleecaster.com 머신러닝에서, 2진분류 (Binary Classification) 모델로 사용되는 로지스틱 회귀 (Logistic Regression) 알고리즘이다. 머신러닝에서 분류 예측 모델 중의 하나. 로지스틱 회귀란 무엇인가 Log-Odds Sigmoid Function ( 시그..

Diary ( 7.7.20 ) 오늘은 겸손한 자세를 유지 하는 것이 중요하다는 것을 알았다. 배우는데에 있어서 두려움은 겸손하지 않음에서 오는 것 같다. 그리고 꿈이 있다면 걱정 하지 않고 ( 고민은 필요하다 ) 바로 하는 것! 어떤 것을 배우고 학습한다는 것에는 어려움이 따른다는 것. 익숙해 지는 것. 발전하고 나아간다는 것. 도구가 된단것. 그렇게 오늘 하루도 감사하며 배우자. 언젠가는 흘려 보낼 그날을 기대하며. 내 전공은 정말 멋진거 같다. 내가 모든 새로운 것을 받아들일때 외우고자 하는 강박이 있다는 것을 알았다. 그것을 좀 내려놓아야 겠다. 직접 하는 시간 미루지 말고 현장에서 집중하기! 그리고 다른 사람과 특히 신경쓰거나 비교하는 마음set 버리기. 지극히 정상적인 사람은, 내 직업을 잘 하..

순서 : Diary/ ML study Diary (7.5.20) 드디어 내일 캠프가 시작된다! 옴뇸뇸 벌써 학교 온지 일주일이라는 시간이 지났다는 것에 대해서 남은 5 주라는 시간을 오늘 하루라는 시간을 잘 보내야 겠다는 생각이 든다. ( 오늘은 계획대로 잘 못보냈기 때문에 이렇게 적는 거겠지 ) 오전에 영어는 다 끝내구, 오후에는 내일 부터는 캠프 예복습 + 더 나아가서 내꺼로 만드는 학습 시간 + DS , algo 공부 with python 이렇게!! 오늘은 지우언니랑 12 시에 딱 자기로 했다! 이제 잠들어야 겠다.. 오늘 묵상한 말씀 : 고후 5: 14-15 그리스도의 사랑이 우리를 1)강권하시는도다 우리가 생각하건대 한 사람이 모든 사람을 대신하여 죽었은즉 모든 사람이 죽은 것이라 그가 모든 사..