TIL
1월 6일
1월 4일
1월 3일
[공부한 것]
- boostcourse 파이토치로 시작하는 딥러닝 기초 8개 강의
[기억나는 것]
- Softmax는 전체합이 1이 되게한 probability의 표현이다.
- cross entropy는 -ylog(y')로 확률이 얼마나 비슷한지를 나타내는 척도이다. 보통 softmax와 사용한다.
- torch.nn의 CrossEntropyLoss은 softmax layer를 포함하고 있는 메소드이다.
- 만약 class 가 2개인 binary case인 경우에는 BCELoss를 사용하시는 것이 좋다.
- BCEWithLogitsLoss는 BCELoss에 sigmoid layer가 포함된 메소드이다.
pytorch zero to all 을 거진 들었지만, 강의수가 적었고
파이토치를 좀 더 제대로 듣고자 + 한국어라서 새로운 강의를 빠르게 시작했다.
모르던 부분을 부분부분 알게되는 것 같기는한데... 강의력이 그리 좋지는 않은 것 같다.
12월 31일, 1월 1일, 2일
- 논문 읽어보기
논문을 읽어보았지만, 당최 무슨 말인지 이해를 못하고 있다...
아직 기본적인 논문도 읽어보지 않은 상태에서 이해하는 것은 무리였던 것일까...
연초 좋은 일만 가득하면 좋겠지만, 집에 큰 사정이 생겨서
근래 계속 일을 하고 있다. 피로감+왠지 모를 무력감에 참 힘든 날들이었다. TIL도 쓰지 않고
뻩어있기 일수...
알에서 깨어나자
12월 30일
- Otto Group Product Classification Challenge 코드 따라해보기
- Softmax MNIST 복습
어렵다... 코드를 그대로 보고 따라하는데도 당최 무슨 말인지
pandas도 공부해야하고, 데이터 자체에 대한 눈을 키우는 것도 중요해보인다
병원도 갔다오고, 근래 이래저래 잡스런 일들이 많다. 바쁘네