[공부한 것]
- boostcourse 파이토치로 시작하는 딥러닝 기초 8개 강의
[기억나는 것]
- Softmax는 전체합이 1이 되게한 probability의 표현이다.
- cross entropy는 -ylog(y')로 확률이 얼마나 비슷한지를 나타내는 척도이다. 보통 softmax와 사용한다.
- torch.nn의 CrossEntropyLoss은 softmax layer를 포함하고 있는 메소드이다.
- 만약 class 가 2개인 binary case인 경우에는 BCELoss를 사용하시는 것이 좋다.
- BCEWithLogitsLoss는 BCELoss에 sigmoid layer가 포함된 메소드이다.
pytorch zero to all 을 거진 들었지만, 강의수가 적었고
파이토치를 좀 더 제대로 듣고자 + 한국어라서 새로운 강의를 빠르게 시작했다.
모르던 부분을 부분부분 알게되는 것 같기는한데... 강의력이 그리 좋지는 않은 것 같다.