[공부한 것]

- boostcourse 파이토치로 시작하는 딥러닝 기초 8개 강의

 

[기억나는 것]

- Softmax는 전체합이 1이 되게한 probability의 표현이다.

- cross entropy는 -ylog(y')로 확률이 얼마나 비슷한지를 나타내는 척도이다. 보통 softmax와 사용한다.

- torch.nn의 CrossEntropyLoss은 softmax layer를 포함하고 있는 메소드이다.

- 만약 class 가 2개인 binary case인 경우에는 BCELoss를 사용하시는 것이 좋다.

- BCEWithLogitsLoss는 BCELoss에 sigmoid layer가 포함된 메소드이다.

 

 

pytorch zero to all 을 거진 들었지만, 강의수가 적었고 

파이토치를 좀 더 제대로 듣고자 + 한국어라서 새로운 강의를 빠르게 시작했다.

모르던 부분을 부분부분 알게되는 것 같기는한데... 강의력이 그리 좋지는 않은 것 같다.

'TIL' 카테고리의 다른 글

1월 6일  (0) 2021.01.06
1월 4일  (0) 2021.01.04
12월 31일, 1월 1일, 2일  (0) 2021.01.03
12월 30일  (0) 2020.12.30
12월 29일  (0) 2020.12.29

+ Recent posts