목차
- 간단한 신경망 tensorflow로 구현하기
- 다층 퍼셉트론
- 활성 함수
- 손실 함수
- Overfitting / Underfitting
- 옵티마이저
- 데이터 전처리
- 하이퍼 파라미터
간단한 신경망 tensorflow로 구현하기
https://colab.research.google.com/drive/1iiI_NIEAkcBIuMu-AVKvrrlTqt7GAAfx#scrollTo=95Z-qqwyga32
Google Colaboratory Notebook
Run, share, and edit Python notebooks
colab.research.google.com
다층 퍼셉트론
활성 함수
손실 함수
MSE : Mean Squared Error
좋은 손실 함수는? 오차가 클 수록 e 값이 커야 한다.
MSE는 오차가 클 수록 e 값이 크다.
하지만?
그래디언트가 계산되는 방식
CE : Cross Entrophy
손실 함수는 오차가 클 수록 e 값이 커야 한다.
왜 CE는 이게 될까?
Overfitting / Underfitting
옵티마이저
http://www.denizyuret.com/2015/03/alec-radfords-animations-for.html
Alec Radford's animations for optimization algorithms
Alec Radford has created some great animations comparing optimization algorithms SGD , Momentum , NAG , Adagrad , Adadelta , RMSprop (unfo...
www.denizyuret.com
GD - SGD - Mini batch GD
Momentum
데이터 전처리
balance, size, augmentation(resize, brightness, contrast, saturation, crop)
하이퍼 파라미터
모델의 외부에서 학습에 관련된 모델의 동작을 조정
레이어의 수, 노드의 수, 학습률, epoch, 모멘텀
임의 탐색이 유리하다 (Bergstra2012 실험)
'머신러닝 > 기초 공부' 카테고리의 다른 글
[Python to AI] 딥러닝이 이미지를 처리하는 방법, CNN을 이용한 Classification (Competition) - week 5, 6 (0) | 2023.06.21 |
---|---|
[Python to AI] 하이퍼 파라미터 최적화 - week 4 (0) | 2023.06.14 |
[확률/통계] 2-5/6. 베이지안 결정 이론 + ppt, 연습문제 (패턴인식 - 오일석) (0) | 2023.01.16 |
[확률/통계] 2-4. 베이지안 결정 이론 + ppt, 연습문제 (패턴인식 - 오일석) (0) | 2023.01.16 |
[확률/통계] 2-3. 베이지안 결정 이론 + ppt, 연습문제 (패턴인식 - 오일석) (0) | 2023.01.13 |
댓글