본문 바로가기
728x90

딥러닝8

[확률/통계] 2-3. 베이지안 결정 이론 + ppt, 연습문제 (패턴인식 - 오일석) 이전 글을 보고 오시지 않은 분들께 추천드립니다. 2023.01.11 - [딥러닝/기초 공부] - [확률/통계] 2. 베이지안 결정 이론 1 + ppt, 연습문제 (패턴인식 - 오일석) 2023.01.13 - [딥러닝/기초 공부] - [확률/통계] 2. 베이지안 결정 이론 2 + ppt, 연습문제 (패턴인식 - 오일석) [확률/통계] 2. 베이시언 결정 이론 2 + ppt, 연습문제 (패턴인식 - 오일석) 이전 편을 보지 않고 오신 분들께 1편을 추천 드립니다. 2023.01.11 - [딥러닝/기초 공부] - [확률/통계] 2. 베이시언 결정 이론 1 + ppt, 연습문제 (패턴인식 - 오일석 저) 2.2 베이시언 분류기 2.1절에서는 imkmsh.tistory.com 2.3 분별 함수 분별 함수 M 부.. 2023. 1. 13.
[논문 리뷰] NeRF (ECCV 2020) : NeRF 최초 제안 논문 NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis INR 분야에 관심이 생겨 INR의 기초를 공부할 수 있는 논문을 찾다가 이번 논문을 공부하게 되었습니다 NeRF는 몇 개 point에서의 2D 이미지만으로도 이미지 내 물체를 3D로 렌더링하는 새로운 방법을 제안한 논문으로, 2020년 ECCV에 Best paper로 선정되었습니다. NeRF 프로젝트 페이지 https://www.matthewtancik.com/nerf NeRF: Neural Radiance Fields A method for synthesizing novel views of complex scenes by optimizing an underlying conti.. 2023. 1. 10.
[논문 리뷰] ResNet 논문 리뷰 +) ResNet이 1000장 정도 쌓이면 성능이 저하되는 문제를 해결하기 위한 추가 연구는 글 맨 아래에 있음 ResNet 마이크로소프트 팀이 소개한 ResNet 모델입니다. Residual 이라는 새로운 방법이 도입되었습니다. ILSVRC 2015에서 처음으로 Human recognition보다 높은 성능을 보이며 1위를 차지한 152 layer의 모델을 알아봅시다. ↓ 논문 링크 ↓ ResNet paper 더보기 딥러닝 ResNet 논문 리뷰 pytorch 파이토치 tensorflow 텐서플로 code 코드 Abstract 역대 ILSVRC 대회를 보면 depth가 커질수록 성능은 좋아지지만 overfitting, gradient vanishing, 연산량 증가 등의 문제가 있다. 그래서 이전에 사.. 2022. 10. 6.
[딥러닝] GoogLeNet 논문 리뷰 더보기 딥러닝 논문 리뷰 GoogLeNet 논문 리뷰 Inception ILSVRC 2014에서 VGGNet을 이기고 1등을 한 GoogLeNet 모델 VGGNet 과 유사한 점: 1 x 1 conv layer, depth 증가를 통해 성능 개선 GoogLeNet은 Inception이라는 독특한 구조를 제안 Going deeper with convolutions ↑ 논문 링크 ↑ 목차 ☞ Abstract ☞ Introduction ☞ Related Work ☞ Motivation and High Level Considerations ☞ Architectural Details ☞ GoogLeNet ☞ Training Methodology ☞ ILSVRC 2014 Classification Challenge.. 2022. 9. 29.
[딥러닝/CNN] VGGNet 논문 리뷰 더보기 딥러닝 논문 리뷰 VGGNet 논문 리뷰 Very Deep Convolutional Networks for Large-Scale Image Recognition ↑ 논문 링크 ↑ Abstract VGGNet은 ILSVRC 2014 대회에서 2등을 차지한 CNN 모델 모델의 성능에 '네트워크의 깊이'가 중요함을 보여줌 이미지 특징을 추출하는 기본 네트워크 모델로 활용 많은 메모리를 이용하여 연산한다는 단점 ConvNet Configurations Architecture Input은 224 x 224 RGB 이미지로 고정 전처리 - 각 픽셀에서 train set 평균 RGB 값 빼기 3 x 3 필터 ConvNet, 비선형성을 위해 1 x 1 convolutional filter, stride=1, p.. 2022. 9. 23.
[딥러닝] 기초 및 꿀팁 2 loss를 미분할 때 chain rule w.grad = dloss / dw loss(backward 당하는 객체)는 무조건 스칼라값이어야 함 c = 3 * a c = c.sum() c.backward() print(a.grad) => 3 self.linear = torch.nn.Linear(1, 1) # input, output이 각각 하나 criterion = torch.nn.MSELoss(reduction='sum') optimizer = torch.optim.SGD(model.parameters(), lr=0.01) GD는 dataset을 전체로, SGD는 batch 이용 (memory 과부하 문제 해결, outliar 묻힘 문제 해결) batch는 32와 1024 사이 2의 제곱수로 이용하는 것.. 2022. 9. 15.
728x90
반응형