본문 바로가기
728x90

머신러닝24

[딥러닝] GoogLeNet 논문 리뷰 더보기 딥러닝 논문 리뷰 GoogLeNet 논문 리뷰 Inception ILSVRC 2014에서 VGGNet을 이기고 1등을 한 GoogLeNet 모델 VGGNet 과 유사한 점: 1 x 1 conv layer, depth 증가를 통해 성능 개선 GoogLeNet은 Inception이라는 독특한 구조를 제안 Going deeper with convolutions ↑ 논문 링크 ↑ 목차 ☞ Abstract ☞ Introduction ☞ Related Work ☞ Motivation and High Level Considerations ☞ Architectural Details ☞ GoogLeNet ☞ Training Methodology ☞ ILSVRC 2014 Classification Challenge.. 2022. 9. 29.
[딥러닝] 기초 및 꿀팁 3 Data Loader iteration: batch 한 번 다 돈 것 epoch: dataset 한 번 다 돈 것 - CustomDataset __init__(): image는 path, text는 text 자체로 저장 __getitem__(): __len__(): max=255 normalize: img = img - mean * max / std * max cv2 imread 순서 h * w * c pytorch 순서 c * h * w 이를 맞춰주기 위해서 ToTensorV2()로 permutation까지 Softmax Classifier 머신러닝: 손으로 feature 추출 딥러닝: feature까지 training, 유연한 대처, 손쉽게 네트워크 만들 수 있음 group convolution: e.. 2022. 9. 23.
[딥러닝/CNN] VGGNet 논문 리뷰 더보기 딥러닝 논문 리뷰 VGGNet 논문 리뷰 Very Deep Convolutional Networks for Large-Scale Image Recognition ↑ 논문 링크 ↑ Abstract VGGNet은 ILSVRC 2014 대회에서 2등을 차지한 CNN 모델 모델의 성능에 '네트워크의 깊이'가 중요함을 보여줌 이미지 특징을 추출하는 기본 네트워크 모델로 활용 많은 메모리를 이용하여 연산한다는 단점 ConvNet Configurations Architecture Input은 224 x 224 RGB 이미지로 고정 전처리 - 각 픽셀에서 train set 평균 RGB 값 빼기 3 x 3 필터 ConvNet, 비선형성을 위해 1 x 1 convolutional filter, stride=1, p.. 2022. 9. 23.
[딥러닝] 기초 및 꿀팁 2 loss를 미분할 때 chain rule w.grad = dloss / dw loss(backward 당하는 객체)는 무조건 스칼라값이어야 함 c = 3 * a c = c.sum() c.backward() print(a.grad) => 3 self.linear = torch.nn.Linear(1, 1) # input, output이 각각 하나 criterion = torch.nn.MSELoss(reduction='sum') optimizer = torch.optim.SGD(model.parameters(), lr=0.01) GD는 dataset을 전체로, SGD는 batch 이용 (memory 과부하 문제 해결, outliar 묻힘 문제 해결) batch는 32와 1024 사이 2의 제곱수로 이용하는 것.. 2022. 9. 15.
[딥러닝] AlexNet 논문 리뷰 ImageNet Classification with Deep Convolutional Neural Networks ↑ 논문 링크 ↑ AlexNet 영상 데이터 베이스를 기반으로 한 인식 대회 'ILSVRC 2012'에서 우승한 CNN 구조 Neural network : 6천만 parameters, 65만 neurons, 5 convolutional layers, (some) max-pooling layers, 3 fully-connected layers, final 1000-way softmax To make training faster : non-saturating (y값 범위에 제한이 없는) neurons, GPU To reduce overfitting : dropout Dataset Data Ima.. 2022. 9. 15.
[딥러닝] 기초 및 꿀팁 1 Lecture 1 ML: 사람이 직접 feature 생성 DL: feature도 모델이 생성 (end-to-end, input을 넣으면 무조건 ouput이 나오는) numpy: CPU 내에서만 수행 pytorch: GPU에서도 수행 torch.ones(3, 2) torch.zeros(3, 2) torch.manual_seed => seed 고정, 동일한 실험환경 구성할 때 torch.rand => 0부터 1사이 torch.randn => -1부터 1사이 y.add_(x) => y = y + x in-place가 true 이면 input 값도 변함 numpy로 변환할 때는 CPU 내부에 있어야 함 a = a.cuda() a = a.cpu() device = torch.device("cuda:0") a.to.. 2022. 9. 13.
728x90
반응형