본문 바로가기
728x90

머신러닝/기초 공부12

[확률/통계] 2-3. 베이지안 결정 이론 + ppt, 연습문제 (패턴인식 - 오일석) 이전 글을 보고 오시지 않은 분들께 추천드립니다. 2023.01.11 - [딥러닝/기초 공부] - [확률/통계] 2. 베이지안 결정 이론 1 + ppt, 연습문제 (패턴인식 - 오일석) 2023.01.13 - [딥러닝/기초 공부] - [확률/통계] 2. 베이지안 결정 이론 2 + ppt, 연습문제 (패턴인식 - 오일석) [확률/통계] 2. 베이시언 결정 이론 2 + ppt, 연습문제 (패턴인식 - 오일석) 이전 편을 보지 않고 오신 분들께 1편을 추천 드립니다. 2023.01.11 - [딥러닝/기초 공부] - [확률/통계] 2. 베이시언 결정 이론 1 + ppt, 연습문제 (패턴인식 - 오일석 저) 2.2 베이시언 분류기 2.1절에서는 imkmsh.tistory.com 2.3 분별 함수 분별 함수 M 부.. 2023. 1. 13.
[확률/통계] 2-2. 베이지안 결정 이론 + ppt, 연습문제 (패턴인식 - 오일석) 이전 편을 보지 않고 오신 분들께 1편을 추천 드립니다. 2023.01.11 - [딥러닝/기초 공부] - [확률/통계] 2. 베이지안 결정 이론 1 + ppt, 연습문제 (패턴인식 - 오일석) [확률/통계] 2. 베이시언 결정 이론 1 + ppt, 연습문제 (패턴인식 - 오일석) Intro 사람은 무언가를 인식할 때 가능성을 따집니다. 판단이 확실하지 않으면 가장 그럴듯한 쪽으로 인식합니다. 따라서 패턴 인식 시스템도 이 법칙을 따르지 않을 수 없습니다. 하지만 기계와 imkmsh.tistory.com 2.2 베이지안 분류기 2.1절에서는 확률과 통계의 기초에 대해 공부했습니다. 이제는 이들을 이용해 분류기를 설계해 봅시다. 훈련 집합 훈련 집합은 X={(x1,t1), (x2,t2), …, (xN,tN).. 2023. 1. 13.
[확률/통계] 2-1. 베이지안 결정 이론 + ppt, 연습문제 (패턴인식 - 오일석) Intro 사람은 무언가를 인식할 때 가능성을 따집니다. 판단이 확실하지 않으면 가장 그럴듯한 쪽으로 인식합니다. 따라서 패턴 인식 시스템도 이 법칙을 따르지 않을 수 없습니다. 하지만 기계와 사람은 다릅니다. 사람은 판단에 느낌을 동원하지만 컴퓨터는 그럴 수 없습니다. 프로그래밍을 위해서는 수학이 필요합니다. 위 그림은 10개 숫자를 분류하는 예제입니다. 입력 패턴으로부터 특징 벡터 x를 추출하고 그것이 wi일 확률 P(wi | x)를 구합니다. 그리고 가장 큰 확률을 가진 부류로 분류합니다. 더 구체적으로 사후 확률 P(wi | x)를 구하는 방법을 이제 설명합니다. 2.1 확률과 통계 2.1.1 확률 기초 주사위 주사위를 던졌을 때 3이 나올 확률 P(X=3) = 1/6 은 간단한 예제입니다. 이때.. 2023. 1. 11.
[딥러닝] 기초 및 꿀팁 3 Data Loader iteration: batch 한 번 다 돈 것 epoch: dataset 한 번 다 돈 것 - CustomDataset __init__(): image는 path, text는 text 자체로 저장 __getitem__(): __len__(): max=255 normalize: img = img - mean * max / std * max cv2 imread 순서 h * w * c pytorch 순서 c * h * w 이를 맞춰주기 위해서 ToTensorV2()로 permutation까지 Softmax Classifier 머신러닝: 손으로 feature 추출 딥러닝: feature까지 training, 유연한 대처, 손쉽게 네트워크 만들 수 있음 group convolution: e.. 2022. 9. 23.
[딥러닝] 기초 및 꿀팁 2 loss를 미분할 때 chain rule w.grad = dloss / dw loss(backward 당하는 객체)는 무조건 스칼라값이어야 함 c = 3 * a c = c.sum() c.backward() print(a.grad) => 3 self.linear = torch.nn.Linear(1, 1) # input, output이 각각 하나 criterion = torch.nn.MSELoss(reduction='sum') optimizer = torch.optim.SGD(model.parameters(), lr=0.01) GD는 dataset을 전체로, SGD는 batch 이용 (memory 과부하 문제 해결, outliar 묻힘 문제 해결) batch는 32와 1024 사이 2의 제곱수로 이용하는 것.. 2022. 9. 15.
[딥러닝] 기초 및 꿀팁 1 Lecture 1 ML: 사람이 직접 feature 생성 DL: feature도 모델이 생성 (end-to-end, input을 넣으면 무조건 ouput이 나오는) numpy: CPU 내에서만 수행 pytorch: GPU에서도 수행 torch.ones(3, 2) torch.zeros(3, 2) torch.manual_seed => seed 고정, 동일한 실험환경 구성할 때 torch.rand => 0부터 1사이 torch.randn => -1부터 1사이 y.add_(x) => y = y + x in-place가 true 이면 input 값도 변함 numpy로 변환할 때는 CPU 내부에 있어야 함 a = a.cuda() a = a.cpu() device = torch.device("cuda:0") a.to.. 2022. 9. 13.
728x90
반응형