반응형 딥러닝 with Python112 [개념정리] MLE(Maximum Likelihood Estimation)와 MAP(Maximum A Posteriori Estimation) 이번에 알아볼 것은 MLE(Maximum Likelihood Estimation)과 MAP(Maximum A Posteriori Estimaiton) 입니다. 1. MLE (최대우도추정)- MLE는 주어진 데이터가 가장 설명될 수 있는 파라미터 값을 선택하는 것을 말하며, 이때 우도 함수(Likelihood Function)을 최대화하는 파라미터 값을 찾는 것을 말합니다. - MLE는 아래와 같이 3단계로 나누어서 진행됩니다.1) 우도 함수 정의2) 로그 우도 함수 * 계산을 간소화하기 위해 우도 함수의 로그를 취한 로그 우도함수가 자주 사용됩니다. 3) 로그 우도 함수 최대화 * 로그 우도 함수를 최대화하는 파라미터인 theta를 찾습니다. * 보통 로그 우도 함수의 파라미터인 theta에 대한 .. 2024. 7. 25. [딥러닝 with Python] Multiple Instance Learning을 활용한 이미지 분류[개념 정리] [해당 포스팅은 https://keras.io/examples/vision/attention_mil_classification/을 참조하였습니다] 이번에 알아볼 내용은 Multiple Instance Learning을 활용하여 이미지를 분류하는 작업에 대해서 알아보겠습니다. 1. Multiple Instance Learning이란?- Multiple Instance Learning이란, 전통적인 지도학습방식과는 다른 방식으로 레이블이 되어있는 학습데이터를 분할하여 개별 인스턴스를 만들고 그 인스턴스를 활용하는 방식입니다. * 일반적인 지도학습은, 학습 데이터인 개별 인스턴스에 대해 레이블을 가지고 있습니다. 예를 들어, 개별 인스턴스를 개나 고양이 등 각 사진 1장을 의미하고, 그 사진 1장에 대한 이름.. 2024. 7. 23. [딥러닝 with Python] Vision Transformer를 활용한 이미지 분류 이번에는 간단한 비전 트랜스포머 코드를 활용해 CIFAR-100 Dataset에 대한 분류를 해보겠습니다. Vision Transformer에 대한 이론적인 내용은 아래 포스팅을 참조 바랍니다. [개념 정리] 비전 트랜스포머 / Vision Transformer(ViT) (1/2) [개념 정리] 비전 트랜스포머 / Vision Transformer(ViT) (1/2)이번에 알아보 내용은 Vision Transformer입니다. 해당 모델은 "An Image is worth 16x16 words: Transformers for image recognition at scale" 이라는 논문에서 등장했습니다. 해당 논문은 2021년 ICLR에서 발표된 이후, 많은jaylala.tistory.com[개념 정리].. 2024. 7. 23. [딥러닝 with Python] KL Divergence Loss란? 이번에 알아볼 것은 KL Divergence Loss 입니다. 1. KL Divergence란?- KL Divergence는 Kullback-Leibler Divergence의 줄임말로, 두 확률 분포간의 차이를 측정하는 비대칭적인 척도를 의미합니다.* 여기서 비대칭성이란, 두 확률분포 P와 Q의 순서를 바꾸어서 KL Divergence를 계산하면 다른 결과가 나올 수 있다는 것을 의미합니다. - 이는 주로 모델이 예측한 분포와 실제 분포간의 차이를 측정하는데 사용됩니다. - KL Divergence 계산식은 다음과 같습니다 1) 두 이산형 확률 분포 P와 Q의 KL Divergence 2) 두 연속형 확률 분포의 P와 Q의 KL Divergence - KL Divergence의 특징1) 비대칭성 :.. 2024. 7. 22. 이전 1 ··· 12 13 14 15 16 17 18 ··· 28 다음 반응형