본문 바로가기
반응형

분류 전체보기167

[딥러닝 with Python] Multiple Instance Learning을 활용한 이미지 분류[개념 정리] [해당 포스팅은 https://keras.io/examples/vision/attention_mil_classification/을 참조하였습니다] 이번에 알아볼 내용은 Multiple Instance Learning을 활용하여 이미지를 분류하는 작업에 대해서 알아보겠습니다. 1. Multiple Instance Learning이란?- Multiple Instance Learning이란, 전통적인 지도학습방식과는 다른 방식으로 레이블이 되어있는 학습데이터를 분할하여 개별 인스턴스를 만들고 그 인스턴스를 활용하는 방식입니다. * 일반적인 지도학습은, 학습 데이터인 개별 인스턴스에 대해 레이블을 가지고 있습니다. 예를 들어, 개별 인스턴스를 개나 고양이 등 각 사진 1장을 의미하고, 그 사진 1장에 대한 이름.. 2024. 7. 23.
[딥러닝 with Python] Vision Transformer를 활용한 이미지 분류 이번에는 간단한 비전 트랜스포머 코드를 활용해 CIFAR-100 Dataset에 대한 분류를 해보겠습니다. Vision Transformer에 대한 이론적인 내용은 아래 포스팅을 참조 바랍니다. [개념 정리] 비전 트랜스포머 / Vision Transformer(ViT) (1/2) [개념 정리] 비전 트랜스포머 / Vision Transformer(ViT) (1/2)이번에 알아보 내용은 Vision Transformer입니다. 해당 모델은 "An Image is worth 16x16 words: Transformers for image recognition at scale" 이라는 논문에서 등장했습니다. 해당 논문은 2021년 ICLR에서 발표된 이후, 많은jaylala.tistory.com[개념 정리].. 2024. 7. 23.
[딥러닝 with Python] KL Divergence Loss란? 이번에 알아볼 것은 KL Divergence Loss 입니다.  1. KL Divergence란?- KL Divergence는 Kullback-Leibler Divergence의 줄임말로, 두 확률 분포간의 차이를 측정하는 비대칭적인 척도를 의미합니다.* 여기서 비대칭성이란, 두 확률분포 P와 Q의 순서를 바꾸어서 KL Divergence를 계산하면 다른 결과가 나올 수 있다는 것을 의미합니다. - 이는 주로 모델이 예측한 분포와 실제 분포간의 차이를 측정하는데 사용됩니다. - KL Divergence 계산식은 다음과 같습니다 1) 두 이산형 확률 분포 P와 Q의 KL Divergence 2) 두 연속형 확률 분포의 P와 Q의 KL Divergence  - KL Divergence의 특징1) 비대칭성 :.. 2024. 7. 22.
[머신러닝 with Python] t-SNE란? (차원축소, 시각화) 이번에 알아볼 내용은 차원축소를 통해 고차원의 데이터의 시각화를 할때 많이 사용하는 t-SNE 입니다. 1. t-SNE란?- t-SNE는 t-distributed Stochastic Neighbor Embedding의 약자로, 고차원 데이터를 저차원 공간으로 시각화하기 위해 사용되는 비선형 차원축소 기법입니다.- 이는 데이터의 클러스터링이나 구조적 관계를 시각적으로 이해하는데 유용한 방법입니다. - t-SNE의 주요 작동 원리는 다음과 같습니다.1)  고차원 데이터에서의 유사성 계산 * 고차원 공간에서 데이터 포인트 간의 유사성은 아래와 같은 조건부 확률 로 표현되며, 이는 데이터 포인트i 가 데이터 포인트 j를 선택할 확률을 의미합니다. (이 확률은 가우시안 분포를 기반으로 계산됩니다) * 이때 포인트.. 2024. 7. 8.
반응형