본문 바로가기
반응형

전체 글87

[생성 AI] 오토인코더(Auto Encoder) [해당 포스팅은 "만들면서 배우는 생성 AI 2탄" 을 참조했습니다. 1. 오토 인코더(Auto Encoder) - 오토 인코더는 단순히 어떤 항목의 인코딩과 디코딩 작업을 수행하도록 훈련된 신경망을 말합니다.- 이 과정을 통해 출력이 가능한 원본에 가까워지도록 하는 결과물을 만드는 신경망을 훈련시킵니다. - 인코더(Encoder) * 역할 : 입력 데이터를 더 작은 차원의 표현으로 압축하는 역할을 합니다. 이를 통해 입력 데이터의 중요한 특징을 추출하고, 노이즈를 제거하거나 데이터의 구조적 특성을 반영할 수 있습니다. * 이때, 압축된 형태의 특징 벡터를, Latent Vector 또는 Latent Representation 이라고 합니다.  - 디코더(Decoder) * 역할 : 인코더에 의해 생성된.. 2024. 5. 26.
[Machine Learning] What is machine learning? What is ML? 1. What is machine learning 1) Machine Learning : Finding Regularity in massive datasets 2) Regularities : Knowledge forms (rules, decision trees) - Machine Learning usually uses inductive knowledge to make predictions. - The procedure of ML : Data -> Finding regularity -> Representation as diverse forms -> Prediction 3) Machine Learning (Compared to traditional programming) - ML : Input -> ML -.. 2024. 3. 6.
[개념정리] Adaptation methods Adaptation Methods의 몇 가지 종류에 대해서 알아보도록 하겠습니다. Adaptation methods 1. End-to-end Finetuning - End-to-end의 뜻은 구글을 검색해보면 다음과 같습니다. A technique where the model learns all the steps between the initial input phase and the final output phase - 즉, 입력에서 출력까지 중간에 다른 파이프라인 네트워크없이 기존의 신경망으로 한 번에 처리한다는 의미를 가지고 있습니다. - 여기서 파이프라인 네트워크란, 전체 네트워크를 이루는 부분적인 네트워크를 말합니다. - 아래 그림을 보면 바로 감이 올 건데요. - 기존의 Speech Recogn.. 2024. 3. 5.
[논문리뷰] Segmenter: Transformer for Semantic Segmentation 이번에 리뷰해볼 논문은 Segmenter: Transformer for Semantic Segmentation 입니다. 해당 논문은 2021년 ICCV에 소개된 논문이고, 2024년 2월 기준 약 1200회의 인용수를 가진 논문입니다. 해당 논문을 읽고나서 해당 논문이 기여하고 있는 부분은 모든 아키텍처가 ViT로 이루어졌으며, 이를 통해서 Semantic Segmentation에서 SOTA를 달성했다는 것입니다. 특히, 디코더 부분에서 Patch embeddings와 Class embeddings를 함께 입력하여 Semantic Segmentation을 한다는 것입니다. 논문 내용 자체가 복잡하지 않고, ViT만 이해한다면 대부분 쉽게 읽히는 논문이 되겠습니다. [개념 정리] 비전 트랜스포머 / Vis.. 2024. 2. 20.
[딥러닝 with 파이썬] Precision-Recall Curve와 Average Precision 이번에 알아볼 내용은, Object Detection과 Segmentaition에서 평가지표로 활용되는 Average Precision에 대해서 알아보겠습니다. Average Precision은 Precision-Recall Curve의 면적 부분을 의미하는데요. 그렇다면, Precision-Recall Curve에 대해 정리해보고 Average Preicision의 의미는 무엇인지, 그리고 Average Preicision들을 평균한 mAP는 무엇인지 알아보겠습니다. 1. Precision-Recall Curve와 Average Precision 1) Precision-Recall Curve - Precision-Recall Curve는 분류모델의 성능을 평가하는데 사용되는 평가지표 중 하나입니다. T.. 2024. 2. 19.
[딥러닝 개념 정리] Inference? 딥러닝에서 Inference란? 이번에는 딥러닝에서 자주 사용되는 단어인, Inference 에 대해서 알아보겠습니다. 1. Inferecne란? 딥러닝에서 Inference란? - Inference는 우리말로 "추론" 이라고 번역됩니다. 딥러닝에서 Inference, 즉 딥러닝에서의 추론이란 학습된 결과물을 바탕으로 새로운 입력 데이터에 대해 추론(Inference)하는 것을 의미하는 것이라고 생각할 수 있는데요. - 딥러닝에서 Inference는 학습된 모델을 사용해 새로운 데이터에 대한 예측(Prediction), 분류(Classification), 기타 결정을 내리는 과정을 말합니다. 즉, 모델이 학습 과정을 마치고, 새로운 입력 데이터에 대해 출력값을 생성하는 단계를 말합니다. 2. Inference의 특징과 과정 - 학습된 .. 2024. 2. 18.
[개념 정리] 비전 트랜스포머 / Vision Transformer(ViT) (2/2) 지난 포스팅에 이어서 비전트랜스포머(Vistion Transformer/ ViT)에 대해서 알아보겠습니다. [개념 정리] 비전 트랜스포머 / Vision Transformer(ViT) (1/2) 지난 시간에는 인코더 부분에 대해서 알아보았습니다. 포지셔널 임베딩이 추가된 패치 임베딩이 Transformer의 인코더에 들어가서 Q, K, V로 나뉘고, Multi Head Self Attention + Skip connection, 이후 Multi Layer Perceptron + Skip connection이 추가된 다수의 레이어를 지나 최종적으로 인코더의 출력 벡터가 나오게 됩니다. 이제 그 다음 단계에 대해서 알아보겠습니다. 1. Classification Head (분류 헤드) - 위 그림에서처럼, .. 2024. 2. 17.
[개념 정리] 비전 트랜스포머 / Vision Transformer(ViT) (1/2) 이번에 알아보 내용은 Vision Transformer입니다. 해당 모델은 "An Image is worth 16x16 words: Transformers for image recognition at scale" 이라는 논문에서 등장했습니다. 해당 논문은 2021년 ICLR에서 발표된 이후, 많은 후속 연구들이 쏟아지고 있으며 ViT를 Backbone으로 한 다양한 Architecture들이 나오면서 CV(Computer Vision) Task에서 CNN을 대체 또는 다른 방향성을 제시하는 솔루션으로 제안되고 있습니다. 1. Vision Transformer(ViT / 비전트랜스포머) -기본적인 구조는 아래에 나와있는 모습을 바탕으로 알 수 있습니다. 1) Image Patching (이미지 패치화) -.. 2024. 2. 16.
반응형