본문 바로가기
반응형

분류 전체보기87

[개념정리] Dilated Convolution과 Separable Convolution 1. Dilated Convolution - Atrous convolution이라고도 불리는 Dilated convolution은 우리말로 확장 합성곱이라고 불립니다. - 이는 Convolution 커널 내부의 간격을 늘리는 방법으로, 간격을 dilation rate라고 부르며 이를 조절하여 적용합니다. - 위 그림의 예시를 통해 이해해보면 * 아래 파란색 이미지가 입력이미지이고, 이때 일반적인 convolution과는 다르게 중간이 비어있는(또는 건너 띄어진) 부분이 있는 것을 볼 수 있습니다. 즉, 입력 이미지의 중간 중간 부분을 건너 띄어서 인식하는 방법을 의미합니다. - Dilation convolution을 활용하면, 더 넓은 수용영역(Receptive field)를 가지게 되며 더 많은 Glo.. 2024. 2. 5.
[개념 정리] CNN에서 수용영역이란? Receptive field란? 이번에 알아볼 내용은 Receptive field입니다. 우리 말로는 수용영역이라고 하는데요 1. Receptive Field란?(수용영역이란) - Receptive field, 수용 영역은컨볼루션 신경망(CNN)에서 출력 레이어의 뉴런 하나에 영향을 미치는 입력 뉴런들의 공간크기를 의미합니다. 즉, 각 뉴런이 '보고' 처리하는 입력 이미지의 영역이라고 볼 수 있습니다. - CNN에서 한 뉴런의 Receptive field는 커널(필터)의 크기와 stride에 의해서 결정이 됩니다. 커널의 크기가 크거나 또는 Stride가 크게 되면 해당 커널이 처리할 수 있는 이미지의 부분이 커지므로, 이는 곧 Receptive field가 커지는 것을 의미합니다. Receptive field의 크기에 따른 의미는 다.. 2024. 2. 4.
Mean Teacher란? 이번에는 Mean Teacher에 대해서 알아보도록 하겠습니다. 이는 지식증류(Knowledge Distillation)를 기반으로 한 semi supervised learning의 방법 중 하나입니다. 즉, 지식증류 방법을 semi supervsied learning에 사용할때 사용한 방법 중 하나로 생각하면 되는데요. 1. Mean Teacher란? - "Mean teachers are better role models: Weight-averaged consistency targets improve semi-supervised deep learning results"(A Tarvainen ,2017) 라는 논문에서 제시한 방법으로, semi supervised learning 의 성능을 향상시키기 위.. 2024. 1. 28.
Normalization / Batch Normalization / Layer Normalization 이번에 알아볼 내용은 Normalization / Batch Normalization / Layer Normalization이다. 1. Normalization - Normalization 이란, 우리말로 정규화 이다. - 이는 데이터의 범위를 특정 범위 또는 규칙에 따라 조정하는 과정을 말하는 것이다. - 대표적으로는 데이터의 최소값을, 최대값을 1로 변환하여 데이터의 분포를 조정하는 방법이 있다. - Normalization을 하는 이유는 1) 데이터의 스케일을 조정하여 분석 또는 처리가 용이하게 만들고 2) 다양한 단위나 범위를 가진 데이터를 일관된 형태로 변환하며 3) 학습 알고리즘이 더 빠르고 효과적으로 수렴하도록 도와주고 4) 데이터 내 특징(feature) 간의 상대적 중요도를 균등화하기 위.. 2024. 1. 27.
반응형