반응형 SSM1 [딥러닝 with Python] Mamba란? 인공지능 분야는 트랜스포머(Transformer) 아키텍처의 등장과 함께 혁명적인 발전을 경험했습니다. 특히 거대 언어 모델(LLM)의 성공은 트랜스포머의 강력한 Self Attention을 활용한 표현력, 그리고 병렬 처리 능력 덕분이었습니다.[딥러닝 with Python] 어텐션 (Attention Mechanism) [딥러닝 with Python] 어텐션 (Attention Mechanism)이번에는 지난 시간에 알아본 Seq2Seq 모델의 단점 중 하나인 Encoder를 통해 Bottleneck을 활용해 압축된 정보를 Decoder를 통해 내보내는 것은 long sentences에서는 성능 약화의 요인이 되는 점을 극복하기jaylala.tistory.com 그러나, 트랜스포머의 핵심인 At.. 2025. 7. 18. 이전 1 다음 반응형