Video thumbnail

Ep 58 선택과 집중의 알고리즘 – 어텐션의 탄생


집중의 힘 – 어텐션 메커니즘이 바꾼 AI의 사고방식


1. 개요

  • 발표 시기: 2015년 (Neural Machine Translation by Jointly Learning to Align and Translate)
  • 정의: 시퀀스 처리 과정에서 입력의 모든 요소를 고려하되, 중요한 부분에 더 높은 가중치를 부여하는 신경망 구조
  • 의미: 긴 문맥 처리와 정보 손실 문제를 완화하며, AI가 맥락을 이해하는 방식을 혁신
  • 역사적 위치: 이후 Transformer(2017)와 GPT 계열 모델의 핵심 토대

2. 배경 – 긴 문맥의 한계

  • 기존 RNN·LSTM은 시퀀스 길이가 길어질수록 기울기 소실로 초반 정보가 희미해짐
  • 번역·요약·질의응답에서 긴 문장을 처리하는 데 품질 저하 발생

3. 핵심 아이디어

  • 입력의 각 요소에 연관도(유사도) 기반 가중치 부여
  • Query–Key–Value 구조로, 관련성이 높은 정보만 강조
  • 불필요한 정보는 억제하고 필요한 맥락만 집중적으로 반영

4. 주요 성과

  • 번역 품질 향상, 특히 긴 문장에서 맥락 유지
  • 요약, 질의응답, 이미지 캡션 생성 등 다양한 태스크로 확산
  • 멀티헤드 어텐션을 통한 다중 시각 관점 분석 가능

5. 영향력

  • Transformer 구조의 핵심 요소
  • 텍스트뿐 아니라 이미지, 음성, 영상까지 적용 → 멀티모달 AI의 기반
  • GPT, BERT, DALL·E 등 현대 거대 모델 전반에 사용

6. 의의

  • 어텐션 메커니즘은 AI가 모든 정보를 똑같이 대하는 ‘평등한 처리’에서, 상황에 따라 선택과 집중을 하는 ‘지능적 처리’로 진화하는 전환점이었다.

Ep 58 선택과 집중의 알고리즘 – 어텐션의 탄생 #attention #transfomer #bert #nlp #rnn #lstm #query - AI Odyssey NLP