📐 RL 함수 근사의 필요성 — 큰 상태공간 문제를 해결하려면
- Track: rl
- Era: all
- Video ID: lEykI6sVEQI
- Playlist: PLSucJlr3QLmz1y57OPuEgjApPEsSya4Cn
- YouTube: Watch
- Thumbnail:

- Tags: 강화학습, 함수근사, FunctionApproximation, RLOdyssey
📐 RL.06 함수 근사의 필요성 — 큰 상태공간 문제를 해결하려면?
Q-테이블은 단순하고 직관적이지만, 현실 세계의 거대한 상태공간을 다루기엔 불가능했습니다. 이 문제를 해결한 방법이 바로 **함수 근사(Function Approximation)**입니다. AI는 이제 비슷한 상황을 일반화하며, 복잡한 세상에서도 효율적으로 학습할 수 있게 되었습니다.
🌟 핵심 포인트
Q-테이블의 한계: 상태공간 폭발과 일반화 부족
함수 근사의 아이디어: 값 저장 대신 직접 계산
일반화 능력으로 현실 환경에 적응
불안정성 문제와 딥러닝으로의 연결
👉 다음 에피소드 RL.07 정책 기울기의 시작 — 행동을 직접 최적화하는 새로운 접근에서 강화학습의 새로운 패러다임을 만나봅니다.
🏷️ #강화학습 #함수근사 #FunctionApproximation #ReinforcementLearningOdyssey #AI역사
