AI Odyssey RL
/
Overview
Core
CV
GA
RL
NLP
Future Makers
Course overview
Future Makers는 커리어 설계를 통해 비전 리더십을 개발합니다.
6 modules
·
67 lessons
·
Start the course
Part 1
Era I — 언어 처리의 태동
🎥 NLP 01 ELIZA의 패턴 매칭 — 최초의 자연어 대화 시스템 #자연어처리 #ELIZA #NLPOdyssey #AI역사 #대화형AI
🎥 NLP 02 문법 파싱의 시작 — Context Free Grammar와 구문 분석 #자연어처리 #CFG #NLPOdyssey #AI역사 #문법파싱
🎥 NLP 03 의미망의 개념 — WordNet이 단어 관계를 정리하다 #자연어처리 #WordNet #NLPOdyssey #AI역사 #의미망
🎥 NLP 04 💬 전문가 시스템과 언어 – 마이신의 자연어 인터페이스 #자연어처리 #마이신 #NLPOdyssey #AI역사 #전문가시스템
🎥 NLP 05 N-gram 모델의 등장 – 확률로 다음 단어 예측하기 #자연어처리 #n그램 #언어모델 #AI역사 #NLPOdyssey
🧠 06 HMM과 품사 태깅 – 숨겨진 상태로 문법 구조 찾기 #자연어처리 #에이치엠엠 #품사태깅 #NLPOdyssey #AI역사
🎥 NLP 07 TF-IDF의 지혜 – 단어의 중요도를 수치로 평가하다 #자연어처리 #TFIDF #언어모델 #NLPOdyssey #AI역사
Ep 19 스팸메일 지옥에서 인류를 구원한 수학의 힘! 베이지안 필터 혁명 #베이지안필터 #스팸메일 #확률론 #토머스베이즈 #이메일혁명 #지메일 #인터넷역사 #수학의힘 #AI기초
🌍 IBM 통계 번역 – 확률 모델로 언어 번역의 혁신 #자연어처리 #IBM번역 #NLPOdyssey #AI역사 #통계번역
🧠 10 LSA와 차원 축소 – 잠재 의미 분석의 시작 #자연어처리 #LSA #차원축소 #NLPOdyssey #AI역사
Part 2
Era II — 벡터화 혁명
📌 다국어 임베딩 – 언어 간 의미 공간 연결하기 #자연어처리 #다국어임베딩 #전이학습 #NLPOdyssey #AI역사
🔤 형태소 분석의 발전 – 언어별 특성을 반영한 토크나이징 #자연어처리 #형태소분석 #토크나이징 #NLPOdyssey #AI역사
🔤 Subword Tokenization - BPE가 어휘 문제를 해결하다 #자연어처리 #서브워드 #BPE #NLPOdyssey #AI역사
🧠 Char-RNN의 문자 모델링 – Char RNN, 문자 수준에서 배우는 언어의 구조 #자연어처리 #CharRNN #문자모델링 #NLPOdyssey #AI역사
🎥 Doc2Vec의 문서 임베딩 – 문서 전체를 하나의 벡터로 Clipchamp로 제작
🧠 FastText의 확장 – 부분 단어 정보까지 활용하다 #자연어처리 #파스트텍스트 #단어임베딩 #NLPOdyssey #AI역사
🌍 12 GloVe의 글로벌 관점 – 전역 통계와 지역 문맥의 결합 #자연어처리 #글로브 #단어임베딩 #NLPOdyssey #AI역사
🔡 Ep 46 Word2Vec의 마법 – 단어를 숫자로, 의미를 벡터로 #Word2Vec #자연어처리 #NLP #AI역사 #단어벡터
Part 3
Era III — 순환 신경망 시대
📝 Copy Mechanism – 요약과 질의응답의 핵심 기술 #CopyMechanism #NLP #요약 #질의응답 #NLPOdyssey
🌍 Neural Machine Translation – 구글 번역이 급속도로 발전한 이유 #NMT #구글번역 #기계번역 #NLPOdyssey #AI역사
✨ Seq2Seq의 혁신 – 인코더 디코더로 번역을 바꾸다 #Seq2Seq #인코더디코더 #기계번역 #NLPOdyssey #AI역사
📌 GRU의 간소화 – LSTM을 더 효율적으로 만들다 #GRU #LSTM #RNN #NLPOdyssey #AI역사
📌 양방향 RNN – 양방향으로 문맥을 이해하다 #BidirectionalRNN #NLP #DeepLearning #NLPOdyssey #AI역사
Part 4
Era IV — 트랜스포머 혁명
BERT의 양방향 — 양쪽에서 문맥을 이해하는 혁신 #BERT #양방향모델 #NLP #AI역사 #NLPOdyssey
ELMo의 맥락화 — 문맥에 따라 달라지는 단어 표현 #ELMo #NLP #자연어처리 #NLPOdyssey #AI역사
💡 Self-Attention의 위력 — 자기 자신과의 대화 #SelfAttention #Transformer #NLP #AI역사 #NLPOdyssey
📐 Positional Encoding — 순서 정보를 어떻게 넣을까 #PositionalEncoding #Transformer #NLP #AI역사 #NLPOdyssey
🔦Multi Head Attention — 여러 관점에서 동시에 집중하다 #MultiHeadAttention #Transformer #NLP #AI역사 #NLPOdyssey
Ep 59 Transformer 트랜스포머 – "어텐션만으로 충분하다" #transformer #ai #alexnet #deeplearning #attention
Part 5
Era V — 거대 언어 모델 시대
📝 Gen 15 GPT의 텍스트 생성 — 자연스러운 문장 생성의 시작 #생성AI #GPT #텍스트생성 #트랜스포머 #오픈AI #언어모델 #사전훈련 #자연어처리
Ep 61 GPT 2 – 너무 똑똑해서 잠시 봉인된 언어모델 #gpt #chatgpt #nlp
Ep 68 GPT 3 – 하나의 모델, 무한한 언어 #chatgpt #deeplearning #nlp
💬 GPT 4V의 시각 지능 — 멀티모달 대화형 AI의 완성 #컴퓨터비전 #GPT4V #멀티모달AI #CVOdyssey #AI역사 #완주
🎬 T5의 통합 – Text to Text Transfer Transformer #T5 #TextToText #통합모델 #NLP #NLPOdyssey #AI역사
🎬 40 다국어 모델들 – mBERT, XLM R이 언어 장벽을 허물다 #mBERT #XLMR #다국어모델 #언어장벽 #NLPOdyssey #AI역사
Part 6
All — NLP Full
🎥 NLP 01 ELIZA의 패턴 매칭 — 최초의 자연어 대화 시스템 #자연어처리 #ELIZA #NLPOdyssey #AI역사 #대화형AI
🎥 NLP 02 문법 파싱의 시작 — Context Free Grammar와 구문 분석 #자연어처리 #CFG #NLPOdyssey #AI역사 #문법파싱
🎥 NLP 03 의미망의 개념 — WordNet이 단어 관계를 정리하다 #자연어처리 #WordNet #NLPOdyssey #AI역사 #의미망
🎥 NLP 04 💬 전문가 시스템과 언어 – 마이신의 자연어 인터페이스 #자연어처리 #마이신 #NLPOdyssey #AI역사 #전문가시스템
🎥 NLP 05 N-gram 모델의 등장 – 확률로 다음 단어 예측하기 #자연어처리 #n그램 #언어모델 #AI역사 #NLPOdyssey
🧠 06 HMM과 품사 태깅 – 숨겨진 상태로 문법 구조 찾기 #자연어처리 #에이치엠엠 #품사태깅 #NLPOdyssey #AI역사
🎥 NLP 07 TF-IDF의 지혜 – 단어의 중요도를 수치로 평가하다 #자연어처리 #TFIDF #언어모델 #NLPOdyssey #AI역사
Ep 19 스팸메일 지옥에서 인류를 구원한 수학의 힘! 베이지안 필터 혁명 #베이지안필터 #스팸메일 #확률론 #토머스베이즈 #이메일혁명 #지메일 #인터넷역사 #수학의힘 #AI기초
🌍 IBM 통계 번역 – 확률 모델로 언어 번역의 혁신 #자연어처리 #IBM번역 #NLPOdyssey #AI역사 #통계번역
🧠 10 LSA와 차원 축소 – 잠재 의미 분석의 시작 #자연어처리 #LSA #차원축소 #NLPOdyssey #AI역사
🌍 12 GloVe의 글로벌 관점 – 전역 통계와 지역 문맥의 결합 #자연어처리 #글로브 #단어임베딩 #NLPOdyssey #AI역사
🧠 FastText의 확장 – 부분 단어 정보까지 활용하다 #자연어처리 #파스트텍스트 #단어임베딩 #NLPOdyssey #AI역사
🎥 Doc2Vec의 문서 임베딩 – 문서 전체를 하나의 벡터로 Clipchamp로 제작
🧠 Char-RNN의 문자 모델링 – Char RNN, 문자 수준에서 배우는 언어의 구조 #자연어처리 #CharRNN #문자모델링 #NLPOdyssey #AI역사
🔤 Subword Tokenization - BPE가 어휘 문제를 해결하다 #자연어처리 #서브워드 #BPE #NLPOdyssey #AI역사
🔤 형태소 분석의 발전 – 언어별 특성을 반영한 토크나이징 #자연어처리 #형태소분석 #토크나이징 #NLPOdyssey #AI역사
📌 다국어 임베딩 – 언어 간 의미 공간 연결하기 #자연어처리 #다국어임베딩 #전이학습 #NLPOdyssey #AI역사
🔁 Ep 47 RNN의 기억력 – 순서를 기억하는 신경망 #RNN #순환신경망 #자연어처리 #딥러닝 #AI역사
Ep 48 LSTM 기억을 설계한 신경망 – 망각의 한계를 넘다 #longshorttermmemory #rnn #vanishinggradient
📌 GRU의 간소화 – LSTM을 더 효율적으로 만들다 #GRU #LSTM #RNN #NLPOdyssey #AI역사
📌 양방향 RNN – 양방향으로 문맥을 이해하다 #BidirectionalRNN #NLP #DeepLearning #NLPOdyssey #AI역사
✨ Seq2Seq의 혁신 – 인코더 디코더로 번역을 바꾸다 #Seq2Seq #인코더디코더 #기계번역 #NLPOdyssey #AI역사
Ep 58 선택과 집중의 알고리즘 – 어텐션의 탄생 #attention #transfomer #bert #nlp #rnn #lstm #query
🌍 Neural Machine Translation – 구글 번역이 급속도로 발전한 이유 #NMT #구글번역 #기계번역 #NLPOdyssey #AI역사
📝 Copy Mechanism – 요약과 질의응답의 핵심 기술 #CopyMechanism #NLP #요약 #질의응답 #NLPOdyssey
🔦Multi Head Attention — 여러 관점에서 동시에 집중하다 #MultiHeadAttention #Transformer #NLP #AI역사 #NLPOdyssey
💡 Self-Attention의 위력 — 자기 자신과의 대화 #SelfAttention #Transformer #NLP #AI역사 #NLPOdyssey
📐 Positional Encoding — 순서 정보를 어떻게 넣을까 #PositionalEncoding #Transformer #NLP #AI역사 #NLPOdyssey
ELMo의 맥락화 — 문맥에 따라 달라지는 단어 표현 #ELMo #NLP #자연어처리 #NLPOdyssey #AI역사
BERT의 양방향 — 양쪽에서 문맥을 이해하는 혁신 #BERT #양방향모델 #NLP #AI역사 #NLPOdyssey
🎬 T5의 통합 – Text to Text Transfer Transformer #T5 #TextToText #통합모델 #NLP #NLPOdyssey #AI역사
🎬 40 다국어 모델들 – mBERT, XLM R이 언어 장벽을 허물다 #mBERT #XLMR #다국어모델 #언어장벽 #NLPOdyssey #AI역사