Global Vendors Training

Home > > 전체교육일정

IBM

자연어 처리

교육일정
교육기간
2일
교육금액
800,000원(면세)
IBM전체일정보기 수강신청

교육개요

현대 IT 산업은 데이터와 인공지능(AI)이 주요한 키워드로 떠오르고 있습니다.
이러한 추세에 발맞추어, 현업에서 필요한 NLP와 딥러닝을 배우세요. PyTorch와 TensorFlow로 기초부터 Word2Vec, Seq2Seq까지 자연어 처리의 실전 기법을 익히며, Transformer로 뛰어난 성능의 모델을 구축하는 방법을 마스터할 수 있습니다.



교육목표

NLP 기술 학습으로 자연어 처리의 이해를 높이고, Word2Vec과 Seq2Seq 모델을 활용하여 자연어 생성 능력 향상 및 Transformer 아키텍처 습득하여 실전 활용을 목표로 합니다.



강의내용

[Chapter1. Pytorch 기본]
· 학습 목표
PyTorch와 TensorFlow의 장단점 및 기본 구조를 이해한다.
· 주요 내용
1. Pytorch vs Tensorflow
2. Pytorch기반 신경망 구축 코드리뷰

[Chapter2. NLP]
· 학습 목표
자연어 처리의 기본 원리를 이해하고, 텍스트 전처리, 토큰화, 형태소 분석 등의 기초 작업을 학습한다.
· 주요 내용
1. 자연어 처리(NLP)의 개념
2. NLP의 기본 작업 (토큰화, 형태소 분석, 개체명 인식 등)

[Chapter3. 임베딩(Embedding)]
· 학습 목표
단어를 벡터로 표현하는 방법을 학습하고, 희소 표현의 문제를 해결하기 위한 Word Embedding 기술을 살펴본다.
· 주요 내용
1. Word Embedding 기법 소개 (One-hot Encoding, Word2Vec, GloVe 등)
2. 임베딩 벡터의 시각화

[Chapter4. Word2Vec]
· 학습 목표
단어 간의 의미 유사성을 파악하는 Word2Vec 알고리즘의 원리와 구현 방법을 학습한다.
· 주요 내용
1. Word2Vec 알고리즘의 개념과 작동 원리
2. Word2Vec의 학습 과정과 파라미터 설정

[Chapter5. Seq2Seq 모델]
· 학습 목표
시퀀스 데이터를 처리하고 생성하는 Seq2Seq 모델의 구조와 동작 방식을 학습하며, 자연어 생성을 실습한다.
· 주요 내용
1. 시퀀스-투-시퀀스(Seq2Seq) 모델의 개념과 구조
2. RNN과 LSTM을 이용한 Seq2Seq 모델의 구현 방법
3. Seq2Seq 모델의 학습과 테스트

[Chapter6. Transformer]
· 학습 목표
Attention 메커니즘을 기반으로 하는 Transformer 아키텍처의 구조와 작동 방식을 학습하고, 자연어 처리에 적용하는 방법을 익힌다.
· 주요 내용
1. Transformer 모델의 개념
2. Attention 메커니즘의 기본 원리와 작동 방식 소개
3. Transformer 아키텍처의 구조와 주요 구성 요소