BERT와 GPT로 배우는 자연어 처리 by 이기창
[ 밑줄/연결 ] 트랜스퍼 러닝(Transfer Learning)이란 특정 태스크를 학습한 모델을 다른 태스크 수행에 재사용하는 기법을 가리킵니다. 비유하자면 사람이 새로운 지식을 배울 때 그가 평생 쌓아왔던 지식을 요긴하게 다시 써먹는 것과 같습니다. (문장 생성) GPT 계열 언어 모델이 널리 쓰입니다. 자연어(문장)을 입력받아 어휘 전체에 대한 확률값을 반환합니다. 이 확률 값은 입력된 문장 다음에 올 단어로 얼마나 적절한지를 나타내는 점수입니다. (학습 파이프라인) (1. 각종 설정값 정하기) 어떤 Pre-Train 모델을 사용할지, 학습에 사용할 데이터는 무엇인지, 학습 결과는 어디에 저장할지 등.... 하이퍼파라미터(Hyperparameter) 역시 미리 정해둬야 하는 중요한 정보입니다. 하이..
지능/인공지능
2022. 11. 12. 17:11
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 개발자가 아니더라도
- 인공지능
- 고도를 기다리며
- 데브옵스 도입 전략
- 파괴적 혁신
- 사회물리학
- 개발자에서 아키텍트로
- 경영혁신
- 복잡계의 새로운 접근
- 함께 있으면 피곤한 사람
- 경계의 종말
- 부정성 편향
- 플랫폼의 시대
- 불교
- 스케일의 법칙
- 최진석
- 전략에 전략을 더하라
- 상대성이론
- 양자역학
- 디지털 트랜스포메이션 엔진
- 당신은 AI를 개발하게 된다
- 혁신
- 직감하는 양자역학
- 참을 수 없는 존재의 가벼움
- 함께 있으면 즐거운 사람
- Ai
- 안나 카레니나
- 제로 성장 시대가 온다
- 이노베이션
- 돈
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
글 보관함