티스토리 뷰
[ 밑줄/연결 ]
어텐션(Attention)을 한마디로 표현하면 내가 찾고자 하는 것(쿼리)을 내가 아는 지식(키, 값)을 이용해서 찾아내는 것이다.
(사전 학습과 파인튜닝)
사전 학습은 많은 데이터와 고성능의 GPU를 통해 오랫동안 학습된다.
그에 따라 파인튜닝은 사전 학습된 모델을 이용해서 개발자가 최종적으로 원하는 모델로 튜닝시키는 과정이다.
파인튜닝은 사전 학습을 하는 것에 비해 적은 데이터로 짧은 시간에 학습할 수 있다.
홍길동 대리는 텍스트를 분류하는 텍스트 분류 모델을 만들어야 하고, 둘리 사원은 질의응답 기능을 가진 모델을 만들어야 한다....
한국어를 사전 학습한 한국어 BERT 모델을 공통으로 사용할 수 있다.
그 다음에는 홍길동 대리는 자기 나름대로 BERT 모델에 텍스트 분류를 위한 레이어를 추가해서 영화 감상평 데이터를 사용해 프로젝트를 수행하면 된다.
둘리 사원은 BERT 모델에 질의응답을 위한 레이어를 추가해서 뉴스 데이터로 프로젝트를 수행하면 된다.
BERT가 나오기 전이라면 홍길동 대리와 둘리 사원은 처음부터 끝까지 각자 모델링을 했어야 할 뿐 아니라 더 많은 데이터를 필요로 했을 것이다....
한국어로사전 학습된 BERT를 이용하면 모델링을 하는 데 필요한 개발 시간을 크게 단축시킬 수 있다.
각자의 목적에 맞게 모델을 조금 추가하는 것이 파인튜닝이다.
사전 학습 후 파인튜닝하는 구조를 취하게 되면 적은 데이터로도 충분히 학습을 진행할 수 있다.
보통 모델을 학습할 때 많은 데이터가 필요한 이유는 다양한 형태의 데이터를 학습하기 위함이다.
사전 학습된 모델은 이미 충분히 많은 데이터를 학습한 상태이다. 따라서 파인튜닝을 진행할 때는 학습 데이터의 개수가적더라도 충분히 다양한 데이터이 패턴을 다룰 수 있는 모델로 학습될 수 있다.
[ 자평 ] 국내 저자가 트랜스포머에 대하여 쓴 책은 이 책이 처음이지 않을까 싶다.
'지능 > 인공지능' 카테고리의 다른 글
생각을 기계가 하면, 인간은 무엇을 하나? by 존 다니허 (0) | 2023.09.03 |
---|---|
AI쇼크, 다가올 미래 by 모 가댓 (0) | 2023.07.09 |
주머니 속의 머신러닝 by 맷 해리슨 (0) | 2023.06.11 |
AI 컴파일러는 만든다는 사람이 있어서... (0) | 2023.06.11 |
실무가 보이는 머신러닝 딥러닝 by 마창수 (1) | 2023.06.11 |
- Total
- Today
- Yesterday
- 당신은 AI를 개발하게 된다
- 인공지능
- 이노베이션
- 경영혁신
- 복잡계의 새로운 접근
- 함께 있으면 피곤한 사람
- 혁신
- 고도를 기다리며
- 디지털 트랜스포메이션 엔진
- 파괴적 혁신
- 부정성 편향
- 경계의 종말
- 불교
- 참을 수 없는 존재의 가벼움
- 안나 카레니나
- 돈
- 상대성이론
- 사회물리학
- Ai
- 데브옵스 도입 전략
- 전략에 전략을 더하라
- 스케일의 법칙
- 양자역학
- 플랫폼의 시대
- 제로 성장 시대가 온다
- 최진석
- 개발자에서 아키텍트로
- 개발자가 아니더라도
- 함께 있으면 즐거운 사람
- 직감하는 양자역학
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |