안녕, 트랜스포머 by 이진기
[ 밑줄/연결 ] 어텐션(Attention)을 한마디로 표현하면 내가 찾고자 하는 것(쿼리)을 내가 아는 지식(키, 값)을 이용해서 찾아내는 것이다. (사전 학습과 파인튜닝) 사전 학습은 많은 데이터와 고성능의 GPU를 통해 오랫동안 학습된다. 그에 따라 파인튜닝은 사전 학습된 모델을 이용해서 개발자가 최종적으로 원하는 모델로 튜닝시키는 과정이다. 파인튜닝은 사전 학습을 하는 것에 비해 적은 데이터로 짧은 시간에 학습할 수 있다. 홍길동 대리는 텍스트를 분류하는 텍스트 분류 모델을 만들어야 하고, 둘리 사원은 질의응답 기능을 가진 모델을 만들어야 한다.... 한국어를 사전 학습한 한국어 BERT 모델을 공통으로 사용할 수 있다. 그 다음에는 홍길동 대리는 자기 나름대로 BERT 모델에 텍스트 분류를 위한..
지능/인공지능
2023. 6. 18. 18:54
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 복잡계의 새로운 접근
- 개발자가 아니더라도
- 고도를 기다리며
- 돈
- 사회물리학
- 함께 있으면 피곤한 사람
- 혁신
- 파괴적 혁신
- 최진석
- 참을 수 없는 존재의 가벼움
- 플랫폼의 시대
- 경영혁신
- 함께 있으면 즐거운 사람
- Ai
- 디지털 트랜스포메이션 엔진
- 안나 카레니나
- 상대성이론
- 인공지능
- 전략에 전략을 더하라
- 개발자에서 아키텍트로
- 직감하는 양자역학
- 제로 성장 시대가 온다
- 부정성 편향
- 경계의 종말
- 양자역학
- 불교
- 이노베이션
- 데브옵스 도입 전략
- 당신은 AI를 개발하게 된다
- 스케일의 법칙
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
글 보관함