안녕, 트랜스포머 by 이진기
[ 밑줄/연결 ] 어텐션(Attention)을 한마디로 표현하면 내가 찾고자 하는 것(쿼리)을 내가 아는 지식(키, 값)을 이용해서 찾아내는 것이다. (사전 학습과 파인튜닝) 사전 학습은 많은 데이터와 고성능의 GPU를 통해 오랫동안 학습된다. 그에 따라 파인튜닝은 사전 학습된 모델을 이용해서 개발자가 최종적으로 원하는 모델로 튜닝시키는 과정이다. 파인튜닝은 사전 학습을 하는 것에 비해 적은 데이터로 짧은 시간에 학습할 수 있다. 홍길동 대리는 텍스트를 분류하는 텍스트 분류 모델을 만들어야 하고, 둘리 사원은 질의응답 기능을 가진 모델을 만들어야 한다.... 한국어를 사전 학습한 한국어 BERT 모델을 공통으로 사용할 수 있다. 그 다음에는 홍길동 대리는 자기 나름대로 BERT 모델에 텍스트 분류를 위한..
지능/인공지능
2023. 6. 18. 18:54
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 파괴적 혁신
- 이노베이션
- 참을 수 없는 존재의 가벼움
- 돈
- 양자역학
- 함께 있으면 즐거운 사람
- 안나 카레니나
- 혁신
- 직감하는 양자역학
- 복잡계의 새로운 접근
- 데브옵스 도입 전략
- 전략에 전략을 더하라
- 인공지능
- 사회물리학
- 개발자가 아니더라도
- 경계의 종말
- 상대성이론
- 당신은 AI를 개발하게 된다
- 스케일의 법칙
- 불교
- 고도를 기다리며
- Ai
- 디지털 트랜스포메이션 엔진
- 함께 있으면 피곤한 사람
- 플랫폼의 시대
- 부정성 편향
- 경영혁신
- 최진석
- 개발자에서 아키텍트로
- 제로 성장 시대가 온다
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
글 보관함