안녕, 트랜스포머 by 이진기
[ 밑줄/연결 ] 어텐션(Attention)을 한마디로 표현하면 내가 찾고자 하는 것(쿼리)을 내가 아는 지식(키, 값)을 이용해서 찾아내는 것이다. (사전 학습과 파인튜닝) 사전 학습은 많은 데이터와 고성능의 GPU를 통해 오랫동안 학습된다. 그에 따라 파인튜닝은 사전 학습된 모델을 이용해서 개발자가 최종적으로 원하는 모델로 튜닝시키는 과정이다. 파인튜닝은 사전 학습을 하는 것에 비해 적은 데이터로 짧은 시간에 학습할 수 있다. 홍길동 대리는 텍스트를 분류하는 텍스트 분류 모델을 만들어야 하고, 둘리 사원은 질의응답 기능을 가진 모델을 만들어야 한다.... 한국어를 사전 학습한 한국어 BERT 모델을 공통으로 사용할 수 있다. 그 다음에는 홍길동 대리는 자기 나름대로 BERT 모델에 텍스트 분류를 위한..
지능/인공지능
2023. 6. 18. 18:54
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 돈
- 개발자에서 아키텍트로
- 인공지능
- 디지털 트랜스포메이션 엔진
- 경영혁신
- 직감하는 양자역학
- 참을 수 없는 존재의 가벼움
- 당신은 AI를 개발하게 된다
- 고도를 기다리며
- 이노베이션
- 개발자가 아니더라도
- 제로 성장 시대가 온다
- 함께 있으면 피곤한 사람
- 파괴적 혁신
- 플랫폼의 시대
- 사회물리학
- 경계의 종말
- 혁신
- 스케일의 법칙
- 데브옵스 도입 전략
- 안나 카레니나
- 함께 있으면 즐거운 사람
- 전략에 전략을 더하라
- 상대성이론
- 부정성 편향
- 양자역학
- 복잡계의 새로운 접근
- 최진석
- 불교
- Ai
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
글 보관함