![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/cw2Bor/btr3eyfR5fZ/6clg0MfQwnLSkkJsaPOtJK/img.jpg)
[ 밑줄/연결 ] 2009년 NVIDA의 CUDA 사용을 전제로, 신경망 종류에 따라 5.3배에서 최대 15.3배의 학습 성능 향상이 있었던 것이다. 현재의 상용 인공신경망들도 학습이 한 달 이상 걸린다는 것을 생각해 보면 이게 얼마나 큰 진전인지 알 수 있다. 학습 속도는 시장 진출 타이밍 자체를 완전히 바꿔 놓는 문제이기 때문이다. 학습에 1년이 소요되는 신경망은 두 번망 실패해도 상용화까지 3년이 걸린다. 반면 학습 기간이 한 달이라면 1년에 12번은 해 볼 수 있었다. STT의 발전을 가로막던 큰 문제는 다국어 지원 문제였다. 백인, 흑인, 황인 등 다양한 인종이 있지만 얼굴은 어느 정도 공통 요소가 존재한다. 하지만 음성인식은 다르다. 언어의 종류가 수십 가지다.... 이런 문제를 해결한 것이 ..
지능/인공지능
2023. 3. 12. 17:50
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 함께 있으면 피곤한 사람
- 복잡계의 새로운 접근
- 경영혁신
- 함께 있으면 즐거운 사람
- 부정성 편향
- 혁신
- 상대성이론
- 이노베이션
- 불교
- 사회물리학
- 양자역학
- 당신은 AI를 개발하게 된다
- 인공지능
- 안나 카레니나
- 전략에 전략을 더하라
- 플랫폼의 시대
- 직감하는 양자역학
- 디지털 트랜스포메이션 엔진
- Ai
- 개발자가 아니더라도
- 파괴적 혁신
- 경계의 종말
- 최진석
- 돈
- 제로 성장 시대가 온다
- 고도를 기다리며
- 참을 수 없는 존재의 가벼움
- 데브옵스 도입 전략
- 스케일의 법칙
- 머신러닝 디자인 패턴
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
글 보관함