[ 밑줄/연결 ] "미국인의 몇 퍼센터가 자신의 운전 실력을 평균 이상이라고 평가했을까요?" .......... "정답은 95%다." (유창성 효과) 머릿속에 떠올렸을 때 과정이 수월하게 그려지면 우리도 모르게 과신에 빠져든다. '이쯤이야 나도 할 수 있을 것 같은데?'라고 착각하게 만드는 유창성 효과는 다양한 방식으로 우리 안에 파고든다. 언젠가 돌리 파튼(Dolly Parton)이 이런 말을 했다. "이만큼 촌티 나게 꾸미려면 돈이 보통 많이 드는 게 아니예요." 스피킹 코치들이 배포한 테드 스타일 강연 지침에 따르면, 강연을 1분 하는 데 최소 한 시간의 리허설이 필요하다. 즉, 20분짜리 강연을 하려면 전체 내용을 최소 60번 반복 연습해야 한다는 의미다. 단순한 상관관계이지만 그 기저에 깔린 매..
[ 밑줄/연결 ] (머신러닝 과정에 대한 개요) ㅇ 비즈니스의 이해 ㅇ 데이터의 이해 ㅇ 데이터의 준비 ㅇ 모델링 ㅇ 검증 ㅇ 배포 (데이터에 관한 용어) 모델은 행렬 형태의 데이터로 학습되는 것이 일반적 (데이터의 정리) 수치형(정수나 부동소수) 특징으로 변환 누락된 값 이상치 등 체크 (데이터 전처리) 표준화 (평균을 0, 표준 편차를 1로 만드는 것 등) 범위 조정하여 그 값이 0과 1 사이가 되도록 하는 것 더미 변수 생성하여 '원-핫 코딩' 등 (특징추출) 상관관계 비교 (ex: 히트맵) 상관성이 높은 열들은 별다른 가치가 없으며, 특징 중요도 및 회귀 계수이 해석을 의미 없게 만들 수 있음 (모델의 최적화) 모델의 행동을 제어하는 하이퍼파라미터(hyperparameter) 하이퍼파라미터의 값을..
개발자가 아니라 자세한 것은 알 필요가 없지만.. 그게 왜 필요한지? 뭘 하는 것인지? 하려면 뭘 알아야 하는지 알기 위해서 좀 찾아 봤다 우선 파이토치/텐서플로 같은 개발 프레임워크가 GPU/NPU 상에서 실행이 되려면 ㅇ NPU HW 백엔드에서 1차원 벡터, 2차원 벡터인 텐서 형태로 처리가 될 수 있도록 지원이 되어야 함 ㅇ CPU는 스칼라 형태로 처리가 됨 ㅇ 이렇게 되려면 파이토치/텐서플로 같은 프레임워크에서 NPU 칩의 커널 라이브러를 알아야 기능을 제공할 수 있음 ㅇ 예를 들면 구글은 TPU는 2018년 나왔는데 파이토치는 2020년에 나옴. ㅇ 그래서 파이토치에서 구글의 TPU를 직접 사용할 수 없었음 ㅇ 파이토치라는 개발 프레임워크를 개발한 개발자가 이를 지원하기 위해서는 NPU, TPU..
[ 밑줄/연결 ] ---> 사람마다 정의와 분류는 다를 수 있다. ---> 아마 말하는 사람은 클라우드 서비스 외에 저 많은 것들을 AI 인프라/플랫폼으로 언급하고 자기가 한다고 한 것 같다. 저걸 어느 일개 사업자가 다 할 수나 있는 것인지? 남들이 얼마큼 얼마나 잘하고(또는 부족하게) 있는지는 알고나 하는 소리인지.....나는 황당했다. (인공지능 개발을 위한 분산 플랫폼 환경) 대량의 데이터를 저장하기 위한 저장소가 필요 + 분산된 GPU 서버 환경에서 학습을 수행해야 함 규모가 있는 인공지능 개발 환경을 구축하기 위해서는 단독 머신이 아닌 분산 환경을 고민해야 함 빅 데이터 분석 플랫폼들은 데이터 수집, 저장, 분석을 위한 분산 환경을 지원함 이런 플랫폼에서도 인공지능 기술인 머신러닝 프레임워크를..
[ 밑줄/연결 ] ----> 책상머리에서 문자 기획만 하는 사람들은 이 '특징 추출'이 뭔지, 뭘 하는 건지, 어떻게 하는 건지에 대한 기본 지식과 경험, 감이 없기 때문에 머신러닝과 딥러닝을 대충 섞어서 쓰는 것이다. 이 혁명이 얼마나 큰 것인지 전혀 감이 없으니.. 자율주행차와 지능형 CCTV 등은 딥러닝이 도입된 인공지능의 대표적인 예입니다. (학습, 추론) 학습(Learning)과 추론(Mechanism)은 데이터를 이용하여 규칙(Rule)을 만들고 결론을 도출하는 영역 방대한 양의 데이터를 학습하고 그 데이터의 의미를 추론하는 것 (행동) 매 순간 결정을 내리고 행동할 수 있도록 전략과 보상 같은 개념을 사용함 ---> 이 책을 읽을 당시에는 몰랐는데, 2023년 6월 현재 다시 읽으면서 절감하..
[ 밑줄/연결 ] (머신러닝을 사용해야 할 때) 자칫 머신러닝을 사용하여 모든 문제를 해결하려고 하는 것은 과욕이 될 수 있다. (문제가 너무 복잡해서 코딩으로 해결할 수 없을 때) ㅇ 문제가 너무 복잡하거나 너무 커서 문제를 해결하기 위한 모든 규칙을 작성할 수 없는 상황에서 부분 해결이 가능하고 이러한 해결 방법이 효과적인 경우 ㅇ 너무 많은 조건과 예외가발생하여 결국 해당 코드를 유지보수하기가 어려워 짐 ㅇ ex) 스팸검출 ㅇ ex) 대출자가 대출금을 제대로 상환할지 여부를 예측하는 문제: 나이, 급여, 계좌 잔고, 과거 납입 정도, 결혼 여부, 자녀 수, 자동차 보유, 부동산 담보 대출 잔소 등 수백 개의 숫자가 각 대출자를 나타냄. 이 중 일부는 결정을 내리는 데 중요하고, 일부는 덜 중요하지만..
[ 밑줄/연결 ] 2009년 NVIDA의 CUDA 사용을 전제로, 신경망 종류에 따라 5.3배에서 최대 15.3배의 학습 성능 향상이 있었던 것이다. 현재의 상용 인공신경망들도 학습이 한 달 이상 걸린다는 것을 생각해 보면 이게 얼마나 큰 진전인지 알 수 있다. 학습 속도는 시장 진출 타이밍 자체를 완전히 바꿔 놓는 문제이기 때문이다. 학습에 1년이 소요되는 신경망은 두 번망 실패해도 상용화까지 3년이 걸린다. 반면 학습 기간이 한 달이라면 1년에 12번은 해 볼 수 있었다. STT의 발전을 가로막던 큰 문제는 다국어 지원 문제였다. 백인, 흑인, 황인 등 다양한 인종이 있지만 얼굴은 어느 정도 공통 요소가 존재한다. 하지만 음성인식은 다르다. 언어의 종류가 수십 가지다.... 이런 문제를 해결한 것이 ..
[ 밑줄/연결 ] ---> 하도 봐서 지겨울 정도이 자료이나, 2023년 2월 ~3월 ChatGPT를 보면서 이 마저도 아닌 것 같다는 생각이 든다 ---> 억지 스러운 그림이다. 이런 대충스러운, 허접한 주장보다는 제대로된 논리와 자료를 보는 것이 1000% 낫다. 인공지능 시스템에 잘못된 입력을 하거나 학습 데이터를 오염시켜 오작동하도록 하는 것을 '적대적 공격(adverse attack)' 또는 '적대적 머신러닝(adversarial machine learing)'이라고 하고, 이렇게 인공지능을 잘못 작동하도록 하는 사례를 '적대적 사례(adversarial examples)'라고 합니다. 모델링이란 복잡한 현실 세계를 단순화 또는 추상화함으로써 공통적으로 이해할 수 있는 수식이나 그림 등과 같은 ..
여러 가정들을 한데 모은 것을 머신러닝에서는 모델이라고 합니다. 쉽게 말해 현재 상태를 어떠한 시각으로 바라보고 어떠한 기대를 하고 있는가 하는 것이 모델입니다. 일반적인 머신러닝 과정 (1) 모델 정하기: 데이터가 어떻게 생겼을지 가정하기 ㅇ 모델: 데이터를 바라보는 시점과 가정 ㅇ 모델이란 가정에 따라 생성될 수 있는 함수들의 집합 ㅇ 모델이 바뀐다 = 함수의 꼴이 달라진다. (2) 모델의 학습 목표를 수식화하기 ㅇ 학습 = 그 모델이 표현하는 함수 집합 중에서 가장 데이터에 적합한 함수를 고르는 과정 (3) 실제 데이터로 모델 학습하기(최적화) (4) 평가하기 ㅇㅇ
- Total
- Today
- Yesterday
- 돈
- 부정성 편향
- 복잡계의 새로운 접근
- 이노베이션
- 참을 수 없는 존재의 가벼움
- 플랫폼의 시대
- 지승도
- 제로 성장 시대가 온다
- 전략에 전략을 더하라
- 개발자에서 아키텍트로
- 경영혁신
- 혁신
- 함께 있으면 피곤한 사람
- Ai
- 개발자가 아니더라도
- 사회물리학
- 경계의 종말
- 파괴적 혁신
- 안나 카레니나
- 데브옵스 도입 전략
- 최진석
- 양자역학
- 고도를 기다리며
- 스케일의 법칙
- 인공지능
- 상대성이론
- 당신은 AI를 개발하게 된다
- 함께 있으면 즐거운 사람
- 디지털 트랜스포메이션 엔진
- 불교
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |