티스토리 뷰

728x90

[ 밑줄/연결 ]

 

모든 합리적인 존재가 그렇듯이, 알고리듬도 보상을 최대화하기 위해서 자기 환경을 바꾸는 법을 배운다.

 

지능의 특징을 다음고 같이 요약할 수 있는 수준에 이르렀다.

우리의 행동이 우리의 목적을 달성할 것으로 예상되는 한, 인간은 지적이다.

ㅇ 지능의 다른 모든 특징- 지각, 생각, 학습, 창안 등 -은 성공적으로 행동하는 능력에 기여하는 것이라고 볼 수 있다.

기계의 행동이 기계의 목적을 달성할 것으로 예상되는 한, 기계는 지적이다.

 

한 존재는 자신이 하는 일이 자신이 지각해 온 것을 토대로 자신이 원하는 것을 성취할 가능성이 있는 한 지적이다.

 

AI기법이 "인간의 뇌처럼 작동한다"라는 기사를 읽을 때면, 그 말이 그저 누군가의 추측이거나 그냥 허구라고 의심해도 괜찮다. 

 

우리 뇌는 작고 느린 반면 우리가 늘 직면하는 결정 문제들은 헤아릴 수 없을 정도로 엄청난 복잡성을 지니고 있기에, 우리의 마음에는 그 불일치를 보완하기 위한 인지 구조가 아주 많이 있다.

---> 역시, AI이면 세상 모든 문제가 해결될 것 같이 떠뜨는 (AI기술의 원리, 가능성, 한계 등을 전혀 모르는) 떠벌이와는 다른 한 수를 보여 주는 진짜 고수의 눈 빛...

 

알파제로는 뚜렷한 한계를 지니고 있다. 불연속적이고 관찰 가능하고 규칙이 알려진 2인용 게임이라는 유형에서만 작동하는 것이다. 이 접근법은 운전, 교육, 정부 운영, 세계 정복에는 전혀 먹히지 않을 것이다.

 

현대 AI는 목표와 논리 대신에 효용과 확률를 쓴다는 점을 제외하면, 매카시의 꿈을 재가동한 것이라고 할 수 있다.

 

바둑이나 체스나 장기.....이 모든 과제가 현실 세계보다 휠씬 단순하다는 점을 기억하자. 돌아가는 상황을 전부 다 관찰할 수 있고, 시간 지평이 짧고, 상태 공간의 집합이 비교적 작고, 규칙이 단순하고 예측 가능한 것들이다. 이런 조건 중 어느 것이 느슨해진다는 것은 표준 방법이 실패할 것이라는 의미다.

 

인공지능 개인비서

 

더 많은 공학자, 더 많은 데이터, 더 큰 컴퓨터에 더 많은 돈을 투자한다고 해서 해결될 문제가 아니다.....더 빠른 기계는 그저 틀린 답을 더 빨리 내놓을 뿐이기 때문이다.

 

가장 중요한 한 단계.....화이트헤드의 말을 빌리자면, 그 능력은 AI 시스템이 무심코 수행할 수 있는 중요한 조작의 수를 늘리는 것이다.

 

인간의 진정한 목적을 올바로 완전히 정의할 수 없다는 것이었다. 그리고 이는 내가 표준 모델이라고 부르는 것 - 인간이 자신의 목적을 기계에 불어넣으려는 시도- 이 실패할 운명임을 뜻한다.

 

자기 보존은 도구적 목표이므로 탑재할 필요가 전혀 없다. 도구적 목표란 거의 모든 원래의 목적을 달성하는 데 유용한 하위 목표를 말한다. 명확한 목적을 지닌 존재라면 자동적으로 도구적 목표도 지닌 양 행동할 것이다.

 

모든 것에는 최초의 사례가 있다. 그 사례가 나오기 전까지 사례는 0이다.

 

우리는 20세기 기술의 원동력이었던 개념 중 하나에서 벗어날 필요가 있다. 주어진 목적을 최적화하는 기계라는 개념 말이다. 

 

일단 민간 기업 과학자들이 연구를 주도하기 시작하면, 때는 이미 늦을 것이다.

 

개인이 보기에는 기계가 이미 지니고 있는 지식과 기술을 습득하기 위해 여러 해 동안 열심히 공부하는 것이 무의미해 보일지 모르다. 모두가 그런 식으로 생각한다면, 집단 수준에서 인류는 자율성일 잃을 것이다.

 

논리학이 명확한 지식으로 하는 추론의 일반적인 토대를 제공하는 반면, 확률론은 불확실한 정보(명확한 지식은 그런 정보의 특수한 사례에 불과하다)로 하는 추론을 포함한다. 

 

일부에서는 이익을 최대화하는 기업이 이미 통제 불능의 인공적인 존재가 되어 있다고 주장한다.

 

[ 자평 ] AI가 무엇인가?가 아닌 AI가 우리에게 무슨 의미인가?에 대한 대가의 친절한 설명

 

스튜어트 러셀 (Stuart Russell)교수는 인공지능 교과서를 쓰신 분이다. 1,500페이지 정도가 되는 전공서적이라 전공자가 아닌 내가 읽기에는 버거워서 일부 필요한 부분만을 읽은 기억이 있다.

이 책은 교과서처럼 인공지능의 원리에 대한 책이 아니라, 인공지능에 대하여 우리 대중이 어떤 생각을 함께 해야하는지에 대한 가치에 대한 책이다.

 

중간 중간 우리가 인공지능에 대하여 얼마나 잘못 알고 있는지에 대한 섬뜻섬뜻한 지적이 나온다.

 

오늘자 신문에 인터뷰 기사가 있어 읽어 보았다.

(출처: [인터뷰] ‘AI 석학’ 스튜어트 러셀 “자율주행 신뢰도 ‘텐나인’ 돼야… 10년 안에 대중화될 것” - 조선비즈 (chosun.com))

 

[인터뷰] ‘AI 석학’ 스튜어트 러셀 “자율주행 신뢰도 ‘텐나인’ 돼야… 10년 안에 대중화될 것”

 

사람처럼 생각하고 판단하는 자동기계에 인공지능(AI)이라는 이름을 최초로 붙여 ‘AI 아버지’로도 불리는 미국 스탠퍼드대 존 매카시 교수는 1950년대 말 자율주행차가 자신을 공항까지 태우고 오는 날이 언젠간 올 것이라고 상상했다고 한다. 그로부터 30년쯤 뒤인 1987년 자율주행 연구의 개척자로 꼽히는 에른스트 딕만 독일 뮌헨연방대 교수는 자율주행하는 메르세데스 벤츠 밴을 선보였다. 이 차는 스스로 운전하며 차선을 유지하고 다른 차를 따라가고 차선을 바꾸고, 심지어 추월할 수도 있었다. 30년도 더 흐른 2021년 현재 사실상 ‘완전 자율주행’으로 분류되는 4단계(미국자동차공학회 기준) 이상의 자율주행차는 아직 나오지 않았다. 안전한 자율주행은 왜 이렇게 요원한 것일까.

 

‘AI 분야의 교과서’로 평가되며 18개국, 1500여 대학에서 교재로 채택 중인 ‘인공지능’의 저자이자 미국 UC버클리 AI 연구소를 이끌고 있는 ‘AI 최고 석학’ 스튜어트 러셀 미국 UC버클리대 컴퓨터과학 교수는 조선비즈와 화상 인터뷰에서 “자율주행차는 단순히 도로 위 흰색 선을 따라가거나 앞차와의 거리를 정확하게 측정하는 것만으론 부족하다”라며 “신뢰도가 텐나인(99.99999999%) 수준은 돼야 한다. 10년 안에는 대중화가 되지 않을까 한다”라고 했다. 2030년은 돼야 자율주행차의 시대가 본격적으로 열린다고 보는 것이다. 많은 기술 낙관론자들과 비교하면 보수적인 전망이다.

올해 6월 국내 번역 발간된 스튜어트 러셀의 '어떻게 인간과 공존하는 인공지능을 만들 것인가'.

그는 최근 국내에도 번역 발간된 ‘어떻게 인간과 공존하는 인공지능을 만들 것인가(원제 Human Compatible)’라는 제목의 책에서도 “차는 현재와 과거의 관측을 토대로, 보이지 않을 수도 있는 대상까지 포함해 관련된 모든 대상의 의도와 앞으로 나타날 가능성이 높은 궤적을 산정, 안전과 진행의 조합을 최적화할 궤적을 찾아야 한다”라며 완전 자율주행이 기술적으로 어려운 이유를 설명하기도 했다.

러셀 교수는 오는 28~29일 온라인으로 생중계되는 국내 최대 테크 콘퍼런스 ‘스마트클라우드쇼2021′의 둘째 날 기조연설 무대에서 영상으로 국내 독자들과 만날 예정이다. 과학기술정보통신부와 서울시가 주최하고, 조선비즈와 정보통신산업진흥원이 주관하는 콘퍼런스를 앞두고 그와 화상으로 먼저 만났다. 그는 AI가 하나둘 잠식해나가고 있는 일자리에 대해 ”삶을 향상시키기 위해 다른 사람과 관계를 맺는 대인관계와 관련해서는 일의 범주가 상당히 커질 수 있을 것 같다”라며 “다른 사람의 삶에 긍정적인 영향을 주는 법에 대해 많은 연구가 필요하다”라고 했다. 국내에서 논란이 된 AI 윤리 논쟁, 기업들의 초거대 AI 개발 경쟁에 대해서도 글로벌 최고 석학의 생각을 들어봤다. 다음은 일문일답.

 

―사람이 개입하지 않아도 되는 수준의 완전 자율주행 시대는 언제쯤 열릴까? 이걸 가로막는 장애물은 무엇이라고 생각하나.

“최초의 자율주행차가 1980년 말 시연됐다. 완전 자율주행이 왜 이렇게 오래 걸리느냐고 의문이 드는 게 맞다. 엄청나게 어려운 문제이기 때문이라고밖에 말할 수 없을 것 같다. 자율주행차는 단순히 도로 위 흰색 선을 따라가거나 앞차와의 거리를 정확하게 측정하는 것만으론 부족하다. 어떤 경우는 흰색 선이 없거나 3개가 있기도 하다. 차 앞에 있는 것이 차가 아니라 동물 등 다른 장애물일 수 있다.

 

5분간 자율주행을 시연하는 것은 아무런 의미가 없다. 자율주행차는 안정적으로 운전해야 하고 우리가 이걸 받아들이기 위해서는 신뢰도가 99.99999999%는 돼야 한다. 내가 1990년대 초 자율주행을 연구했을 당시 신뢰도는 99%가 채 안 됐다. 100대 중 1대에 대해선 차량이 완전히 인지하지 못했던 것이다. 지금은 많이 나아졌지만, 테슬라 자율주행차의 몇몇 사고를 보면 아직 갈 길이 멀다는 걸 알 수 있다. 도로 위에서 새로운 상황은 끊임없이 일어난다. 자율주행차는 예상치 못한 돌발 상황에 대비할 수 있어야 한다. 무슨 일이 일어나고, 일어날지 논리를 세워야 한다. 단순히 핸들을 제어하는 직선 기계학습에서 나아간 것이다. 구글의 자율주행 계열사 웨이모가 이런 접근방식으로 자율주행차를 개발 중이다. 다른 기업도 이런 방식을 따라야 한다. 난 예측하는 것을 좋아하진 않지만, 자율주행차가 널리 퍼지는 시기는 앞으로 10년을 넘기지 않을 것이라고 본다.”

 

―최근 한국에서는 사람들의 편향적인 사고를 학습한 AI 챗봇 ‘이루다’가 혐오·차별 발언 등을 쏟아내 논란이 된 바 있다. 어떻게 개발 단계에서부터 AI가 인간에게 이로운 방향으로 설계될 수 있을까.

“우선 해당 챗봇이 학습 데이터와 유사하게 응답하는 방식으로 설계됐던 게 잘못인 것 같다. 둘째는 챗봇에 주입된 학습 데이터가 나쁜 말들을 재밌어하면서 만들어졌다는 것이다(실제 이루다는 연인간 대화 데이터를 학습했다). 비유하자면 아이들이 앵무새에게 나쁜 말을 하게 하는 것이 재밌다고 생각하고 훈련시킨 결과를 낳은 셈이다. 챗봇은 설계 단계부터 유용하고 유익하며 불쾌하지 않은 목적으로 설정해야 한다. 챗봇이 실제 무엇을 위한 것인지부터 훨씬 더 정교하고 명확히 해야 한다.”

 

―글로벌 빅테크뿐 아니라 한국의 주요 기술기업 사이에서도 초거대(hyperscale) AI라 불리는 신기술 개발 경쟁이 벌어지고 있다. 기업이 원하는 모든 사업 분야에 바둑의 알파고 수준으로 응용할 수 있는 AI를 개발하겠다는 것이다.

초거대 AI에 대한 정의를 찾아봤다. 기업 중 일부는 방대한 데이터와 계산에 대해서 이야기하더라. 나는 초거대 AI가 기업의 많은 문제를 해결할 답이라고 생각하진 않는다. 비즈니스 의사결정을 예로 들어보자. 초거대 AI가 인수·합병(M&A)을 결정할 때 어떻게 도움이 될까? 대부분의 경우 활용할 만한 데이터가 없거나 있더라도 현재 고려 중인 특정 기업의 인수 또는 합병과는 관련이 없을 것이다. 회사의 모든 문제를 해결할 임원을 고용했다고 생각해보자. 그런데 이 임원이 회사의 비즈니스 영역에 대해 전혀 알지 못하고 의사결정에 대해서도 모른다면, 이 사람이 추천한 결정을 신뢰할 수 있겠는가? 아닐 것이다. 기업이 AI를 만능 해결사로 쓰기 위해서는 빅데이터와 머신러닝(기계학습) 기술만이 아니라 지식, 추론, 계획, 의사결정에 대한 기술도 필요하다.”

 

―AI가 더 빠르게 생활 속으로 들어오면서 우리 일자리도 점점 더 사라질 것이라는 의견에 동의하는가? 인간을 대체할 수 없는 일자리는 무엇이 있나? 새롭게 나타날 수 있는 일자리도 있을까.

“일자리는 굉장히 중요한 문제다. 정치인, 경제학자, 심지어 일반 대중 사이에서도 관련 논란이 많다. 많은 기술 지지자들은 AI가 새로운 일자리를 만들 것이니 걱정하지 말라고 한다. 하지만 만약 AI가 모든 반복적인 신체·정신 노동을 자동화한다면, 누군가는 도대체 인간이 할 수 있는 일이 뭐가 남았는지 설명해줘야 할 것이다.

아마도 그건 창조적이거나 사람의 관리가 필요하거나, 대인관계에 관한 것일 수 있다. 이 중에서도 삶을 향상시키기 위해 다른 사람과 관계를 맺는 대인관계와 관련해서는 일의 범주가 상당히 커질 수 있을 것 같다. 다른 사람의 삶에 긍정적인 영향을 주는 법에 대해서는 많은 연구가 필요하다. 새로운 직업군 개발을 위해 우리는 더 많은 사람을 데이터 과학자로 재교육해야 할 것이다. 미래에 일자리를 찾아야 할 사람의 수와 비교한다면, 아직 이 일을 할 수 있는 사람은 너무 부족하다.”

 

―그렇다면, AI 대중화 시대에 살아가게 될 후세대의 교육 중에서 가장 중요한 것이 무엇이라고 보나.

논리적인 추론, 도덕적인 추론, 예측 등을 포함하는 AI의 핵심에 대해 아이들에게 훨씬 더 많이 가르쳐야 한다고 생각한다. 아이들이 AI의 일부라거나 AI 시대에 살도록 대비시켜야 하기 위해서가 아니라 그것이 정말 인간의 지능을 작동하게 하는 일부이기 때문이다.

우리는 수학에 많은 시간을 투자한다. 하지만 수학은 숫자에 대한 특정한 논리적 추론 중 하나일 뿐이다. 그리고 이것은 우리가 학교에서 가르치는 논리적인 추론이다. 하지만 다른 많은 종류의 논리적인 추론이 있다. 우리는 논리적인 추론의 일반적인 원리를 가르쳐야 하고, 이 원리를 설명하기 위해 수학을 사용해야 한다. 대인관계 직업이 미래에 중요해진다는 내 예상이 맞는다면, 우리들은 아이들을 준비시켜야 한다. 이는 과학, 기술, 공학이라는 표준적인 답과는 매우 다른 방향이다. 문제는 (연구 부족으로) 어떻게 하면 대인관계에서 이득을 얻을 수 있는지, 어떻게 다른 사람에게 가치를 전달할 수 있는지 등에 대해 가르칠 게 별로 없다는 것이다. 풍요롭고 생산적이며 충실한 삶을 사는 것이 무엇을 의미하는지, 어떻게 우리가 사람을 도울 수 있는지 등에 더 많은 투자를 해야 한다.”

 

―당신은 인간에게 이로운 방향으로 AI를 설계하면 인간과 공존이 가능하다고 보고 있다. 하지만 AI가 인간을 통제하거나 몰락시킬 수 있다는 우려도 지속적으로 나온다.

“어떻게 하면 우리 자신보다 강력한 실체에 대해 권력을 유지할 수 있을까? 이런 관점에서 접근한다면 기계가 순전히 우리 이익을 위해 작동하지 않는 한 (인간이 우위를 유지하는 것이) 불가능한 일처럼 들린다. 어떻게 기계의 목표가 인간의 목표와 완벽하게 일치하도록 할 수 있을까? 사람조차 진정한 목적을 알지 못한다. 하지만 그럼에도 인간의 목표를 추구하는 식으로 설계된 기계여야만, 안전하고 유익할 수 있다.”

댓글