인공지능시대

![]()
간단한 예를 몇 가지 보여드리겠습니다. 19세기 초에 미국 버몬트주(State of Vermont) 철도노선 공사장에서 근무하던 피니어스 게이지(Phineas Gage)라는 사람이 있었습니다. 어느 날 작업을 하던 중 다이너마이트가 폭발해 그가 들고 있던 쇠막대가 그만 그의 뇌를 관통하는 사고가 일어났습니다. 그 후 몸은 다행히 완쾌됐지만, 사고를 당한 후 그의 성격은 180도 변했습니다. 평소 온유하고 성실했던 게이지가 일을 하지 않으려 했으며, 노숙생활까지 했다고 합니다.
게이지의 성격은 왜 이렇게 변했을까요? 그 이유는 전두엽이 훼손되었기 때문이었습니다. 현대 뇌 과학에서는 전두엽이 우리의 판단력과 성격을 좌우한다고 봅니다. 판단력과 성격은 유전·환경·교육 등 다양한 것이 어우러져 완성될 것 같은데, 재미있게도 제가 여러분의 전두엽에 있는 신경세포 몇백 개만 망가뜨려놓으면 갑자기 다른 사람이 되어버린다는 거죠. 그렇다면 나는 누구일까요? ‘나는 전두엽의 신경 세포일까?’라는 생각을 해볼 수 있을 것입니다.
![]()
대 뇌 과학에서는 MRI를 사용하면 일반인의 뇌를 열거나 수술하지 않고도 뇌 안에서 어떤 일이 벌어지는지 직접 관찰할 수 있습니다. 그리고 약 10년 전부터는 뇌 안의 정보가 어떤 식으로 표현되고 처리되는지도 조금씩 이해할 수 있게 되었습니다. ‘집’이나 ‘사과’ 같은 단어를 들었을 때 신경세포가 뇌의 표면에 (그림1)과 같은 패턴을 만들게 되는데요. 사물에 따라 이 신경세포가 활성화하는 시간과 공간적인 패턴에 차이가 있다는 것을 발견하게 된 것입니다. 사람에게 수십 가지의 사물을 보여준 후, 각각의 사물을 보여주었을 때 나타난 패턴을 기계학습적으로 분류해보는 실험을 했습니다. 그리고 이를 통해 우리는 ‘인지적인 사전’을 하나 얻게 되었습니다. 이것이 왜 인지적인 사전인지는 다음 실험을 통해 확인할 수 있습니다.
![]()
그다음 실험에서는 실험하는 사람조차 피험자가 무엇을 보는지 모르게 했습니다. 사물을 본 피험자의 뇌에서 패턴이 나오면, 그 패턴을 (그림2)와 같은 매트릭스 안의 패턴과 비교해서 가장 비슷한 패턴을 찾아내는 것입니다. 비슷한 것들을 모아서 통계학적으로 추론하면, 이를 통해 피험자가 무엇을 보았는지 알 수 있는 거죠. 이를 ‘브레인 리딩(Brain Reading)’이라고 합니다.
![]()
다음은 버클리 대학교의 연구입니다. 이전까지의 실험에서는 사진을 보여주고 그 사진을 봤을 때 뇌에서 일어나는 패턴을 분류했는데, 이 실험에서는 동영상을 보여주었습니다. 시간과 공간에 따라 계속 달라지는 패턴을 컴퓨터가 읽고 해석합니다. (그림3)의 왼쪽 이미지는 피험자가 눈으로 직접 본 것이고, 오른쪽 이미지는 뇌에서 얻어낸 패턴을 이용해 컴퓨터가 해석해 낸 것입니다.
![]()
이 연구결과가 나온 후 구글이 바로 이 연구자들을 ‘구글X 프로젝트’에 참여시켰는데요. ‘구글 3.0’에는 뇌파측정기가 포함되었다고 하네요. 아마도 구글은 소비자들의 뇌에서 일어나는 패턴을 읽어서 실시간으로 해석해주는 서비스를 만들려고 한 것이 아닌가 싶습니다. 소비자가 지금 보고 있는 물건을 좋아하는지 싫어하는지, 또는 어떤 물건을 살 의향이 있는지 등을 분석해서 말입니다. 만약 이것을 실용화한다면 상당히 스마트한 푸시 서비스(Push Service)가 가능할 것으로 예상합니다.
브레인 리딩(Brain Reading)이 머리에서 일어나는 것을 해독하는 것이라면 브레인 라이팅(Brain Writing)은 내가 원하는 정보를 인코딩(Encoding)하는 것을 말하는데요. 현재 브레인 리딩은 거의 정확하게 이뤄지고 있지만, 브레인 라이팅의 경우는 앞으로 20~30년 정도는 더 연구가 필요합니다.
![]()
줄무늬 원피스 색깔 조합과 관련해 인터넷 이용자들이 '블루-블랙'파와 '화이트-골드'파로 나뉘어 맹렬한 공방을 벌인 사건이 있었습니다. 사실 저는 (그림4)의 이미지를 처음 보았을 때 무엇이 문제인지 몰랐습니다. 매우 확실하게 까맣고 파란 줄무늬가 보였으니까요. 그런데 저희 학생들은 금색과 하얀색 줄무늬가 보인다고 하더라고요. 연구하는 사람인 저도 놀랐습니다.
![]()
왜 같은 색을 전혀 다른 두 가지 색으로 보게 되었을까요? 사실 같은 물체가 다르게 보이는 것은 신기한 게 아닙니다. 망막에 꽂히는 정보 대부분은 광자(光子)들의 가우스(Gauss) 분포*일 뿐입니다. 색깔·형태·입체감 모두 뇌의 해석이란 말이죠. 여러분은 지금 뇌가 해석한 결과물을 보고 있는 것입니다. 우리 눈에 보이는 세상은 입력(Input)이 아니고 출력(Output)입니다. 뇌 안에 있는 다양한 필터를 통해 해석된 것입니다. 뇌가 다르면 당연히 필터도 다를 테니 출력되는 것 역시 다르겠지요. 출력되는 것이 다르면 세상이 다르게 보이는 것은 너무나 당연한 이야기입니다.
그렇다면 지금까지 우리는 왜 같은 것을 본다고 생각했을까요? 만약에 제가 손에 빨간 사과를 들고 ‘빨간 사과죠?’라고 묻는다면, 여러분은 아마 ‘빨간 사과가 맞다’라고 대답할 것입니다. 그런데 제 눈에 보이는 색깔은 진짜 빨간색일까요? 아마도 제 눈에 보이는 색깔은 훨씬 더 복잡한 색깔일 것입니다. 사과 색깔은 빨갛고 노랗고 녹색이고 뭔가 이상한 패턴도 있고 줄무늬도 있습니다. 아주 복잡한 색이 제 눈에 보입니다. 하지만 문제는 그 복잡한 현실을 표현할 수 있는 단어가 없다는 것입니다. 그러다 보니 제 눈에 보이는 것을 표현할 수 있는 가장 적절한 단어, 유클리드 거리(Euclidean distance)**가 가장 가까운 단어인 ‘빨강’이란 단어를 선택한 것입니다. 그리고 여러분 역시 실제로 복잡하게 보여도 빨갛다고 대답했을 겁니다.
![]()
언어의 해상도가 인식의 해상도와 똑같다면 우리 눈에 보이는 것과 머릿속에서 일어나는 현상을 단어와 1:1 대응할 수 있습니다. 하지만 언어의 해상도가 낮다 보니 ‘다대일(many to one)’ 대응밖에 할 수 없는 거죠. 여기서 중요한 핵심은 우리가 대부분을 서로 다르게 보지만, 언어의 해상도가 낮아 같은 단어를 사용한다는 점입니다. 이 원피스 색깔논쟁은 원피스의 색깔이 완전한 검정색도, 파랑색도, 금색도, 하얀색도 아니기 때문에 일어난 것입니다. 망막에 있는 피그먼트(pigment)***의 분포가 사람들마다 조금씩 다른 걸로 알려져 있는데요. 색깔은 피그먼트에 대응되는 RGB색상 중 유클리드 거리가 가까운 쪽의 단어로 표현됩니다. 보통은 가장 가까운 단어가 하나인데 색깔이 모호하게 중간에 있다 보니 비슷한 거리에 두 개의 단어가 있는 것입니다.
![]()
![]()
현대 뇌과학에서는 인간의 믿음·생각·느낌·지각·인식의 약 99%가 착시현상이라고 합니다. 여기서 착시라는 건 ‘센서를 통해 들어오는 오리지널 데이터에 항상 +α가 추가된다’라는 것을 의미합니다. 시각적이지 않은 착시현상 하나를 제가 설명해보겠습니다. 나이를 먹으면 먹을수록 시간이 빨리 지나갑니다. 왜 어렸을 때는 시간이 느리게 가는데 나이를 먹으면 시간이 빨리 가는 걸까요? 7~8년 전에 그 이유가 밝혀졌습니다.
어린아이 뇌신경세포의 정보전달속도가 나이 든 사람보다 훨씬 더 빠르기 때문이었습니다. 어릴 때는 정보전달속도가 빨라 세상을 더 자주 봅니다. 나이 많은 사람과 같은 세상에 살지만, 세상을 더 자주 보기 때문에 프레임 레이트(frame rate)가 더 높은 것입니다. 우리가 1초에 30프레임을 보면 그냥 축구경기지만 1초에 3000프레임을 보면 슬로모션이 되는 것과 마찬가지 원리입니다. 어릴 때는 프레임 레이트가 높다 보니까 세상이 슬로모션으로 기억되는 거죠. 그래서 세상이 더 천천히 흐르는 것 같이 느껴지는 것입니다. 반면에 나이를 먹으면 먹을수록 세상을 듬성듬성 샘플링(Sampling)하게 됩니다. 그러다 보니 1월, 7월, 11월 그리고 한 해가 그냥 지나가 버리는 듯이 느끼는 것입니다.
![]()
그런데 어린아이보다 정보전달속도가 더 빠른 녀석이 있습니다. 바로 파리입니다. 3 년 전쯤에 ‘왜 사람은 파리를 잘 잡지 못하나?’라는 논문이 발표됐습니다. 연구해보니 파리의 프레임은 사람이 상상하는 것 이상으로 많았습니다. 우리가 아무리 빠른 몸놀림으로 파리를 쫓아도 파리에게는 슬로모션으로 보였던 것입니다. 마치 영화 <매트릭스>에서 주인공을 총알을 피하는 장면을 생각하시면 될 것 같습니다. 비록 총알이 빠르다고 해도 주인공에게는 슬로우 모션으로 보이기 때문에 쉽게 피할 수 있는 거죠.
![]()
4~5년 전만 해도 제게 ‘인공지능이 언제쯤 가능할까요?’라고 물으면, ‘100년이나 200년쯤 걸리지 않을까요?’라고 대답했을 것입니다. 하지만 현재는 ‘딥 러닝(Deep Learning) 알고리즘’ 덕분에 ‘어쩌면 20년, 30년 후쯤에는 가능하지 않을까?’라는 가능성을 갖게 되었습니다. 지금부터는 딥 러닝과 기존 인공지능의 차이점에 대해서 알아보겠습니다.
인공지능이 힘들었던 이유는 다양한 물체를 봤을 때 사람은 그 물체를 인식하지만, 기계는 사람이 설명을 해줘야지만 인식할 수 있었기 때문입니다. 설명을 하기 위해서는 두 가지가 필요합니다. 첫째 설명할 수 있는 도구가 있어야 하고, 둘째 그 대상에 대해 잘 알아야 합니다. 지금까지 설명의 도구는 ‘언어’였습니다. 그런데 앞서 이야기했듯이 모든 언어는 해상도가 상당히 낮다는 문제점을 가지고 있습니다. 일대일 대응을 할 수 없다는 뜻입니다. 그럼에도 50~60년 동안 우리는 해상도가 낮은 언어를 이용해 기계에 설명하려고 애썼습니다.
약 10년 전쯤에 뇌가 물체를 인식하는 방법을 알아냈습니다. 그 누구도 우리에게 개에 관해 설명해주지 않았지만, 우리는 경험과 빅데이터 학습을 통해 개에 대해서 알게 되었다는 것입니다. 뇌가 사물을 인식하는 방식을 적용한 딥 러닝을 이용하면 더는 기계에 세상을 설명해주지 않아도 됩니다. 빅데이터를 집어넣고 이를 바탕으로 한 학습으로 불변특징(invariant feature)을 뽑아내라고 하면 되는 것입니다. 이것이 ‘딥 러닝’으로 대표되는 ‘특징표현학습(Representation Learning)’입니다. 기존의 인공지능에서는 물체에 대한 설명을 우리가 했습니다. 하지만 딥 러닝이나 특징표현학습에서는 우리가 일일이 정보와 판단기준을 입력하지 않고, 기계가 스스로 정보를 모으고 추상화해 학습하게 합니다.
![]()
딥 러닝을 이용한 다양한 결과물이 있습니다. 첫 번째는 구글의 2014년 12월 예제입니다. 사진을 찍어 소셜 네트워크에 올리기는 쉽지만 그 사진에 레이블링(Labeling)하는 건 사진 찍는 것보다 쉽지 않습니다. 구글의 이 서비스는 사진을 올리면 ‘오토바이를 타고 다닌다’, ‘두 명이 하키게임을 하고 있다’ 등을 자동으로 레이블링해줍니다. <블룸버그(Bloomberg)>에서는 2014년부터 인공지능 소프트웨어가 첫 번째 버전의 비즈니스 기사를 쓰고, 데스크는 편집만 해주는 역할을 하고 있습니다.
도 마찬가지고요.
![]()
다음 예제는 IBM 왓슨(Watson)입니다. IBM 왓슨은 인간의 언어를 이해하고 그 언어로 인간과 자연스런 소통이 가능한 ‘인지컴퓨팅 플랫폼’입니다. 자연어처리(NLP) 및 온톨로지 등의 언어처리를 아주 잘하고 있는 것으로 유명한데요. IBM 왓슨이 지금까지는 딥 러닝을 사용하지 않았지만, IBM 비즈니스 유닛이 딥 러닝 회사인 ‘알케미API(Alchemy API)’를 인수한 것을 보면 앞으로 IBM 왓슨에 딥 러닝을 접목할 것으로 보입니다.
2011년에 IBM 왓슨이 자신의 언어기능이 어느 정도인지 시연(Demonstration)하기 위해 '제퍼디(Jeopardy)’라는 게임쇼에 참여했습니다. 제퍼디는 미국에서 유명한 게임쇼로, 질문의 난이도가 매우 높은데요. 영어를 잘하는 사람들도 이해하기 어려운 수준으로 문장을 꼬아서 질문을 만드는 제퍼디에 IBM 왓슨이 나가서 대결을 펼친 거죠. 제퍼디에서 가장 많이 우승한 출전자와 상금을 가장 많이 받은 출전자 등 두 명과 대결을 펼쳤는데, 이분들이 말 한마디 제대로 못하고 IBM 왓슨에 완패했습니다.
![]()
![]()
![]()
인공지능에는 두 가지 종류가 있습니다. 독립성과 자의식이 없는 ‘약한 인공지능’, 그리고 약한 인공지능+독립성+자아 의도가 큰 ‘강한 인공지능’입니다. 강한 인공지능이 가능한지 사실 아무도 모릅니다. 많은 철학자는 ‘자아나 독립성은 인간만이 가질 수 있다’라고 이야기하는데 저는 모르겠습니다. 과학적 근거가 전혀 없거든요. 가능하다는 근거도 없고 불가능하다는 근거도 없습니다. 단, 4~5년 전까지만 해도 ‘약한 인공지능을 실현하는데 약 100년 정도 걸리지
않을까?’라고 막연하게 생각했지만, 딥 러닝의 등장으로 최근 2~3년 간 인공지능은 굉장하게 발전했습니다. 그래서 저는 ‘앞으로 약 20년 정도 지나면 강한 인공지능이 가능하지 않을까?’라고 예상해봅니다.
그런데 강한 인공지능이 현실화되면 문제가 생깁니다. OECD 국가들을 보면 대부분의 사람이 서비스업에 종사합니다. 우리가 걱정해야 하는 것은 기계는 알고리즘을 모를 때는 아무것도 할 수 없지만, 알고리즘이 생기면 그 기능을 안정적으로 확장해나갈 수 있다는 것입니다. 기계는 잠도 안 자고 잊어버리지도 않고 쉴 새 없이 일할 테니까 말이죠. 인간이 아무리 빨리 삽질을 해도 불도저를 이길 수 없듯이 말입니다. 만약 기계가 사람 수준의 알고리즘으로 정보를 처리한다면 사람보다 수천 배는 더 일을 잘해낼 것입니다. 그렇다면 이런 시대가 왔을 때 ‘우리는 무엇을 하고 살아야 할까요?’라는 질문을 던지며 강연을 마칩니다.
![]()