人文,社會科學/科學과 未來,環境

[IF] 인간이 만든 AI… 왜 그렇게 답했을까

바람아님 2017. 10. 14. 10:10

(조선일보 2017.10.14 이식 KISTI 융합연구플랫폼개발실장)


인공지능 신경과학


- 심층신경망을 연구하다
다양한 데이터 학습 후 스스로 판단 내리지만 중간 과정 알지 못해
입력 데이터 바꾸거나 다른 인공지능 추가해 블랙박스 내부 연구


인공지능(AI) 연구에서 기존 인공신경망의 한계를 극복한 '딥 러닝(deep learning· 심층학습)'이 붐을 일으키고 있다.

딥 러닝은 컴퓨터가 문장이나 이미지, 소리 등의 데이터를 학습한 후 이를 일반화시켜서 상황에 맞춘 정확한 판단을

내릴 수 있도록 구현하는 기술이다. 우수한 인공지능일수록 학습한 데이터의 양이 적어도 올바른 판단을 더 빠른 시간에

내릴 수 있다. 이제 인공지능에 대한 깊은 지식이 없는 연구자도 자신의 과학 연구에 딥 러닝을 쉽게 적용할 수 있게 됐다.


물론 딥 러닝 인공지능이 만능의 열쇠는 아니다. 분명 과학자들이 아직 넘지 못하는 벽이 존재한다.

심층신경망 안에서 일어나는 일이 너무 복잡해서 딥 러닝 인공지능을 만들어낸 인간조차도 인공지능의 의사결정 과정을

정확히 이해할 수 없다.

인간이 인공지능을 만들었지만, 정작 그 인공지능을 이해하지 못하는 우스운 상황이 벌어진 것이다.



개발자들조차 인공지능이 스스로 데이터를 학습해 답을 내놓는 과정을 완전히 이해하지 못한다.

‘인공지능 신경과학’은 인공지능이라는 블랙박스 안을 연구하기 위해 탄생했다./구글 딥마인드 제공


인공지능 안에서 무슨 일이 일어나고 있는지, 어떤 경로로 특정한 결론에 도달한 것인지 제대로 알 수 없으니

인공지능에 대한 두려움이 생기는 것도 당연한 일이다. 혹시 공상과학(SF) 영화에 나오듯 인공지능이 사악한 행동을

지시한다 해도 인간이 알아채지 못하는 상황이 벌어지지 않을까 우려하는 사람들도 많다.


실제로 마이크로소프트가 개발한 실험용 채팅 로봇 '테이(Tay)'의 실패는 인공지능이 제대로 사용되지 못하면 얼마든지

위험한 사태를 초래할 수 있다는 증거이다. 테이가 공개되자마자 불순한 의도를 가진 네티즌들이 모여들어 각종 욕설과 성차별,

인종차별적인 내용을 집중적으로 가르쳤다. 나중에 테이는 인종차별적 발언을 일삼았다. 마이크로소프트는 인공지능의 초기

교육이 매우 중요하다는 쓰디쓴 교훈을 안은 채 16시간 만에 테이 서비스를 중단해야만 했다.


인공지능을 제대로 이해하지 못한 상태에서 실생활에 적용하는 것에 대한 우려도 크다.

유럽연합은 인공지능에 대해 이런 내부 지침을 정했다.

'일반 시민에게 크게 영향을 미치는 알고리즘(인공지능)을 채용하는 기업은 그 모델 내부의 논리에 대해서 설명할 수 있어야

한다.' 미국 국방부 산하 방위고등연구계획국(DARPA)은 딥 러닝의 원리를 연구하는 '설명 가능한 인공지능'이라는 분야에

7000만달러(약 790억원)를 지원했다.


과학자들은 예측의 정확성에 대한 집착을 넘어 '인공지능을 어떻게 해석할 수 있는가'라는 문제에 대해 새로이 관심을

기울이고 있다.

인공지능 모델이 옳은가. 학습에 사용된 데이터는 적절했나.

인공지능이 특정한 답을 주는 이유는 무엇일까.

현미경이 발명되면서 세포에 대한 본격적인 연구가 시작된 것처럼, 과학자들은 인공지능의 심층신경망이 어떻게 결정을

내리는지 연구할 수 있는 새로운 도구들을 찾고 있다.

말하자면 인공지능이라는 신비로운 블랙박스 안을 직접 연구하는 것이다.

여기에는 '인공지능 신경과학(AI neuroscience)'이라는 이름이 붙었다.


국제학술지 사이언스지는 최근 인공지능 신경과학의 세 가지 방법론으로 탐침(probe)을 이용하여 외부에서 블랙박스를

연구하는 방법, 블랙박스를 직접 조작하는 방법, 블랙박스를 연구하기 위해 또 다른 인공지능을 사용하는 방법을 소개했다.


첫 번째 방법은 외부에서 인공지능을 연구하는 방법이다.

생화학 연구자들은 유전자 기능이나 단백질 안의 핵심 아미노산을 찾기 위해 인위적으로 유전자 발현을 방해하거나

돌연변이를 일으킨다.

인공지능의 탐침 연구 방법도 이와 유사하다. 과학자들은 인공지능에 입력하는 데이터의 일부를 외부에서 무작위로 지우거나

변환시킨 후, 나중에 이들이 신경망의 결과에 얼마나 영향을 주는지를 관찰한다.

이 실험을 반복하면 인공지능이 판단을 내리는 데 가장 큰 영향을 주는 데이터가 무엇인지 찾아낼 수 있다.


두 번째 방법은 인공지능을 직접 조작하며 연구하는 방법이다.

특정 모델에서는 어떤 두 가지 변수가 밀접하게 연관되어 있는 경우가 있다. 예를 들면 땅의 면적과 가격은 비례한다.

구글 연구자는 이런 관계를 이용하여 거대한 다차원의 데이터베이스를 만든 후에 이를 심층신경망에 연결하였다.

결과가 예측 가능한 층을 심층신경망에 추가하는 방식으로 신경망을 직접 조작하며 연구하는 게 가능해졌다.


세 번째 방법은 또 다른 인공지능을 이용해서 블랙박스를 연구하는 방법이다.

딥 러닝을 이해하기 위해서 추가적인 딥 러닝을 수행한다.

예를 들어 미국 조지아 공대 연구자들은 첫 번째 인공지능에게 컴퓨터 게임을 하도록 지시하고 이 장면을 사람이 음성으로

해설하게 했다. 인간의 해설을 컴퓨터에 입력한 후, 컴퓨터 프로그래밍 언어와 영어, 두 가지 언어 사이를 번역하는

두 번째 인공지능을 훈련시켰다. 인공지능은 이제 자신이 하는 게임을 사람의 언어로 설명하고, 사람이 내뱉는 감탄사까지

따라 하고 번역할 수 있게 됐다. 인공지능이 스스로 자신이 하는 일을 설명하는 토대가 마련된 셈이다.


인간이 인공지능을 자유자재로 그리고 안전하게 쓰기 위해서는 우선 인공지능을 제대로 이해해야 한다.

친구나 동료가 그렇게 하듯이, 인간과 인공지능도 서로 의사소통을 해야 함께 일할 수 있다.

지금 인공지능의 연구는 상당히 중요한 반환점을 돌고 있는 셈이다.





[IF] "인공지능의 위협보다 '오류 가능성' 더 걱정해야"

이대열 美 예일대 석좌교수


(조선일보 2017.10.14 이영완 과학전문기자)



- AI·뇌과학 융합 시대
과거 성공적 결과에 대한 반복적 행동 '강화학습, '바둑 '알파고'에도 적용
인간이 시킨 대로 하지만 원하는 결과와 다를 경우 오류로 분류될 가능성 커


"인공지능(AI)과 뇌 연구는 앞으로 서로 영향을 주고받는 관계가 될 것입니다. 인간의 지능을 더 잘 이해하면

더 좋은 인공지능을 만들 수 있고, 뛰어난 인공지능은 뇌 연구의 속도를 획기적으로 높일 수 있습니다."


세계적인 뇌과학자인 이대열(51) 미국 예일대 의대 석좌교수는 최근 SK그룹 이천포럼과 카오스재단 강연차 방한한

자리에서 "2000년부터 우리 연구실이 초점을 맞추고 있는 강화학습도 최근 인공지능 개발에 이용되고 있다"고 말했다.


세계적인 뇌과학자인 이대열 예일대 의대 석좌교수
세계적인 뇌과학자인 이대열 예일대 의대 석좌교수는 “인공지능과 뇌과학은 서로 발전에 도움이 되는 긍

정적 상호작용을 할 수 있다”고 말했다./천윤철 인턴기자


강화학습이란 심리학에서 100년 전 나온 개념으로, 과거에 성공적 결과를 가져온 행동이 반복되는 경향을 일컫는다.

구글 딥마인드가 만든 인공지능 바둑 '알파고'도 강화학습을 인공지능에 응용한 딥 강화학습을 이용했다.

즉 인공지능이 혼자 바둑을 두면서 성공한 수를 이후에도 반복하는 식이다. 이 교수는 "우리 실험실 출신 연구원이

창업해 마이크로소프트와 삼성의 투자를 받은 인공지능 회사도 강화학습을 도입한 인공지능을 개발하고 있다"고

말했다.


이 교수는 서울대 경제학과를 나와 미국 일리노이대에서 신경과학 박사 학위를 받았다. 그는 "경제학의 핵심이

인간의 선택, 의사 결정이라는 점에서 경제학을 제대로 하려면 뇌과학을 공부해야겠다는 생각을 했다"고 했다.


이 교수는 "인간은 운동이나 감각 능력이 다른 동물보다 뛰어나지 않지만 아주 큰 뇌를 갖고 있다"며

"모든 정보를 합쳐 의사 결정을 하는 기능이 발달했기 때문에 뇌가 커진 것으로 보인다"고 했다.

정신 질환이나 우울증 역시 이러한 의사 결정 기능에 문제가 생기면서 발생한다고 볼 수 있다는 점에서 의사 결정

연구는 환자 치료에도 도움을 줄 수 있다고 했다. 그는 의사 결정 연구는 인간과 더 원활하게 소통할 수 있는

인공지능을 개발하는 데에도 중요한 역할을 할 수 있다고 덧붙였다.


이 교수는 인간 대신 원숭이를 통해 뇌의 의사 결정 과정을 연구하고 있다.

그는 "원숭이의 뇌에서 전전두엽은 과거 주로 단기 기억 영역으로 연구됐지만 우리는 의사 결정에 큰 역할을 하고 있음을

밝혀냈다"며 "원숭이에게 가위바위보와 초보적인 셈을 가르치며 연구하고 있다"고 말했다.


이 교수는 일반인이 우려하는 인공지능 부작용에 대해서는 "크게 걱정하지 않아도 된다"고 말했다.

"인공지능이 운전하는 자율 주행 자동차가 운전기사의 일자리를 없애겠지만 결국 그들은 자율 주행차 산업에서

새로운 일을 하게 될 것입니다. 지난 역사에서 알 수 있듯 과학기술은 일부 문제점을 드러내기도 했지만

전반적으로 인류의 삶을 향상시켰습니다."


그는 "인공지능을 장착한 기계가 자기 복제를 하는 인공 생명 단계에 이르기 전에는 인공지능에 위협을 느낄 이유는

없다"고 말했다. 그는 저서 '지능의 탄생'에서도 "지능은 오직 생명체만이 가질 수 있는 것"이라며 "생명체가

살아가면서 마주치는 수많은 도전과 문제점을 해결하는 능력이 바로 지능이며, 지능은 생존을 위한 유전자의

'대리인'일 뿐"이라고 설명했다.

이 교수는 그보다 인공지능의 오류 가능성을 더 걱정해야 한다고 말했다.

요즘 유행하는 인공지능의 딥 러닝(deep learning·심층학습)은 복잡한 과제를 잘 수행하더라도 어떻게 답을 냈는지

이유를 모르는 경우가 많다는 점을 지적했다. 이 교수는 "인공지능은 인간이 시킨 대로 하지만 인간이 원하는 결과와

다르면 '오류'로 분류될 가능성이 있다"고 말했다.