人文,社會科學/科學과 未來,環境

[설왕설래] 인류 문명사 최악의 사건,스티븐 호킹

바람아님 2017. 11. 8. 09:17

[설왕설래] 인류 문명사 최악의 사건

세계일보 2017.11.07. 21:33

영조 41년, 1765년 사행단을 따라 청 연경으로 가던 담헌 홍대용. 산해관에 이를 즈음 강녀묘(姜女廟)에 들렀다. 강녀는 만리장성 축성에 징발돼 돌아오지 않는 지아비를 찾아 만리 북방에 온 뒤 망부석이 된 여인이다. 묘에 남은 송 문천상의 시. “진 황제는 어디 있나/ 만리장성에는 원망만 쌓이고/ 강녀는 죽지 않았네/ 천년 돌 조각에 정절이 남았어라.”

홍대용은 ‘을병연행록’에 시 해설을 남겼다. “진시황은 온갖 욕심(耳目之慾)에 가득 차 만세에 더러운 이름을 남겼으니 죽어서도 착한 사적을 찾지 못한다는 뜻이다.”


성리학자와는 결이 다른 실학자 홍대용의 진시황 평가도 차갑다. 왜? 혹독한 법을 만들어서? 전쟁을 많이 해서? 아닌 것 같다. 분서갱유(焚書坑儒) 때문이다. 천하의 죽간(서적)을 불사르고, 460여명의 선비를 땅에 묻었다. 그때 생매장된 유(儒)는 대부분 소유(小儒)로 불린 도교 도사들이었다고 한다. 진시황에게는 ‘반문명’ 낙인이 찍혔다. 동양 문명사에서 분서갱유는 ‘제1의 문명 재앙’으로 꼽힌다. 그런 평가는 이어 등장한 한 왕조가 진을 적폐로 몰아세운 것과 무관하지 않다.

지금의 문명 재앙은 어떤 것일까. 루게릭병을 앓는 물리학자 스티븐 호킹 박사는 이런 말을 했다. “인공지능(AI) 기술은 인류 문명사에서 최악의 사건이 될 수 있다.”


‘터미네이터’. 로봇에 맞선 인간의 전쟁을 그린 영화다. 인간 저항군 지도자 존 코너는 ‘시간 속의 전쟁’을 한다. 코너를 살해하기 위해 미래에서 온 살인기계 터미네이터, 그에 맞서 인류를 구원할 코너를 지키기 위한 싸움이 벌어진다. 공상과학 영화에나 나오는 이야기일까. 호킹 박사가 걱정하는 것은 그런 미래다. “위험 대처 방법을 익히지 못한다면 AI는 무기로 발전하고, 우리 경제는 파괴될 수 있다.” 이런 말도 했다. “AI가 선(善)을 위해 일할 수 있다는 낙관론을 믿고 있다.” 재앙을 피하기를 비는 간절한 바람을 담은 말이다.


우리 사회는 어떤 고민을 하고 있을까. 이념 갈등, 적폐 갈등, 정략의 싸움…. 차원이 다르다. 우리는 언제쯤 호킹 박사와 같은 ‘위대한 고민’을 하게 될까.


강호원 논설위원



스티븐 호킹 "AI, 인류 역사상 최악의 사건 될 수도 있다"

'AI 비관론자' 스티븐 호킹 박사 '웹 서밋 기술 콘퍼런스'서 경고
"인간의 지능 뛰어넘을 수 있어
AI 제작자들의 정책·관리 중요"


서울경제 2017-11-07 17:37:49

스티븐 호킹 'AI, 인류 역사상 최악의 사건 될 수도 있다'
스티븐 호킹 박사. /AP연합뉴스

세계적인 물리학자 스티븐 호킹 박사가 인공지능(AI) 기술에 대해 “인류 문명의 역사상 최악의 사건이 될 수 있다”고 경고했다. AI 기술이 인류에게 제공할 혜택을 인정하면서도 그보다 AI가 가져올 잠재적 위험에 방점을 찍고 철저히 대비해야 한다는 주장이다.

6일(현지시간) 미국 CNBC에 따르면 호킹 박사는 이날 포르투갈 리스본에서 열린 ‘웹 서밋 기술 콘퍼런스’에서 “컴퓨터는 이론적으로 인간의 지능을 모방하고 나아가 이를 뛰어넘을 수 있다”며 이같이 우려했다. 호킹 박사는 “인류가 AI의 잠재적 위험에 대처하는 방법을 익히지 못한다면 AI는 인류 문명에 최악의 사건이 될 수 있다”며 “자율적으로 작동하는 AI 무기의 위험성은 물론이고 우리 경제도 심각하게 파괴될 수 있다”고 경고했다. 다만 그는 “인류가 AI로부터 무한한 도움을 받게 될 지 AI로부터 무시당하는 부수적 존재로 전락할지 또는 파멸당하게 될지는 아직 알 수 없다”고 덧붙였다.

AI 기술로 미래에 닥칠 수 있는 최악의 상황을 피하기 위해서는 AI를 만드는 이들의 정책과 관리가 중요하다는 것이 호킹 박사의 주장이다. 호킹 박사는 특히 유럽에서 AI 규제를 위해 진행되고 있는 입법적 노력에 주목하면서 이러한 노력이 희망을 준다고 밝혔다. 유럽의회는 올해 초 유럽연합(EU) 차원에서 AI 및 로봇과 관련한 규제를 수립하려는 논의를 시작했다. 그는 “나는 AI가 선(善)을 위해 일하고 인류와 조화를 이룰 수 있다고 믿는 낙관론자”라면서 “다만 인류는 AI의 위험성을 인지하고 최대한 잘 대처해 다가올 결과를 위한 준비를 해야 한다”고 거듭 강조했다.

호킹 박사가 AI의 위험성을 경고한 것은 이번이 처음이 아니다. 그는 올해 초 영국 더타임스와의 인터뷰에서 “AI 통제를 위한 세계 정부를 구성하는 것이 시급하다”고 주장한 바 있으며 최근에도 “AI가 인간을 완전히 대체할지도 모른다”는 우려를 표명하기도 했다.

AI가 가져올 변화에 대해서는 첨단 과학기술 분야의 많은 인사의 견해가 엇갈린다. 호킹 박사와 함께 대표적인 비관론자로 꼽히는 일론 머스크 테슬라 최고경영자(CEO)는 지난 9월 트위터에 “중국·러시아 등 강력한 컴퓨터 과학기술을 가진 모든 나라가 AI 우위를 점하기 위해 국가적 수준에서 경쟁할 것”이라며 “이는 제3차 세계대전을 일으킬 가능성이 높다”고 지적했다. 빌 게이츠 마이크로소프트(MS) 창업자도 인간의 일자리를 대신하는 로봇 소유자에게 일명 ‘로봇세’를 부과하는 등 규제를 강화해야 한다고 주장하고 있다. 반면 페이스북 창업자인 마크 저커버그는 “AI가 미래 사회를 획기적으로 바꿀 것”이라며 이들과 다르게 낙관론을 주장해왔다.

/박민주기자 parkmj@sedaily.com