크레존

통합검색

찾기

정보문화 이야기

인공지능은 인간의 '마지막 발명품'이 될까?
작성자이*희 조회2340
등록일2020-08-07

 

 

빌 게이츠, 스티븐 호킹, 일론 머스크 등 세계적인 석학과 정보기술 기업 최고경영자들이 한목소리로 인공지능에 대한 우려를 쏟아내고 있습니다. 빠른 속도로 발전하는 인공지능은 특정 시점이 되면 지능 폭발을 일으켜 사람이 통제할 수 없게 될 것이라는 점을 두려워하기 때문입니다.

스티븐 호킹은 “인간은 초지능을 갖춘 기계를 통제할 줄 모른다.”면서 단기적으로는 인공지능을 누가 통제하느냐가 중요하지만, 장기적으로는 결국 슈퍼 인공지능이 통제 가능한지 자체가 의문이라고 주장했습니다.

옥스퍼드 대학 인류미래연구소 소장인 닉 보스트롬은 저서 《초지능 Super intelligence》(2014)에서 “인간 지능과 같은 수준으로 기계의 지능이 높아지게 되면 인류 문명의 근본적 변화가 불가피하고, 이는 인류 역사에서 가장 중대한 변화가 될 것이다.”라고 강조합니다.

[그림 1] 닉 보스트롬
(출처 : TED 홈페이지 http://www.ted.com)

다큐멘터리 작가 제임스 바랏은 2013년 《우리의 마지막 발명품 : 인공지능과 인류의 종말》에서 생각하는 기계가 초래할 문명의 파국을 역설했습니다. 그는 인공지능을 연구 개발하는 과학자들이나 기업이 경제적 이익과 낙관적 기대에 사로잡힌 채 기술이 가져올 위험이나 도덕성에 대한 고려 없이 개발 우선으로 치닫고 있다고 지적했습니다.

2050년 이후에는 로봇이 사람 대신 지구의 지배자가 될 것이라고 주장하는 카네기멜론 대학 로봇공학연구소의 한스 모라벡은 지능형 기계가 아무리 선량해도 결국 인간의 실존을 위협하게 될 것이라고 말합니다. 생태적 측면에서 로봇이 인간보다 환경에 훨씬 더 적합한 거주자이기 때문입니다. 우주의 자원을 놓고 경쟁하는 상황에서 진화론적 압력은 궁극적으로는 가장 효율적인 존재를 선택하게 마련입니다.

모라벡은 “향후 우주 식민지가 개발될 경우 우주에서는 사람을 유지하는 비용이 많이 들기 때문에 사람보다 기계가 더 많이 존재하도록 설계될 것”이라고 말합니다. 나사의 달 탐사 계획인 아폴로프로젝트는 200억 달러를 투입해 사람들을 몇 주간 달에 머무르게 했지만 1975년부터 진행한 화성 탐사 계획인 바이킹 프로젝트는 기계를 이용한 결과 10억 달러만 들이고도 6년간 화성에 체류하며 지속해서 정보를 수집할 수 있었습니다.

존 브록만이 설립한 에지 재단은 매년 전 세계 석학들에게 그 시점에서 중요한 문제에 대해 질문을 하나 던집니다. 2015년의 질문은 “생각하는 기계에 대해 어떻게 생각하는가?”였습니다.

모두가 똑똑한 기계를 두려워하는 것은 아닙니다. 넷스케이프를 만든 마크 앤드리슨, 《특이점이 온다》의 저자 레이먼드 커즈와일처럼 인공지능을 걱정할 필요가 없다는 견해도 적지 않습니다. 커즈와일은 생물학 무기나 유전자 재조합 기술이 등장했을 때도 해당 기술이 인류를 멸망시키리라는 우려와 전망이 팽배했지만, 국제적 조약 등으로 인류가 그 위험을 관리할 수 있게 된 것처럼 인공지능도 마찬가지라고 말합니다.

사람은 의식을 지닌 존재입니다. 로봇 설계는 일종의 의식 창출로, 인간의 의식 현상을 밝혀내 기계에 이식하는 행위입니다. 인간이 진화 과정에서 얻은 속성들은 인공지능의 개발과 이해에 대해 중요한 것을 알려줍니다. “어려운 일은 쉽고 쉬운 일은 어렵다”는 ‘모라벡의 역설’이 있다. 고난도의 수학 문제를 풀거나 암기를 하는 것처럼 사람에게 어려운 일이 로봇에겐 쉽지만 걷고 말하고 균형을 잡는 등의 단순해 보이는 기능이 로봇에겐 지극히 어렵습니다.

[그림 2]
(출처 : 이니고 http://www.inigo.kr)

한스 모라벡은 운동 능력이나 감각 능력처럼 사람의 동물적 본능은 오랜 진화 과정을 통해 사람에게 최적화되어 있어 학습 없이도 구사할 수 있지만, 로봇은 다르다고 설명합니다. 오히려 추상적, 논리적 사고는 인류의 진화 과정에서 나중에 획득한 기능으로 사람에게는 본능화되지 않아 배우기 어려운 영역이지만 컴퓨터가 역설계를 통해 재구성하기는 상대적으로 용이합니다.

초지능을 갖춘 로봇은 그 힘과 지능이 사람을 능가할 정도로 우수할 뿐만 아니라 중요한 문제에 대해 스스로 판단하고 처리하는 자율형 로봇입니다. 사람은 로봇에게 늘 도덕적으로 행동하라고 명령하거나 로봇 스스로 도덕적인 결과를 추론해 행동할 것을 기대할 수 있을까요? 즉, 우리가 로봇을 설계할 때 자율성과 도덕적 책임을 부여할 수 있을까요?

많은 사람이 로봇의 도덕으로 받아들이는 고전적 기준은 아이작 아시모프가 1942년 단편소설 <술래잡기 로봇(RunAround)>에서 제시한 '로봇 3원칙'입니다.

  • 제1원칙 : 로봇은 인간에게 해를 입히는 행동을 하거나 혹은 행동하지 않음으로써 인간이 해를 입도록 해서는 안 된다.
  • 제2원칙 : 제1원칙에 위배되지 않는 한, 로봇은 인간 명령에 복종해야 한다.
  • 제3원칙 : 제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 로봇 자신을 지켜야 한다.

 

아시모프는 3원칙으로는 부족하다는 생각에, 나중에 3원칙에 우선하는 0원칙을 추가함으로써 제1원칙의 ‘인간’을 ‘인류’로 확대하였습니다.

  • 제0원칙 : 로봇은 인류에게 해를 입히거나 혹은 행동하지 않음으로써 인류가 해를 입도록 해서는 안 된다.
 
[그림 3]
(출처 : 이미지 투데이 http://www.imagetoday.co.kr)

“사람에게 해를 끼치지 않아야 한다.”라는 로봇 윤리가 현실에 적용될 수 있을까요? 아시모프의 '로봇 3원칙'에 ‘로봇’ 대신 ‘자동차’를 넣어보겠습니다. 자동차도 사람에게 해를 끼치지 않아야 하고, 사람의 명령에 복종하면서 자신을 보호하는 것이 당연합니다. 하지만 현실에서는 보험금이나 범죄, 테러의 목적으로 차량이 살인 도구로 쓰이는 것을 막기 어렵습니다. 전쟁처럼 나와 집단의 생존을 위해 살인 등 모든 방법을 동원하고 합리화하는 상황은 아시모프의 ‘로봇 3+1원칙’이 그저 ‘소설’일 뿐임을 확인시켜줍니다.

전투 로봇은 이미 현실화되어 있습니다. 미군은 2030년까지 현재 전투병의 25%를 로봇과 드론으로 대체한다는 계획으로 군사 로봇 개발에 주력하고 있습니다. 사실 그동안 로봇 연구의 주된 동력은 전투 로봇을 개발하려는 미 국방성의 막대한 자금 지원이었습니다. 재난구조 로봇 올림픽도 *다르파(DARPA)의 프로젝트입니다.

* 미 국방고등연구계획국 Defense Advanced Research Projects Agency

아군의 인명 피해 없이 전력을 강화하는 방법인 군사용 로봇은 무인전투기(드론)의 형태로 이미 실전에 투입하고 있습니다. 한국도 2003년부터 국방 로봇을 개발하고 있다. 보스턴 다이내믹스는 2015년 8월 군인 대체용 로봇으로 개발 중인 아틀라스(Atlas)가 산길을 뛰어가는 모습을 공개했습니다. 무장하지 않은 모습이지만, 무기를 장착하면 전장에는 영화 속의 터미네이터가 등장하는 셈입니다.

[그림 4] 아틀라스(Atlas)
(출처 : Boston Dynamics 유튜브 http://www.youtube.com/watch?v=vjSohj-Iclc)

유엔은 2013년 살인 로봇의 개발을 금지하는 보고서를 발행하고 2014년엔 살인 로봇의 위험을 경고하는 유엔 특별회의를 열었습니다. 인권단체 휴먼 라이트워치(Human Rights Watch) 등은 ‘스톱 킬러 로봇’ 캠페인을 펼치고 있습니다. 스티븐 호킹, 놈 촘스키, 스티브 워즈니악 등 1,000여 명은 2015년 5월 공개서한에서 인공지능 기술을 활용한 살인 로봇 개발을 규제해야 한다고 주장했습니다.

호킹 등은 “자동화 무기의 발전은 화약과 핵무기를 잇는 ‘제3의 전쟁 혁명’으로, 개발되면 암시장을 통해 테러리스트, 독재자, 군벌의 손에 들어가는 것은 시간문제이기 때문에 개발을 엄격히 규제해야 한다.”라고 촉구했습니다. 특히 살인 로봇은 인간의 개입 없이 사전에 설정한 기준에 따라 목표물을 선택해 공격한다는 점에서 더 위험하다는 것입니다. 하지만 이미 50개국 이상이 자동 살상 기능의 전투 로봇을 개발 중입니다.

[그림 5]
(출처 : 이미지 투데이 http://www.imagetoday.co.kr)

이제 환자의 상태를 모니터한 방대한 생체 기록 정보와 최신 의료 정보와 치유 사례 등 인간 의사가 발견하기 어려웠던 정보를 순식간에 찾아내고 정확한 처방을 제공함으로써 절망적이던 환자의 생명을 구하는 일이 가능해질 것입니다. 사람들이 인공지능에 열광하고 더욱 의존하는 세상이 예고되고 있습니다.

인공지능은 기능과 정의에 따라 두 종류로 구분됩니다. 사람과 같거나 사람을 능가하는 지능을 갖고 있으며 자의식을 갖춘 인공지능을 ‘강한 인공지능(strong A.I.)’이라 부르고, 미리 정해진 특정한 유형의 문제를 해결하는 기능의 인공지능을 ‘약한 인공지능(weak A.I.)’이라 지칭합니다. 현재까지 선보인 인공지능은 약한 인공지능이지만 석학들이 인류의 미래를 위협할 ‘인간의 마지막 발명품’이라면서 우려하는 까닭은 강한 인공지능의 출현이 임박했다는 잇단 신호 때문입니다.

거대한 영향력을 지닌 신기술의 도입으로 애초에 예상치 못한 심각한 부작용이 불거지게 되면 기술과 인간의 관계가 무대로 소환됩니다. 살인은 총 때문에 일어나는 것인가, 방아쇠를 당긴 사람의 의도 때문에 일어나는 것인가? 도구의 중립성과 사용자의 의도를 놓고 오랜 논쟁이 있었습니다.

기술이 점점 복잡해지고 다기능화하면서 갈수록 기술의 편향성과 설계 의도가 중요해지고 있습니다. 스마트폰이나 소셜미디어처럼 사용자가 깊이 의존하지만, 그 구조와 기능의 특성을 파악하기 어려운 기술은 결국 설계자의 의도와 알고리즘에 따라야 하기 때문입니다. 그래서 기술이 강력해지고 복잡해질수록 개발자와 기업에 전적으로 위임하는 것에서 벗어나 사용자의 요구와 사회적 합의를 설계에 반영해야 합니다.

[그림 6]
(출처 : 이미지 투데이 http://www.imagetoday.co.kr)

인공지능의 발달이 우리에게 던지는 새로운 과제는 두 갈래입니다. 로봇을 향한 길과 사람을 향한 길입니다.

첫째, 편리함을 넘어 인류의 생존을 위협할지도 모를 강력한 인공지능이 통제되느냐 하는 문제입니다.

로봇이 지켜야 할 도덕적 기준을 만들어 준수하게 하는 방법이나 살인 로봇을 막는 국제 규약을 제정하는 접근법입니다. 또한 로봇이 직면할 다양한 상황에 대해 사회적 합의를 담은 알고리즘을 만들어 사회적 규약을 벗어나지 않는 범위에서 작동하게 하는 방법도 찾아볼 수 있습니다. 설계자의 의도를 배반하지 않도록 로봇이 스스로 무력화시킬 수 없는 원격 자폭 스위치를 넣는 것도 가능합니다. 인공지능 로봇이 사람의 통제를 벗어나지 않도록 과학자들은 다양한 기술적 방법을 만들어낼 것이고 입법자들은 강력한 법률과 사회적 합의를 적용할 것입니다.

둘째, 생각하는 기계가 모방하지 못하는 인간의 특징을 찾아 인간의 가치를 높이는 것입니다.

로봇의 효용을 제한하는 방법은 로봇이 아니라 인간에 대해 깊이 생각하고 고유의 특징을 활용하는 것입니다. 인공지능이 마침내 인간의 의식 현상을 시뮬레이션하더라도 사람과 인공지능은 여전히 구분될 것입니다. 사람의 감정과 의지 때문입니다.

[그림 7]
(출처 : 이미지 투데이 http://www.imagetoday.co.kr)

인류는 진화의 세월을 통해 공감과 두려움, 만족 등 다양한 감정을 발달시켜왔습니다. 감정은 비이성적이고 비효율적이지만 사람됨을 규정하는 본능입니다. 로봇은 기본적으로 수학적 원리에 따라 이성적이고 합리적으로 작동하기 때문에 인간처럼 감정적 존재가 될 수는 없습니다. 인간은 감정에 따라 판단하는 의지적 존재입니다. 감정은 인간의 강점이자 결함입니다.

논리적인 설명과 이해가 불가능한 사람의 행동은 모두 감정과 의지에서 비롯한 것입니다. 감정과 의지를 빼고는 설명이 안되는 행동은 인간을 예측 불가능한 존재로 특징짓습니다. 인간의 감정과 의지는 수백만 년에 걸친 진화 과정에서 살아남기 위해 선택한 전략의 소산입니다. 고통과 죽음에 대한 공포가 만들어낸 인간의 본질적 요소입니다.

생각하는 기계는 우리 앞에 새로운 난제와 함께 주요한 화두를 던집니다. 생각하는 기능마저 아웃소싱하는 환경에서 인간은 무엇을 해야 할까요? 인류의 생존을 위협하는 초지능적 존재에 대해 인류는 어떻게 통제력을 발휘할까요? 그리고 사람을 능가하는 인공지능이 우리에게 알려주는 것은 사람만이 기쁨과 슬픔, 고통과 공포를 겪으면서 진정한 ‘사람다움’의 가치와 본질을 지니게 된다는 사실입니다.

◈ 참고자료

  • 이니고 http://www.inigo.kr
  • Boston Dynamics 유튜브 http://www.youtube.com/watch?v=vjSohj-Iclc
  • TED 홈페이지 http://www.ted.com
구 본 권 (IT 저널리스트, <로봇시대, 인간의 일> 저자)

빠른 이동 메뉴