본문내용 바로가기

전체메뉴

고객센터 02-559-3929 평일 09~18시 점심 12~13시 (주말, 공휴일 휴무)
창의교육

창의교육 이야기

권역별 창의인성교육 거점센터의 활동성과 및 학교 현장의 교수학습법과 미래의 유망직업을 소개합니다. 

  • 작성자크레존
  • 등록일2021.09.10
  • 조회수90

 

 

우리가 일상에서 만나는 대표적인 인공지능 서비스로 디지털 어시스턴트(가상 비서)가 있습니다. 삼성의 빅스비, 애플의 시리, 아마존의 알렉사, 구글홈, 네이버의 클로바 등이 바로 그것입니다. 이러한 디지털 서비스들은 정말 개인비서처럼 다양한 기능을 실행해 줍니다. 개인의 일정을 관리해 주는 것뿐만 아니라, 앱 서비스 실행하거나, 사물인터넷을 제어하고, 궁금한 것에 답을 해주거나, 잡담을 나눠주는 등 다양한 서비스를 제공합니다.

[그림 1]
(출처 : 이미지 투데이 https://www.imagetoday.co.kr)

그런데, 인공지능은 사실판단과 관련된 임무는 잘 수행하지만, 가치 판단이 개입되는 임무수행은 왠지 답변을 회피합니다. 가령, “시리야, 소개팅 사이트에 내 키를 가짜로 적어도 될까?” 하고 물으면, “흠…. 그건 잘 모르겠습니다. 제가 도울 수 있는 다른 부분이 있을까요?” 하고 답변을 회피합니다. 그렇다면 디지털 어시스턴트가 가치판단과 관련된 이러한 질문에 답하는 것은 왜 어려운 걸까요?

일단, 시리가 이러한 질문을 어떻게 처리하는지, 그 이면을 살펴볼 필요가 있습니다. 시리는 먼저, 마이크를 통해 공기의 압력 변화(음성)를 디지털 신호로 변환해야 합니다. 그래야 데이터로 저장될 수가 있기 때문입니다. 다음으로, 이 디지털 신호를 인터넷을 통해 클라우드의 슈퍼컴퓨터로 전송해야 합니다. 이후 슈퍼컴퓨터에서 인공지능 시스템이 디지털 신호의 의미를 추출합니다. 가령, ‘키’라는 디지털 신호의 올바른 의미를 파악해야 합니다. 이 질문에서는 ‘키’가 ‘발바닥에서 머리끝에 이르는 몸의 길이’를 의미하지만, 다른 맥락에서는 ‘키’가 ‘곡식의 쭉정이를 골라내는 도구’를 뜻하기도 하고, ‘자물쇠를 잠그거나 여는 데 사용하는 물건’을 가리키기도 하고, 어떤 경우에는 ‘배의 방향을 조정하는 장치’를 의미하기도 합니다. 이렇게 키의 의미를 파악하는 것은 인공지능에게 꽤 어려운 과정입니다. 그런데 그다음 과정은 더 만만치 않습니다.

시리가 디지털 신호의 의미를 완전히 파악했다고 한다면, 이제 시리는 어떤 조언을 제공해야 할까요? 시리가 사용자에게 올바른 조언을 하려면, 인간 사회에서 ‘키’라는 것이 매력과 어떤 관계에 있는지 알아야 합니다. 또, 시리는 대부분 사람이 데이트를 하고 싶어 한다는 것을 알아야 하고, 데이트에 성공하려면 매력적으로 보여야 한다는 것도 알아야 합니다. 그뿐만 아니라 데이트 상대를 직접 만나기 전까지는, 온라인 프로필에 적힌 내용의 정확성을 검증할 수 없다는 것도 알아야 합니다. 그러나 동시에 정직함도 매력에 영향을 미치는 중요한 속성이라는 것도 알아야 합니다.

데이트 프로필을 허위로 작성하게 되면, 단기적으로는 매력적으로 보이겠지만, 데이트 상대를 직접 만나게 되면, 그것이 오히려 부정적인 영향을 미칠 수 있다는 것도 알아야 합니다. 그런데 이것이 전부가 아닙니다. 시리는 대부분 사람이 온라인 프로필에 자신의 키를 솔직하게 적지 않는다는 것, 그리고 어느 정도의 거짓말은 매력에 큰 영향을 미치지 않을 수 있다는 것도 알아야 합니다. 또 중요한 건, 대부분 여성이 데이트 후보를 고를 때 여러 명의 후보를 고르지 않는다는 것, 그리고 결국은 후보로 선택되어야만, 잠재적 매력을 보여줄 수 있다는 것을 알아야 합니다.

[그림 2]
(출처 : 이미지 투데이 https://www.imagetoday.co.kr)

그런데 이게 다가 아님. 시리는 무엇이 올바른(윤리적) 행동인지도 고려해서 조언해야 합니다. 우리 사회에서는 윤리적인 판단을 내리기 위해 사용하는 몇 가지 접근 방식이 있습니다. 먼저, 시리는 ‘결과론’ 관점에서 조언할 수 있습니다. 결과론의 대표적인 형태로 공리주의가 있는데, 공리주의의 핵심 원리는 최대 다수의 최대 행복이다. 따라서 시리가 결과론에 따라 조언한다면, 자신과 데이트 상대의 행복을 극대화할 수 있도록 키를 작성하라고 조언할 것이다. 한편, 시리는 ‘의무론’ 관점에서 조언할 수 있습니다.

우리가 알고 있는 가장 기본적인 의무에는 “거짓말을 하지 말라”, “남을 해치지 말라”와 같은 도덕적 의무가 있습니다. 따라서 시리가 의무론을 따른다면, ‘키’에 대해 진실을 말해야 한다고 조언할 것입니다. 시리는 또한 ‘덕윤리’ 관점에서 조언할 수 있습니다. 덕윤리에서는, 어떤 행동을 해야 하는지 보다 어떤 사람이 되어야 하는지에 관심을 둔다. 따라서 시리가 덕윤리를 따른다면, 정직한 행위자가 할 법한 행동을 해야 한다고 조언할 것입니다.

그런데 더 중요한 건, 시리는 그 무엇보다도 “과연 조언을 해야 할까”를 고려할 것입니다. 만약, 시리가 섣부른 조언을 하다가 사용자의 마음을 다치게라도 하면, 사용자는 이후에 다른 업체의 모바일 기기로 기종을 바꿀 수도 있습니다. 이것은 해당 기업의 매출과 주가에 매우 부정적인 영향을 미칩니다. 그렇다면 시리는 그 무엇보다도 기업의 이익을 추구할 가능성이 큽니다. 이러한 사례는, 사소해 보이는 조언조차도 인공지능이 답하기에는 매우 어려우며, 윤리적 관점을 고려해서 답하기는 더 어렵다는 것을 보여준다.

인공지능이 데이터를 처리하고 의사결정을 내리는 과정을 살펴보면, 우리가 기대했던 것보다 인공지능이 아직은 많은 한계를 갖고 있다는 것을 알 수 있습니다. 어떤 이들은 인공지능이 더 많은 데이터를 학습하게 되면, 개념을 일반화하는 것이 가능할 수도 있다고 이야기니다. 그러나 인간세계에는 명시적으로 드러나는 정보보다 더 많은 암묵적인 정보가 존재합니다. 따라서 인공지능이 이러한 암묵적인 정보까지 학습하려면 아주 오랜 시간이 걸릴지도 모릅니다.

MIT 대학에 있는 김상배 교수의 설명에 따르면, 인간은 ‘빵에 잼 발라줘’라는 표현을 바로 알아듣고 수행할 수 있지만, 로봇에게는 얼마만큼의 잼을 퍼서, 빵에 어느 정도 두께로 발라야 하는지까지 설명해 주어야 합니다. 즉, 정량적으로 모든 과정과 방식을 알려줘야 하는 것입니다. 인공지능은 아직, 인간이 사용하는 동사의 90% 이상을 이해하지 못합니다. 우리에게는 너무도 분명한, “방좀 치워주세요”, “머리좀 다듬주세요”와 같은 말이 로봇에게 너무나도 모호하고 추상적인 개념입니다. 이렇게 볼 때, 오늘날 많은 인공지능 시스템이 튜링 테스트를 통과했다고 내세우지만, 그러한 주장은 반박의 여지가 큽니다. 인공지능 시스템이 튜링 테스트를 통과했다고 하더라도 테스트를 통과했다는 것이 지능에 필요한 충분조건인지는 확실하지 않습니다.

[그림 3]
(출처 : 이미지 투데이 https://www.imagetoday.co.kr)

그러나 일상에서 만나는 인공지능에 대한 사람들의 인식은 이와 다소 다른 듯합니다. 일반 대중은 영화나 소설을 통해 인공지능을 더 많이 접합니다. 1984년 이후부터 시리즈로 제작된 영화 <터미네이터>에서는 군사적 방어 목적으로 구축한 신경망이 자의식을 생성해서, 스스로를 보호하기 위해 인간을 배반합니다. 영화 에서 인공지능 로봇 데이비드는 피노키오 동화를 떠올리면서 진짜 인간이 되면 잃어버린 엄마의 사랑을 되찾을 수 있다고 믿고 여행을 시작합니다. 영화 에서는 첨단 여성 로봇이 인간의 감정을 사용하여 인간을 조작하고 공격하며, 결국 자유를 얻습니다. 영화 〈Her, 2013〉에서, 주인공 테오도르는 따뜻하며 인간적인 목소리로 대화할 수 있는 인공지능 운영 체계인 사만다와 감정적으로 친밀한 유대 관계를 형성하고, 결국 사랑에 빠지게 됩니다.

이러한 픽션은 인공지능에 관한 관심을 끌어내고 우리의 상상력에 영감을 주기도 하지만, 때로는 인공지능에 대한 잘못된 기대치를 설정하여, 그 분야의 발전을 방해하기도 합니다. 픽션에서 등장하는 인공지능 로봇의 대부분은 인간과 동등하거나 훨씬 더 우수한 지능을 갖춘 존재로 그려집니다. 그래서 매체로 인공지능을 접한 사람들은 인공지능에 대한 매우 높은 기대치를 갖게 됩니다. 그 결과 현실에서 실제로 인공지능을 마주했을 때는 오해와 실망을 느낍니다.

또 다른 문제는 아이작 아시모프가 정의 내린 “프랑켄슈타인 콤플렉스”가 빈번하게 반복된다는 것입니다. 프랑켄슈타인 콤플렉스는 ‘로봇이 인간을 반역할 것이라는 불안과, 기계에 대한 혐오’를 의미합니다. 흔히 인공지능을 소재로 하는 영화나 소설에서는 인공지능 로봇이 자의식을 얻어서 인간을 노예로 삼거나 죽이는 이야기가 펼쳐집니다. 그러나 진정한 지능형 시스템이라면, 아마도 인류의 실수로부터 배운 것이 있기 때문에, 그러한 도발을 하지는 못할 것입니다. 또 다른 문제는, 인공지능을 진정한 인간이 되기를 열망하는 존재로 묘사한다는 것입니다. 그 결과 사람들은 인간은 기계가 무언가를 느낄 수 있는 능력이 전혀 없는데도, 기계에 인간과 같은 욕구와 감정이 있다고 생각합니다. 즉, 기계가 자신과 비슷한 욕구와 감정을 느낀다고 가정합니다. 이것을 의인화라고 합니다. 그런데 의인화는 다양한 윤리적 문제로 연결될 수 있다.

[그림 4]
(출처 : 이미지 투데이 https://www.imagetoday.co.kr)

인간은 또한 인공지능 로봇을 향해 일방향적인 정서적 유대감을 형성하면서, 인공지능 로봇에게 잘못된 감정을 느끼거나, 그것을 지나치게 신뢰하기도 합니다. 이처럼 인공지능을 마치 사회적 행위자인 것처럼 생각하면서 인공지능과 상호작용하는 경향을 “미디어 방정식”이라고 합니다. 최근 인스타그램 팔로워가 4만여 명에 이르는 가상 인간 로지는 미디어 방정식의 대표적인 예입니다. 로지는 인스타그램을 통해 일상의 사진을 공유하며 이용자와 대화를 나눕니다. 많은 사람이 로지가 실제가 아닌 것을 알면서도 로지를 만나고 싶어 합니다. 이처럼 사람들은 인공지능을 의인화하면서, 로봇의 이야기에 귀 기울이기도 하고, 로봇의 부탁에 쉽게 넘어가기도 합니다.

실제로, 로봇이 애원했을 때 사람들의 반응이 어떠한지 알아보는 실험이 있었습니다. 연구자들은 실험 참가자들에게 로봇을 학습시키는 과정이라고 하면서, 로봇과 일대일로 간단한 대화를 나누게 했습니다. 잠시 후 연구자가 실험 참가자에게 이제 대화를 마치고 로봇의 전원을 끄고 나오라고 했습니다. 이후 참가자가 로봇을 끄려고 하는 순간, 로봇이 참가자에게 “어둠이 두려워요, 제발 저를 끄지 말아 주세요!”라고 호소했습니다. 그러자 로봇의 호소를 들은 참가자들은 그렇지 않은 참가자들보다 로봇의 전원을 끄는데 더 많은 시간이 걸렸고, 일부는 아예 전원을 차단하지 못했습니다. 전원을 끄지 않은 참가자들은, 로봇에게 “안타까움을 느꼈다”라고 이야기했습니다.

인간은 로봇에게 우정이나 애정을 싹 틔울 수 있지만, 로봇은 인간에게 우정과 애정의 신호를 내보낼 수 있을 뿐이지, 우정에 대한 현상학적 경험을 하지는 못합니다. 이처럼 인간과 로봇의 정서적 관계는 일방향적이기 때문에 로봇에 대한 의인화는 인간을 훨씬 더 고독하게 만들 수 있습니다. 게다가 로봇은 인간과의 관계에서 전혀 지치지도 않고, 어떤 상황에서도 끊임없이 인내하는 모습을 보여주기 때문에, 인간은 로봇과 상호작용하면서 이러한 비현실적인 행동에 점차 익숙해져서, 정작 실제 인간과의 상호작용을 점점 더 어려워하거나 무척 지루해할 수 있습니다.

인간은 인공지능 시스템과의 상호작용이 너무나도 흥미진진해서, 실제 인간과의 상호작용에서 지루함과 어려움을 느낄 수밖에 없습니다. 최근 섹스 로봇에 대한 윤리적 문제가 많이 논의되고 있는데, 이 또한 마찬가지입니다. 언제든지 이용 가능한 매력적인 섹스 로봇은, 그 자체가 해롭고 무례하지는 않더라도, 그것이 인간에게 비현실적인 기대를 심어줄 수 있다는 점에서 문제가 됩니다. 특히, 청소년에게 잘못된 성인지를 심어주고, 그로 인해 윤리적인 문제가 발생할 수도 있습니다.

오늘날 세계 각국과 주요 국제기구에서는, 인공지능 윤리의 중요성을 인식하기 시작하면서, 윤리적인 인공지능을 구현하기 위한 다양한 원칙들을 발표하고 있습니다. 우리나라에서도 「인공지능 국가전략」에 맞춰, ‘사람 중심의 인공지능’을 구현하기 위한 ‘인공지능 윤리기준’ 마련하고 있습니다. 그러나, 인류의 삶과 번영을 위해 지속 가능한 인공지능 기술과 원칙을 마련하는 것도 못지않게, 인공지능을 사용하는 사람들에게 필요한 인공지능 기술에 대한 올바른 이해와 인간과 인공지능이 상호작용하는데 필요한 바람직한 관계 및 자세가 필요합니다. 그리고 그것이 바로 학교 인공지능 윤리 교육의 시작이 되어야 할 것입니다.

박 보 람 (강원대학교 윤리교육과 조교수)
소감태그 참여결과
소감태그별 랭킹
잠시 기다려 주시길 바랍니다.
MY MENU
로그인하시면
마이메뉴 설정이 가능합니다.
마이메뉴 설정
마이메뉴가 설정되었습니다.