크레존

통합검색

찾기

정보문화 이야기

더 길게 교육받지만, 더 쉽게 속는 이유
작성자이*희 조회1514
등록일2020-08-14

 

 

전 세계가 ‘가짜 뉴스’로 몸살을 앓고 있습니다. 2016년 미국의 대통령 선거, 영국의 브렉시트 국민투표 등에서 허위 왜곡 정보가 여론에 상당한 영향을 미치는 일이 잇따르면서 민주주의 체제가 위협당한다는 우려도 커졌습니다. 영국 옥스퍼드 사전은 2016년을 대표하는 단어로 ‘탈 진실(Post Truth)’을 선정했습니다. 허위 왜곡 정보로 인한 개인적 피해와 사회적 손실은 점점 더 커질 것입니다. 비관론자만의 우려도 아닙니다.

2013년 세계경제포럼은 보고서에서 ‘대량의 허위 디지털 정보가 현대 사회의 주요 위험의 하나’라고 전망한 바 있습니다. 문제는 갈수록 상황이 심각해져 간다는 데 있습니다. 미국 컨설팅 기업 가트너(Gartner)는 2017년 미래 전망 보고서를 통해 "2022년이 되면 선진국 시민 대부분은 진짜 정보보다 가짜 정보를 더 많이 접하게 될 것."이라고 전망했습니다. 매사추세츠 공과대학이 펴내는 과학기술 전문지 ‘MIT 테크놀로지 리뷰’ 최신 호는 2019년 주목해야 할 인공지능의 위험 6가지를 소개했습니다. 그중 하나는 허위 왜곡 정보의 범람입니다.

한국 사회도 허위 왜곡 정보의 무풍지대가 아닙니다. 정보화 세상에서 사람들의 학력 수준은 어느 때보다 높고, 모든 정보에 직접 접근할 수 있는 지적 환경을 누리게 됐습니다. 하지만 허위 왜곡 정보로 인한 피해는 그 어느 때보다 커졌습니다. 역설적인 상황입니다.

허위 왜곡 정보, 가짜 뉴스는 인공지능을 활용한 딥 페이크(Deep Fake, 첨단 조작 기술)로 진화하며, 진짜와 가짜를 거의 구별할 수 없게 되어가고 있습니다. 2017년 12월 ‘딥 페이크’라는 아이디가 인공지능 기술을 활용한 유명 연예인의 위조 영상물을 인터넷에 공개한 것에서 ‘딥 페이크’라는 명칭이 비롯됐습니다. 스칼릿 조핸슨, 에마 왓슨 등 유명 영화배우의 얼굴을 성인 영상물에 합성했는데 진위 식별이 불가능한 수준입니다. 이미 국내 여성 연예인들을 합성한 성인 영상물이 유통되고 있어 피해가 늘어나고 있습니다.

구글은 2018년 5월 개최한 연례 개발자 대회(I/O)에서 사람 목소리를 완벽하게 흉내 내는 인공지능 음성 비서 서비스 듀플렉스를 공개했습니다. 미용실과 식당에 전화를 걸어 상대의 질문과 답변에 자연스럽게 응대하고 주어진 과업을 완수하는 인공지능을 매장 종업원 누구도 눈치채지 못했습니다.

[그림 1]
(출처 : 이미지 투데이 http://www.imagetoday.co.kr)

조작한 이미지와 사실을 퍼뜨리는 가짜 뉴스를 뿌리 뽑기 위해 인공지능을 활용하는 시도도 활발합니다. 가짜 뉴스의 피해가 확산하자 구글과 페이스북은 인공지능을 이용해 가짜 뉴스와 악성 댓글을 걸러내는 기술 개발에 뛰어들었습니다.

진짜와 가짜를 놓고 쫓고 쫓기는 경쟁에 인공지능이 가세해, 공방이 새로운 차원으로 확대되고 있습니다. 인공지능 기술이 진짜보다 진짜 같은 가짜를 만들어내는 상황에서 “앞으로 자연인이 진짜와 가짜를 식별하는 일이 가능할까?”, “진짜 같은 가짜가 손쉽게 만들어져 유통되면 개인과 사회는 어떤 문제에 부닥칠까?”의 문제입니다. 인공지능으로 만들어낸 진짜 같은 가짜가 뉴스와 검색 결과, 전화 통화 등에서 활용한다면 피해는 포르노처럼 특정한 영역에 국한되지 않게 됩니다.

구글은 듀플렉스의 시연을 통해 완벽한 사람의 목소리로 변화하는 상황에 기민하게 대응하는 전화 통화 기술을 선보였지만, 이내 수많은 사람의 불안과 우려, 비판에 직면했습니다. 전화 목소리의 톤과 내용으로 가짜와 진짜를 식별할 수 없어진다면 거의 모든 식당과 공연, 행사 예약에 매크로 프로그램이 활용될 수 있다는 우려입니다.

텔레마케팅 전화와 보이스피싱이 지금과 비교할 수 없이 정교하게 시도한다면 어떻게 될까에 대한 불안이었습니다. 구글은 우려와 비판이 제기되자 듀플렉스를 상용화할 시점에는 ‘사람이 아니라 인공지능이 건 전화’라는 점을 말하겠다고 밝혔습니다. 하지만 각종 페이크 영상과 보이스피싱처럼 의도를 드러내지 않는 이용자도 해당 기술을 사용합니다.

그동안 포토샵을 이용한 이미지 수정과 조작이 가능했지만, 최근 빅데이터와 인공지능 기술 발달은 조작과 가짜의 수준을 진짜와 다름없게 만들어 식별이 불가능한 수준에 도달했습니다. 구글 연구원 이언 굿펠로가 2014년 몬트리올대 박사과정 시절 개발한 진짜 같은 가짜 이미지를 만들어낸 인공지능 신경망(GAN) 기술 덕분입니다. 이 신경망은 경쟁하는 알고리즘 두 개로 구성됐는데 하나는 데이터에 기반한 이미지 식별 기술을 활용해 점점 더 정교한 이미지를 생성하는 알고리즘입니다.

[그림 2] GAN이 만든 초상화
(출처 : pathmind 홈페이지 http://pathmind.com/kr/wiki/generative-adversarial-network-gan)

또 다른 신경망은 이렇게 만들어진 이미지가 진짜인지 가짜인지를 판별하는 알고리즘입니다. 두 신경망이 대립하고 경쟁하면서 충돌하는 차이점을 발견하고 피드백을 주고받으며 조작과 감식의 품질을 높여가는 방식입니다. 굿펠로는 생성 알고리즘과 판별 알고리즘의 관계를 위조지폐범과 수사관에 비유합니다. 감쪽같은 위조지폐는 그것을 판별하게 하는 정교한 감식기술을 요구하고, 위폐 감지 수준이 높아지면 그를 통과하는 더 정교한 위폐가 등장하게 됩니다. 위폐 제조와 감별 경쟁이 피드백을 주고받은 결과는 진짜와 식별이 거의 불가능해진, 완벽에 가까운 위폐의 등장입니다.

미국 국방성 방위 고등 연구 계획국(DARPA)은 2018년 세계적 인공지능 전문가들을 대상으로 딥 페이크 동영상을 제작하고 감식하는 경진대회를 개최했습니다. 진짜 같은 가짜 동영상이 가짜 뉴스에 활용돼 대통령 연설이나 유명인의 증오 범죄 유발 발언 등을 만들어낼 때 재앙스러운 결과로 이어질 수 있다는 우려 때문입니다.

하지만 많은 전문가는 진짜 같은 가짜를 만들고 식별하기 위한 인공지능 경쟁이 결국엔 승패의 의미가 없는 결과로 이어지는, 승산 없는 게임이 될 것이라고 말합니다. 냉전 시기 초강대국 간 군비 경쟁이 상호 확증 파괴 시스템으로 이어져, 지구 전체를 파괴하는 대량 살상 무기를 만들어낸 결과와 유사합니다.

기술이 진짜 같은 가짜를 놓고 쫓고 쫓기는 경쟁을 하고 있지만, 기술만으로는 해결이 불가능한 문제입니다. 법과 제도, 윤리, 비판적 사고와 같은 오래된 비기술적인 방법이 함께 동원되어야 하는 과제입니다. 가짜 뉴스 피해를 막기 위한 법안과 기술적 대응도 활발합니다. 국회에는 여러 건의 가짜 뉴스 관련 법안이 제출돼 있고, 국내외 정보기술 기업들은 알고리즘과 인공지능 기술을 동원해 허위 왜곡 정보의 탐지와 확산 방지에 나서고 있습니다.

구글, 유튜브, 페이스북 등 가짜 뉴스 확산의 경로인 플랫폼은 가짜 뉴스를 적발하는 알고리즘을 개발하고 ‘논란 정보’를 표시하는 기술적 시도를 하고 있습니다. 국내외 언론사들은 팩트체크 조직을 통해 허위 왜곡 정보를 걸러내는 역할을 확대하고 있습니다.

거짓 정보와 사기꾼은 언제나 존재했지만 최근 몇 년처럼 가짜 뉴스 현상이 민주주의를 위협하는 요인으로까지 확대된 적은 없었습니다. 현재 추진 중인 규제 법규 마련과 기술적 시도가 가짜 뉴스 문제를 해결하는 방책이 될 수 있을까요?

성급하게 답을 해보자면 ‘절대 불가능’입니다. “허위 왜곡 정보는 법과 기술로 막을 수 없는 것인가?”라는 질문에 답하기 위해서는 먼저 지금의 허위 정보 문제가 어떻게 생겨났는지 살펴봐야 합니다. 허위 왜곡 정보가 발생한 배경에는 미디어 환경과 기술 발달이 있습니다.

스마트폰과 소셜미디어가 지배적인 정보전달 매체가 되면서 이용자들의 정보 이용 환경이 매스미디어 시절과 달라졌습니다. 유튜브, 페이스북 등 소셜미디어에서는 게이트키핑을 거친 매스미디어의 뉴스나 출처, 진위가 확인되지 않은 정보가 구분 없이 유통됩니다. 소셜미디어의 *필터 버블, *반향실 효과는 이념 지향성이 비슷한 사람들 간의 정보 유통과 확증편향을 강화합니다.

*필터 버블(Filter Bubble) : '개인화 알고리즘'에 의해 맞춤화한 정보 속에 살면서 편리함을 영위하는 것 같지만 알고 보면 편협한 사고를 하게끔 만드는 왜곡 현상

*반향실 효과(echo chamber effect) : 자신과 유사한 생각을 하는 사람들하고만 소통하면서 점차 편향적인 사고를 하는 현상

[출처 : 위키백과 http://ko.wikipedia.org]

또한 빅데이터와 인공지능 기술의 발달은 진짜와 거의 다름없는 가짜를 만들어내는 수준에 도달했습니다. 인공지능 신경망(GAN)은 완벽에 가까운 가짜를 만들어내고 있으며, 이미 딥 페이크 기술은 식별할 수 없을 정도로 감쪽같은 유명인 조작 포르노 동영상 등으로 피해를 발생시키고 있습니다. 기술은 허위 정보를 식별하는 데도 쓰이지만, 이를 만들고 확산하는 용도로도 활용합니다. 기술이 허위 정보에 대한 효과적인 해결책이 되지 못하는 이유입니다.

[그림 3]
(출처 : 이미지 투데이 http://www.imagetoday.co.kr)

가짜 뉴스를 법과 규제로 차단하려는 시도도 성공하기 힘듭니다. 허위 사실을 신봉하는 것은 양심의 자유고, 이를 통신하는 것은 표현의 자유로 보호받는 영역이기 때문입니다. 수정헌법 제1조로 표현의 자유를 강하게 보장하는 미국만이 아니라 한국도 허위 사실 유포를 처벌하기 어렵습니다.

갈릴레이 시절 지동설에 관한 지식처럼 사실은 자명하게 드러나는 게 아니라 지식의 발달 그리고 시대와 상황에 따라 합의로 만들어지고 변화될 수 있습니다. *유발 하라리는 “인간은 늘 탈 진실의 시대를 살아왔으며 호모 사피엔스 특유의 힘은 허구를 만들고 믿는다는 점”이라고 말합니다. 하라리는 “1,000명의 사람이 조작된 이야기를 한 달간 믿으면 가짜 뉴스고, 10억 명이 1,000년 동안 믿으면 종교다.”라고 예시합니다.

*유발 노아 하라리(Yuval Noah Harari) : 이스라엘의 역사학자

인터넷과 인공지능 환경은 활자와 매스미디어 시대의 리터러시 능력과 다른 차원의 문해력을 요구합니다. 디지털 미디어의 구조와 특성을 이해하고 활용하는 새로운 미디어 리터러시 능력입니다.

가짜 뉴스를 생산, 유포하는 세력은 기본적으로 소셜미디어와 디지털 정보의 속성에 대한 기술적 전문성을 갖추고, 지능정보사회의 정보 유통구조와 영향력을 악의적으로 활용할 줄 아는 집단입니다. 이에 비해 가짜 뉴스를 소비하고 영향을 받는 일반 대중은 정보기술과 소셜미디어의 속성에 대해 이해가 낮은 디지털 리터러시 취약층입니다. 두 집단 간의 디지털 리터러시 격차가 가짜 뉴스의 확산과 피해의 주된 배경입니다.

[그림 4]
(출처 : 이미지 투데이 http://www.imagetoday.co.kr)

인터넷과 소셜미디어는 개인에게 강력한 권한, 다양한 선택지뿐 아니라 그에 따른 영향과 책임도 함께 부여했습니다. 과거 여론시장에서 게이트키퍼와 후견인 노릇을 담당했던 매스미디어와 집단의 영향력은 많이 축소되고 있습니다. 지금은 누구나 매개자 없이 다양한 정보를 선택할 수 있으며 정보를 직접 생산해 유통할 수 있는 환경입니다. 이는 모든 개인을 언론 발행인과 같은 거대한 권력과 책임의 주체로 변모시켰습니다.

가짜 뉴스는 처음부터 가짜로 드러나지 않습니다. 이용자의 신념과 인지체계에 부합하고 부분적 사실과 오류를 뒤섞은 사기성 정보이기 때문에 정체를 식별하기 어렵습니다. 사기 범죄는 사기범을 처벌하거나 허가받지 않은 거래를 금지하는 것만으로 사라지지 않습니다. 사기꾼은 항상 새로운 수법을 갖고 등장하기 마련이고 정보기술을 활용한 신종 사기 수법 역시 계속 발달할 것입니다.

활자 미디어 시절, 필기보다 활자로 인쇄한 글은 신뢰할 수 있는 정보라는 인식이 형성됐고, 사진술이 등장한 이후 현장 사진을 첨부한 기사는 명확한 사실의 증명으로 통용됐습니다. TV 뉴스가 높은 신뢰를 받은 것은 동영상으로 현장을 생생하게 볼 수 있다는 미디어적 특성 때문이었습니다. 워드프로세서와 프린터가 일상의 도구가 되자, 활자 형태에 주어지던 신뢰는 서서히 사라졌고, 이미지 편집과 조작이 손쉬운 디지털 환경이 되면서 사진과 결부한 사실성 또한 옅어졌습니다.

동영상마저 얼마든지 조작할 수 있지만, 인간의 인지능력은 디지털 미디어 기술처럼 빠르게 발달하지도 쉽게 변화하지도 않습니다. 무어의 법칙에 따라 기하급수적으로 발달하는 기계의 연산능력과 달리 사람의 인지능력과 주의력은 기본적으로 제한적입니다. 사람은 인지적 수고를 최소화하려는 ‘인지적 구두쇠(cognitive miser)’ 성향으로 인해 각종 인지적 오류와 편향을 벗어나기 어렵습니다.

[그림 5]
(출처 : 이미지 투데이 http://www.imagetoday.co.kr)

단기간에 진화하거나 업그레이드되지 않는 인간의 인지능력과 성향은 디지털 환경에서 정보 비대칭 현상을 만나면서 집단 간, 개인 간의 격차를 증폭시켰습니다. 악의적 의도를 품은 사람이 인지 성향에 대한 지식을 갖추고 사실과 식별이 어려운 왜곡 정보를 만들어 유포하지만, 다수의 이용자는 인지적 관성과 편향을 아직 벗어나지 못하고 있습니다. 가짜 뉴스의 피해는 이러한 상황에서 더욱 커집니다. 기술도, 법도 유효한 처방이 되지 못하는 상황에서 적절한 대응 방법은 무엇일까요?

허위 왜곡 정보로 인한 피해가 디지털 미디어의 속성과 소셜미디어를 통한 정보 유통, 인간의 인지적 편향과 오류 성향, 집단 간 디지털 정보 비대칭 상황에서 비롯했다는 사실은 이를 극복하는 방안도 근본적 차원에서 출발해야 함을 알려줍니다. 가짜 뉴스를 만들고 유포하는 집단에 대해 기술과 법처럼 강제적이고 외부적인 수단은 유효한 대응법이 되지 못합니다. 따라서 미디어에 노출되는 이용자들의 정보 문해력을 강화하는 게 방법입니다. 그것이 바로 디지털 리터러시입니다.

◈ 참고자료

  • pathmind 홈페이지 http://pathmind.com/kr/wiki/generative-adversarial-network-gan
  • 위키백과 http://ko.wikipedia.org
구 본 권 (IT 저널리스트, <로봇시대, 인간의 일> 저자)

빠른 이동 메뉴