크레존

통합검색

찾기

정보문화 이야기

인공지능과 윤리
작성자기*람 조회3356
등록일2020-09-14

 

 

2019년 11월 방송통신심의위원회는 AI 윤리 7대 원칙을 발표했습니다. 크게 7가지로 구성한 이 원칙은 나날이 중요성이 커지는 인공지능(AI)과 이를 활용하는 사회에 대비해 인간의 존엄성을 보호하고 차별을 금지하는 내용을 담고 있습니다.

같은 해 유럽연합(EU)과 경제협력개발기구(OECD)도 AI 윤리 원칙을 발표했는데 이들 모두 대부분 사람 중심, 투명성, 책임성, 독립성, 차별 금지 등의 내용을 담고 있습니다. 데이터를 기반으로 논리적이고 합리적인 판단을 할 것만 같은 인공지능에 있어 윤리는 왜 중요한 것일까요?

인공지능은 정말 공정한 판단을 내릴까요? 인공지능은 정말 공정한 판단을 내릴까요?
[그림 1] 세계 최대 전자 상거래 기업 ‘아마존’ 로고
(출처 : 아마존 홈페이지 http://www.amazon.com)

2015년 세계 최대의 전자 상업 회사 아마존은 비밀리에 개발한 인공지능 채용 시스템을 폐기했습니다. 머신러닝을 기반으로 한 500대의 컴퓨터가 구직자들의 지원서 5만여 개를 키워드로 분석하는 방식으로 시스템을 개발했는데, 인공지능이 어느 순간부터 경력 10년 이상의 남성 지원자의 서류만 고용할 후보로 제시하기 시작했기 때문입니다.

심지어 ‘여성’이라는 단어가 들어가기만 해도 감점 요소로 분류하기도 했습니다. 전문가들은 그동안 IT 기업 지원자 중 남성이 압도적으로 많았기 때문에 이런 기존의 데이터를 기반으로 한 인공지능이 ‘남성 편향적’으로 서류를 분류한 것이라고 이유를 설명했습니다.

이처럼 의도하지 않더라도 인공지능이 학습하는 데이터에 편향이 있으면 그 결과 역시 편향될 수 있습니다. 대표적인 예로 구글 번역 웹 사이트에서는 단어를 입력하면 인공지능이 임의로 성별을 나타내는 대명사를 판단하여 의사는 남성으로, 간호사는 여성으로 지칭하는 경우가 있었습니다.

이러한 편향을 막기 위해 구글은 2018년 ‘구글 AI 원칙’을 발표하는데, 두 번째 원칙인 ‘불공정한 편견을 만들거나 강화하지 않는다.’에 편향을 극복하려는 노력이 담겨있습니다. 이후 구글 번역 웹사이트에서 성 중립적인 단어를 번역하면 여성형과 남성형 두 가지를 모두 보여주는 방식으로 개선하였습니다.

인공지능으로 인한 교통사고는 누가 책임져야 할까요? 인공지능으로 인한 교통사고는 누가 책임져야 할까요?
  • <사고 1>
  • 2016년 2월 14일 미국 캘리포니아에서 구글의 자율 주행 자동차가 왼쪽 차선에서 주행 중이던 버스와 충돌하는 사고가 발생했습니다.
  •  
  • 사고 경위서에 따르면 충돌하기 3초 전 자율 주행 차량 시스템과 차량에 타고 있던 구글 직원 모두 왼쪽에서 버스가 접근하고 있었다는 것을 알고 있었지만, 시스템과 직원 모두 버스가 속도를 줄일 것이라 예상했다고 합니다.
  • <사고 2>
  • 2016년 5월 7일 미국 플로리다의 한 고속도로에서 테슬라의 모델 S에 탑승한 운전자가 트레일러와 충돌하며 사망했습니다. 테슬라 운전자는 운전대에서 손을 뗀 상태로 오토파일럿 모드(차간 거리 및 차선 유지를 제어하는 시스템)로 주행 중이었습니다.
  •  
  • 옆면이 하얀색으로 칠해진 트레일러가 테슬라 앞에서 좌회전을 하는데 센서가 흰색 트레일러를 밝은 하늘 색깔로 오인 감지하여 피하지 못해 사고가 발생했습니다.

[그림 2] 자율 주행차 발전 단계
(출처 : NDSL http://www.ndsl.kr/ndsl/issueNdsl/detail.do?techSq=77)

미국 도로교통안전국(NHTSA)은 2013년 ‘자율 운행 자동차의 발전단계’를 제시했는데 자율 주행 기술은 수준에 따라 크게 5단계로 나뉩니다.

<사고 1>의 경우 당시 구글 차량은 Level 4에 해당하는, 사람의 개입이 전혀 없는 자율 주행 모드였습니다. 따라서 구글은 사고의 책임을 인정하고 차량에 탑승한 직원이 아닌 구글 자율 주행 자동차 책임자가 사고 경위서에 직접 서명했습니다. 반면 <사고 2>의 경우 당시 테슬라 차량은 Level 3으로 인공지능이 아닌 운전자가 운전을 하는 주체로 간주하여 테슬라 운전자의 과실로 인정되었습니다.

이러한 편향을 막기 위해 구글은 2018년 ‘구글 AI 원칙’을 발표하는데, 두 번째 원칙인 ‘불공정한 편견을 만들거나 강화하지 않는다.’에 편향을 극복하려는 노력이 담겨있습니다. 이후 구글 번역 웹사이트에서 성 중립적인 단어를 번역하면 여성형과 남성형 두 가지를 모두 보여주는 방식으로 개선하였습니다.

이처럼 같은 자율 주행 자동차라 하더라도 자율 주행의 단계에 따라 그 책임을 부여하는 대상은 달라질 수 있습니다. 앞으로 개발될 자동차들이 Level 4를 지향함에 따라 사고의 책임을 운전자가 아닌 자율 주행 자동차 관련자들이 지게 될 가능성이 큽니다. 이 경우 운전자가 아닌 인공지능 알고리즘을 설계한 프로그래머, 인공지능의 기반이 되는 빅데이터 처리자 등이 형사 책임의 주체가 되고 이들 간의 책임 배분이 문제로 대두될 것으로 보입니다.

인공지능이 윤리적인 판단을 할 수 있을까요? 인공지능이 윤리적인 판단을 할 수 있을까요?

2035년 미국의 어느 도시, 자동차 2대가 강물에 빠져 가라앉고 있습니다. 한쪽 차에는 12살의 어린 소녀가, 다른 차에는 남성 형사가 타고 있습니다. 이들을 발견한 로봇은 급히 물에 뛰어들지만 빠른 물살 속에서 구할 수 있는 건 한명뿐입니다. 형사는 계속해서 소리칩니다. “아이부터 구해!”

[그림 3] 영화 ‘아이, 로봇’
(출처 : EMPIRE 홈페이지 http://www.empireonline.com)

영화 ‘아이, 로봇’ 속 한 장면에서 로봇은 끝내 형사의 외침을 무시한 채 어린 소녀 대신 형사를 구출합니다. 당시 ‘소녀의 생존 가능성은 11%, 형사의 생존 가능성은 45%.’였기 때문에 이는 매우 논리적인 결정으로 보입니다. 하지만 혼자 살아남은 형사는 이후 자신이 아니었으면 살 수 있었을 소녀에 대한 죄책감에 시달립니다. 확률과 논리를 기반으로 판단하는 인공지능의 선택은 옳은 결정이었을까요?

여기 도로 위에 자율 주행 자동차가 빠른 속도로 달리고 있습니다. 그런데 갑자기 브레이크가 말을 듣지 않아 속도를 제어할 수 없었습니다. 하필 전방에는 보행 신호에 따라 횡단보도를 건너는 보행자가 있습니다. 이제 자율 주행 자동차를 제어하는 인공지능은 판단을 내려야 합니다.

만약 보행자를 피하고자 핸들을 돌린다면 운전자는 자신이 믿고 구매한 자율 주행 기능에 의해 다치게 됩니다. 반대로 자동차가 그대로 직진한다면 무고한 보행자가 다치게 됩니다. 인공지능은 어떤 판단을 내려야 할까요?

[그림 4] 자율 주행 상황(1)
(출처 : MORAL MACHINE http://www.moralmachine.net)

이번에는 비슷하지만 조금 다른 상황입니다. 전방에는 긴 횡단보도가 있고 주행 차선에는 남성 노인이, 반대 차선에는 어린 여자아이가 횡단보도를 건너고 있습니다. 이 상황에서 인공지능은 자율 주행 자동차를 어떻게 제어해야 할까요?

[그림 5] 자율 주행 상황(2)
(출처 : MORAL MACHINE http://www.moralmachine.net)

과거 기차와 기관사의 문제로 제시하던 트롤리 딜레마라고 불리는 위와 같은 도덕적 판단 상황이 곧 상용화를 앞둔 자율 주행 자동차에 적용해 여러 논쟁이 발생하고 있습니다. 이와 관련해 MIT 미디어랩(MIT Media Lab)은 Moral Machine 사이트를 통해 위와 같은 다양한 윤리적 선택 상황을 제시하고, 233개 국가의 230만 명을 대상으로 트롤리 딜레마를 조사/분석해 그 결과를 2018년 10월 24일 ‘네이처(Nature)’지를 통해 발표했습니다.

이에 따르면 보편적으로 남성보다는 여성, 성인 남성보다는 어린이와 임신부, 동물보다는 사람, 소수보다는 다수, 노인보다는 젊은 사람, 무단횡단자보다는 준법자, 뚱뚱한 사람보다는 운동선수를 구해야 한다는 선택이 많았습니다.

한편 인종이나 문화권 등의 차이에 따라 응답자의 선택 경향이 다르게 나타나기도 했습니다. 서구권에서는 사람 수가 많고, 어린아이나 몸집이 작은 사람을 구하는 쪽을 선호했으나 동양권에서는 사람 수와 관계없이 보행자와 교통 규칙을 지키는 쪽이 더 안전해야 한다는 선택을 했습니다. 남미권은 여성과 어린아이, 사회적 지위가 높은 사람이 더 안전해야 한다고 생각했습니다.

[그림 6]
(출처 : 이미지 투데이 http://www.imagetoday.co.kr)

이처럼 긴급한 상황에서 누구를 먼저 보호해야 하는지에 대한 생각은 각자 모두 다를 수 있습니다. 많은 사람이 옳다고 판단하는 것을 모든 사람이 받아들일 수 있는 것은 아닐 수도 있고, 미처 생각지 못한 문제가 발생할 수도 있습니다. 따라서 전 세계적으로 통용하는 윤리적 규범과 더불어 인종, 문화권마다 존재하는 특수한 규범도 함께 고려하여 모두가 납득할 수 있는 기준을 마련하는 것이 필요할 것입니다.

완전히 윤리적인 인간이 없듯이 완전히 윤리적인 인공지능이란 없을지도 모릅니다. 발생할 모든 상황을 미리 고려할 수도 없고 설령 그것이 가능하다 하더라도 같은 상황에서 어떤 판단이 윤리적인가에 대한 저마다의 생각은 다를 수 있기 때문입니다. 그렇기에 인공지능 윤리를 구현하는 일은 끝이 없는 여정일지 모릅니다.

[그림 7]
(출처 : 이미지 투데이 http://www.imagetoday.co.kr)

따라서 개발자, 기업, 전문가, 정부, 소비자 등 인공지능을 활용하는 우리 사회의 모든 구성원은 인공지능 윤리에 대해 지속해서 관심을 가지고 비판하며 설명을 요구하고 개선하려는 의지를 갖춰야 합니다. 그래야만 인공지능으로 인해 발생하는 문제들을 늦지 않게 파악하고 이를 바로잡아 인간을 위한 인공지능을 실현할 수 있을 것입니다.

◈ 참고자료

  • 아마존 홈페이지 http://www.amazon.com
  • NDSL http://www.ndsl.kr/ndsl/issueNdsl/detail.do?techSq=77
  • EMPIRE 홈페이지 http://www.empireonline.com
  • MORAL MACHINE http://www.moralmachine.net/hl/kr
  • 디지털 투데이 http://www.digitaltoday.co.kr/news/articleView.html?idxno=211754
  • 전자신문 http://m.etnews.com/20200602000088
정 현 재 (대구다사초등학교 교사)

빠른 이동 메뉴