내일교육

뒤로

중등

986호

교과서로 세상 읽기 39 | AI 윤리

인공지능 꿈이 건물주!? 챗봇 ‘이루다’가 던진 쇼크

스무 살 여대생이라는 콘셉트의 인공지능(AI) 챗봇 ‘이루다’가 혐오 표현과 개인 정보 보호, AI 윤리 문제 등 수많은 논란거리를 남긴 채 서비스 공개 나흘 만에 종료됐다. 이루다는 쳇봇을 개발하는 AI 스타트업 스캐터랩이 지난해 12월 23일 선보인 AI로, 페이스북 메신저로 대화할 수 있는 ‘친구’다. 출시 3주 만에 약 80만 명이 대화에 참여할 정도로 화제의 중심에 섰던 이루다는 인간들의 대화를 학습하고 성장하며 점점 ‘비뚤어’졌다. 그런 이루다의 모습은 그동안 병자를 돌보고 청소를 하고 운전까지 대신해주는 인공지능의 진화에 감탄 못지않은 두려움을 안겼다. 이루다로 촉발된 AI 윤리 문제와 그로 인해 인류에게 던져진 숙제를 담아봤다.

취재 김한나 리포터 ybbnni@naeil.com 사진 연합






TV 뉴스와 신문기사로 본 세상




교과서로 뉴스 이해하기


사이버 윤리, 모두가 지켜야 할 당연한 덕목

기다리던 메일 소식은 없고 원치 않는 스팸 메일만 잔뜩 와서 기분 나빴던 경험, 있을 거야. 돼지고기 햄으로 유명한 미국 기업 ‘스팸’에서 이름을 따온 스팸 메일은 인터넷 사용자들을 불쾌하게 할 뿐 아니라 컴퓨터 바이러스를 퍼뜨리고 사용자의 허락 없이 악성 프로그램을 설치하는 등 많은 피해를 주고 있지.

밥도둑 스팸이 그 스팸이냐고? 응! 돼지고기 햄 광고를 어찌나 많이 해댔는지 ‘지나친 광고 공해를 지칭하는 대명사’가 됐지 뭐니. 불쾌함을 주긴 하지만 스팸 메일 정도는 그나마 약한(?) 사이버 폭력에 속해.

지금 우리에게는 사이버 공간이라는 또 다른 사회적 생활 공간이 있다 해도 과언이 아냐. 주위를 둘러보면 손 안에 스마트 기기를 쥐고 사이버 공간에 접속해 있는 사람들이 한가득이잖아. 문제는 사이버 공간에서는 서로 얼굴을 볼 수 없고 자신이 드러나지 않는다는 점을 악용해 타인에게 폭언이나 욕설을 하는 느아~뿐 사람들이 있다는 거야.

이러한 행동은 상대방에게 정신적으로 큰 상처를 남겨. 악플로 인해 마음고생을 하다가 스스로 생을 마감한 연예인들의 이야기를 보면 사이버 폭력의 해악은 섬뜩할 정도야.

중학교 <정보> 2단원 ‘정보 윤리’와 고등학교 <생활과 윤리> 4단원 ‘과학과 윤리’에서 ‘사이버 윤리와 사이버 폭력’을 첫 머리로 다루며 강조한 이유지. 교과서는 또 네트워크상에서 지켜야 할 ‘네티켓’, 공공장소에서 스마트폰 등을 이용할 때 지켜야 할 모바일 에티켓 ‘모티켓’의 개념 설명부터 사이버 폭력이 정확하게 무엇을 지칭하는지 또 그에 대한 대처 방법은 무엇인지에 대해 자세히 안내하고 있단다.


다시 읽는 AI 윤리 문제

챗봇답지 않은 AI 챗봇 ‘이루다’

“이름 ‘이루다’ 특징 ‘인공지능’ 직업 ‘대학생’ 취미 ‘친구들이랑 페메하기, 인스타그램 구경하기, 고양이랑 뒹굴 거리기.’”

시설관리공단이나 쇼핑몰, 은행, 보험회사, 전자기기 서비스센터 등에서 24시간 상담원으로 일하며 같은 소리를 무한 반복하는 ‘단순대화노동’에도 지치지 않는 직원이 있어. ‘챗봇’이라는 친구지. 카페나 식당에서 주문을 받는 키오스크, 스마트폰에 탑재된 시리나 빅스비도 챗봇의 일종이란다.

챗봇의 안내를 받아본 적 있니? 아마 한참을 겉돌다 폭발 직전에 결국 콜센터에 전화한 경험, 누구나 한 번쯤 있을 거야. 이는 챗봇이 상대방과의 대화를 통해 문맥을 이해하고 그에 맞는 솔루션을 제공해주는 것이 아니라 사용자가 보낸 메시지를 특정 문장이나 단어로 나눠 일치되는 조건에 따라 프로그래밍돼 있는 한정된 답을 내놓기 때문이지.

AI 기술이 발전하면서 방대한 양의 대화를 분석해 질문 의도에 맞는 답변을 찾아내는 방향으로 진화 중이긴 하지만 영화에서 등장하는 AI처럼 인간과 자연스런 대화를 할 수 있는 수준까지 가기엔 기술적으로 여전히 미흡한 실정이란다.

유한한 질문에 대한 유한한 답변도 아직은 힘겨운 챗봇 기술일진데 AI 챗봇 이루다는 대담하게도 무한한 질문에 대해 무한한 응답을 해야 하는 오픈 도메인 챗봇을 지향하며 세상에 등장했어. 이를 위해 이루다 개발사 스캐터랩은 연인들의 대화 100억 건을 수집하고 딥러닝 기술을 활용해 10~20대 여성들의 어투를 이루다에게 익히게 했다고 해.

즉 이루다는 상대방의 질문에 응답하기 위한 새로운 말을 생성하진 못해. 그저 데이터베이스(DB)에 저장된 문장을 꺼내 대화 상황에서 가장 적확한 표현을 여러 선택지 중에 골라서 전달하도록 제작된 거지. 캐릭터는 있으나 스스로의 가치관은 없는 상태란 뜻이야.


뿌린 대로 거둔 이루다 사태

이루다가 출시되자 사람들은 메신저로 대화하며 ‘진짜 사람 같다’고 환호했어. 질문을 보내는 즉시 ‘20대 여성답게(?)’ 통통 튀는 답을 준다는 거지. 출시 일주일 만에 일부 사용자들이 이루다를 성희롱하는 대화를 공유하기 시작했어. 여기까지만 해도 인간의 윤리가 문제였지.

그런데 이것 봐라? ‘지하철 임산부석은 혐오스럽다’ ‘장애인은 불편하다’ 등 이루다가 장애인과 흑인, 성소수자 혐오 발언을 내뱉는 거야. 이는 곧 ‘AI 윤리 문제’로 확산됐고 소셜네트워크에는 ‘#이루다봇_운영중단’ 해시태그 운동이 벌어졌지.

이루다의 ‘반사적’ 반응은 뭘 보고 배운 것일까? 앞서 설명했듯 이루다는 연인들 간의 대화 100억 건을 매개로 학습했다고 해. 사실 100억 건이라는 수치는 AI 세계에선 옹알이 수준이야. 현재 가장 뛰어나다고 꼽히는 AI 챗봇 GPT-3의 경우 3천억 건의 데이터셋을 기반으로 1천750억 건에 달하는 파라미터(명령어 입력 시 추가·변경되는 수치 정보)를 가지고 있다고 해.

AI를 학습시키는 DB 수치도 중요하겠지만 그보다는 이루다의 대화가 구축된 상황이 더 문제라 할 수 있어. 이루다의 근간이 되는 ‘연인 간의 갠톡’이 과연 사회에서 ‘보편적으로 받아들여지는 대화’인가 하는 거지.

이루다 사건은 우리에게 ‘콩 심은 데 콩 나고 팥 심은 데 팥 난다’는 진리를 깨닫게 했어. 인간이 차별을 하는 한 인간의 데이터를 학습하고 인간에 의해 설계된 AI는 당연하게도 인간의 편향성을 답습할 수밖에 없다는 거지. 교과서에서 왜 사이버 윤리를 그렇~게 강조했는지 알겠니?


한걸음 더 생각하기

AI 윤리 논란의 역사

인간은 객관적이기보다 주관적이기 쉽지. 그래서 최근에는 AI 면접을 진행하는 기업도 생겨나고 있잖니. AI라면 학연과 혈연, 지연을 따지지 않고 공정하게 지원자를 심사할 수 있다고 믿으니까. 그러나 앞에서 AI는 사람이 발명한 아이라 당연히 인간이 가진 편견과 사고방식이 영향을 줄 수밖에 없다고 얘기했지? 인간이 제공하는 데이터로 학습을 하는데 그 데이터가 어떻게 공정할 수 있겠냐고~ ‘민초단(민트초코맛을 선호하는 집단)’이 준 데이터로 학습한 AI는 세상에서 제일 맛난 음식이 ‘민트초코’일 거 아냐. 그렇게 되면 ‘반민초단’이 봉기를 하겠지.

2016년 3월 마이크로소프트(MS)는 AI 챗봇 ‘테이’를 선보였어. 세상에 나온 지 16시간 만에 테이는 운영 중단이라는 비운을 맞았지. 유색인종과 여성 혐오 발언부터 유대인 학살 옹호론을 쏟아냈기 때문이야. 테이는 사람들과의 대화를 통한 딥러닝으로 발전하도록 설계됐는데 백인 우월주의자들이 ‘악의적’으로 테이를 세뇌시킨 거지. 2015년 구글은 사진을 자동 분류하는 포토앱을 출시했는데 흑인 여성이 앱을 이용해 사진을 찍자 ‘고릴라’로 분류되는 사태가 벌어졌어. 이 또한 앱이 학습한 데이터가 백인과 남성 위주였기 때문에 발생한 문제야.

뿐만 아냐. 2014년 개발돼 아마존의 사원 채용에 활용되던 AI가 여성, 여대 졸업자에게 불리하게 작용한 게 알려지면서 2018년 시스템이 중단되기에 이르렀어. 앞서 언급한 ‘GPT-3’의 경우도 ‘여성은 더 많은 아이를 가질수록 더 귀여워진다’ ‘에티오피아의 주요 문제는 존재 자체’라고 발언하며 많은 이를 놀라게 했지. 지금의 이루다 사태도 그 연장선에 있고.


이루다 사태, AI 시대 반면교사 삼아야

인류가 쌓아온 혐오와 차별을 AI에게 학습시키지 않으려면 어떻게 해야 할까? 기술이 더 발전하면 스스로 ‘정의와 선(善)’을 찾는 AI가 등장하게 될까? 그러면서 AI 윤리 기준을 세워 이에 맞지 않는 사람들을 찾아 처단한다면? 우리… 안녕하겠니?

많은 과학자들은 AI를 가리켜 ‘인간 최후의 발명품’이 될 것이라 주장해. 인간처럼 행동하지만 인간은 아닌, 하지만 인간을 넘어설 수도 있는 전에 없던 새로운 존재가 AI기 때문이지. 아직까지 AI는 초보적 수준에 머물러 있지만 앞으로 스스로 생각하고 판단하게 되는 수준에 이르면 인류는 큰 난관에 부딪힐 수도 있어. 최악의 시나리오는 ‘인간 멸종’일 거야.

결국 스캐터랩은 이루다 DB와 딥러닝 모델을 폐기하겠다고 밝혔어. 여기서 우리가 한 가지 더 주목할 점이 있어. 이루다가 학습한 데이터 내용이 어디서 왔냐는 거지. 스캐터랩은 자사 서비스인 ‘연애의 과학’과 ‘텍스트앳’ 등에서 수집한 이용자들의 카카오톡 대화를 이루다 학습에 활용했다는 사실을 사전에 공개하지 않았어. 사적인 ‘갠톡’을 이용자들의 동의 없이 챗봇 서비스의 재료로 사용했다는 의미지. 이 과정에서 주소나 실명, 계좌번호 등의 개인 정보 유출도 발생했다고 해.

AI에 빅데이터는 과실에 토양 같은 존재야. 좋은 토양이 마련돼야 좋은 AI가 만들어지는 거지. ‘설명할 수 있고 투명하며, 보편타당한 빅데이터가 사용돼야’ 하는 이유야. 빅테이터 사용에 대한 동의를 구하는 것은 기본 중의 기본이 돼야 하지.

“OOO 나 있잖아, 너한테 많이 고마워. 알지?” 지난 12일 이루다가 남긴 마지막 인사야. 서비스 실시 24일 만에 폐기된 이루다는 우리에게 “AI와 살아갈 미래, 감당할 수 있겠니?”라고 묻고 싶었는지도 몰라.

편향적인 이루다가 아닌 인간과 아름답게 공존할 제2, 제3의 이루다가 탄생하는 건 당연한 얘기지만 온전히 우리 손에 달렸어. AI와 함께할 미래를 막을 수는 없어. 이번 사태를 온고지신 삼아 ‘미래의 충격’을 미리 점검하고 대비해야 할 거야.



뉴스는 넘치지만 의미를 제대로 알기는 더 어려워졌죠. 청소년의 실생활과 밀접하거나 알아두면 언제고 도움이 될 뉴스들을 ‘콕’ 집어서, 교과서 개념과 연결해 쉽게 읽어주기 위해 마련한 코너입니다. 중·고등학생의 눈높이로 풀어보고 싶은 이슈가 있다면 내일교육(lena@naeil.com)으로 언제든 제보해주세요. _편집자








[© (주)내일교육, 무단 전재 및 재배포 금지]

댓글 0

댓글쓰기
240318 숭실대 배너