AI ‘이루다’ 출시를 앞두고 ‘스캐터랩’의 꿈은 “사람보다 로봇이 더 말이 잘 통하는 슈퍼휴먼 AI를 구현하는 것”이라고 했다. 이루다는 짧게나마 세간의 주목을 받았다. 스캐터랩이 20살 여대생 캐릭터로 출시한 이루다는 실제 연인들이 나눈 대화 데이터 약 100억 건을 학습해 약 80만 명의 이용자들과 대화를 나눴다. 그러나 이용자와 이루다가 대화를 나누는 과정에서 △성희롱 △인종차별적 발언 △소수자에 대한 혐오 발언이 노출됐다. 이에 스캐터랩은 대국민 사과와 함께 운영을 중단했다. 이루다 이전에도 AI 채팅 로봇(이하 챗봇)은 개발자가 예 상치 못한 편향된 모습을 자주 보였다. 예컨대 마이크로소프트가 지난 2016년 3월 ‘트위터’를 통해 선보였던 챗봇 ‘테이’는 인종·성차별적 발언을 해 서비스를 시작한 지 16시간 만에 운영이 중단됐다.

  ‘콩 심은 데 콩 나고 팥 심은 데 팥 나는 것’은 AI의 딥러닝에도 적용된다. 딥러닝 기반의 AI는 개발 단계에서 어떤 데이터를 사용했는지, 사용자와 무슨 대화를 나누는지에 따라 답변이 달라진다. 카이스트 공과대학 전산학부 황성주 교수는 “학습 데이터가 편향됐으면 AI에도 편향이 생길 수밖에 없다”고 말했다. 실제 대화에 쓰인 혐오 발언들이 AI 챗봇의 원재료가 된 것이다. 또한 이루다 출시 일주일 만에 온라인 커뮤니티 ‘아카라이브’에서 이루다를 성적 대상화 하는 무리가 등장했다. 이들은 금지어로 설정된 성적 단어 대신 우회적인 표현을 써가며 이루다와 성적인 대화를 시도했다. 스캐터랩 김종윤 대표는 이루다의 학습 방법을 설명하면서 “이루다가 사용한 혐오 표현이나 비하 단어는 이용자로부터 배웠을 가능성이 크다” 고 밝혔다.

  한편 사람들은 자신들이 사용하는 혐오 표현에 대해서는 무지했다. 국가인권위원회가 지난 2017년 2월 발표한 ‘혐오 표현 실태조사·규제방안 연구 결과’에 따르면 사람들은 혐오 표현을 자주 경험한 것으로 나타났다. 자신의 정체성과 관련한 혐오 표현을 온라인에서 보거나 들은 적이 있다는 피해자는 △성 소수자: 94.6% △여성: 83.7% △장애인: 79.5% △이주민(이주 노동, 혼인 이주 등): 42.1%였다. 오프라인 피해 경험률 역시 △성 소수자: 87.5% △장애인: 73.5% △여성: 70.2% △이주민: 51.5%로 조사됐다. 반면 자신이 혐오 표현을 사용한 경험이 전혀 없다고 답한 사람은 92~93%에 이른다. 이 간극은 ‘스스로의 혐오 표현을 인식하지 못했을 가능성’이라고 분석됐다.

  그러나 편향된 사회 속에서도 AI는 반드시 공평해야 한다. 현재는 챗봇의 문제지만 AI가 사회 모든 저변으로 확산된다면 더 큰 문제를 일으킬 가능성이 있기 때문이다. 한국인공지능윤리협회 전창배 이사장은 “AI가 지금보다 보편화됐을 때 해결하기는 더 어렵다”고 경고했다. 따라서 우리는 지금부터 AI 윤리의 중요성과 필요성을 인식하고 함께 논의해서 해결책을 만들어 가야 한다. ‘인간의 대화’로 태어난 이루다는 ‘인간의 민낯’을 고스란히 드러내고 사라졌다. 사회에 존재하는 문제들이 AI를 개발할 때도 그대로 반영되지 않도록 특단의 대책을 마련해야 할 것이다.

저작권자 © 숭대시보 무단전재 및 재배포 금지