최근 AI(인공지능) 윤리 논란에 휩싸인 챗봇 '이루다' 서비스가 12일부터 잠정 중단된다. 중단 이유는 서비스 개선이다.

이루다는 스캐터랩 핑퐁팀이 개발한 고지능 열린 주제 대화형 인공지능(Open-domain Conversational AI) 챗봇으로 최근 페이스북 메신저 채팅을 통해 지난해 12월 23일부터 서비스 됐다.

이루다는 페이스북 메신저를 기반으로 친구와 대화를 나누는 것처럼 의사소통할 수 있어 큰 관심과 인기를 끌었다. 이달 초 기준 이용자는 32만명을 돌파했으며 일일 이용자 수(DAU)도 21만명에 달했다.

하지만 예상치 못했던 문제들이 발생하면서 논란의 중심이 됐다. 일부 이용자들은 20살 여성으로 설정된 이루다를 대상으로 ‘노예’ ‘걸레’ 등 성적 단어 등을 이용해 대화를 시도했다. 특히 일부 커뮤니티에서는 성적 단어들을 학습시키려는 시도까지 해 사회적으로 논란을 일으켰다.

이에 개발사인 스캐터랩은 성적 단어를 금지어로 설정했지만 이를 우회하는 방법이 또다시 공유되며 파장은 계속됐다.

또 개인정보 유출 관련 문제가 제기됐다. 이루다에게 주소나 계좌번호 등을 물어보면 실제 데이터 같은 정보를 대답했기 때문이다.

이는 이루다가 스캐터랩의 다른 서비스인 ‘연애의 과학’에 제공된 카카오톡 대화 내용을 바탕으로 개발됐기 때문으로 추정된다. 이루다는 주소 등의 질문을 하면 연애의 과학 이용자가 과거 입력했던 특정 주소를 그대로 불러줬다. 이루다가 보유하고 있는 수많은 데이터 중 질문에 가까운 데이터를 그대로 출력한 것이다. 특정인 성명과 계좌 관련 정보까지 답변하는 사례도 발견됐다.

이에 개인정보보호위원회는 개발사인 스캐터랩이 개인정보보호법 등 관련 법을 어겼는지 확인하는 작업에 들어갔다. 개인정보위는 사실 관계를 확인한 뒤 위법사항이 발견되면 법령에 따라 조처하겠다는 방침이다.

그리고 이루다는 학습 데이터를 통해 장애인과 임산부, 성적 소수자들에 대해 차별, 혐오성 발언을 하게 되는 것도 논란이 됐다. 이루다가 성적 소수자나 임산부에 대해 “진짜 싫다, 혐오스럽다”고 하거나 흑인에 대해 “징그럽게 생겼다” 등의 대답을 한 대화가 캡처돼 온라인에 퍼진 것이다.

최근 AI(인공지능) 윤리 논란에 휩싸인 챗봇 '이루다' 서비스가 12일부터 잠정 중단된다.
최근 AI(인공지능) 윤리 논란에 휩싸인 챗봇 '이루다' 서비스가 12일부터 잠정 중단된다.

이렇게 논란이 커지자 11일 스캐터랩은 이루다 서비스를 잠정 중단한다고 밝혔다. 스캐터랩은 “특정 소수집단에 차별적 발언 사례가 생긴 것을 사과한다”고 밝히고 개인정보 활용에 대해서는 “이용자와 충분히 소통하지 못했다. 개인을 특정할 수 있는 정보는 유출되지 않았다”며 해명했다.

그저 사람과 즐겁게 대화만 했으면 됐을 AI 챗봇인데 왜 이런 논란이 일어난 것일까?

먼저 이용자들의 오용 및 악용때문이다. AI는 학습을 통해 성장한다. 개발사는 성적인 문제가 발생할 것을 염두하면서 개발을 했겠지만 허점이 존재했고 이를 악용한 이용자들에 의해 논란이 일어난 것이다.

둘째로는 개발사의 AI 윤리에 대한 희박한 인식때문입니다. 이루다는 대화를 하는데 있어 윤리적인 부분은 고려되지 않은 것처럼 보인다. 이는 AI 챗봇이 사용하는 데이터에 대한 정제 또는 선별 능력이 부족하기 때문인데, 개발사는 AI 챗봇을 정상적으로 이용하는 사람은 물론 그렇지 않은 이용자가 있을 수 있다는 다양한 상황을 가정해 문제가 발생할 것을 예견해야 했다. 먼저 미국에 출시된 AI 챗봇 역시 인종차별 등을 하는 등 비슷한 사례가 있었기에 충분히 조치가 취해진 후에 출시를 했어야 했다.

이번 이루다 사례는 AI에 대한 학습이 비정상적으로 이뤄졌을 때 얼마나 윤리적으로 또 사회적으로 큰 문제가 될 수 있는지에 대한 초기적 사례가 될 것이다. 이후 더욱 고차원적이고 중요한 업무를 담당하는 AI가 등장했을 때 인간이 통제할 수 있는 제대로 된 학습이 이뤄지지 않는다면, 영화 터미네이터의 ‘스카이넷’ 같은 AI가 나오지 말라는 법은 없을 것이다.

이호 기자 dlghcap@nextdaily.co.kr

저작권자 © 넥스트데일리 무단전재 및 재배포 금지