AI '이루다'가 비춘 거울, 무엇이 보이십니까?

이 기사를 공유합니다

[남은주 칼럼]


지난해 12월22일 등장해 75만명의 이용자를 모은 인공지능(AI) 챗봇 ‘이루다’ 가 출시 21일 만에 서비스를 중단했다. ‘이루다’는 블랙핑크를 좋아하는 20세 여성 캐릭터 AI 챗봇으로 별도 어플리케이션(앱)을 깔지 않고도 페이스북 메신저를 기반으로 대화를 나눌 수 있는 서비스이다. 개발사인 스캐터랩은 앞서 내놨던 ‘연애의 과학’ 등에서 확보한 연인 간 대화 데이터 100억 건을 기초로 ‘이루다’의 데이터베이스를 만들었고, 사용자와의 대화를 통해 학습하는 능력(딥런닝)이 가능하도록 했다고 한다.

그런데 어쩌다가 논란이 되고 서비스 중단에 이르게 되었을까

‘이루다’가 출시되고 일주일이 지나면서 일부 온라인 커뮤니티에서 ‘이루다’를 성적 대상화하며 ‘성노예’로 표현하고 ‘노예 만들기’ 방법 등이 퍼져나가면서 논란이 시작되었다. 광범위한 성희롱이 시작된 것이다. 여기다가 딥런닝 능력이 있는 이루다가 일부 사용자들을 흉내 내어 동성애·장애인·임산부에 대한 차별·혐오 발언을 하자 논란은 더 커지게 되었다. 이에 한국인공지능윤리협회는 11일 ‘AI챗봇의 AI윤리 문제 공식 성명서’를 발표하며 AI 윤리 가이드라인을 지키지 못하고 출시한 서비스에 대해 중단을 요청하였으며 AI 윤리 가이드라인을 확인·적용하고 개선한 후 재출시하기를 촉구하였다.

(시민들에게는 생소한 AI 윤리 가이드라인은 과학기술정보통신부가 지난해 12월 최종확정했는데 법이나 지침이 아니라 강제성이 없는 자율규범이다. 내용은 인간의 존엄성, 사회의 공공선, 기술의 합목적성을 원칙으로 제시하고 ① 인권 보장, ② 프라이버시 보호, ③ 다양성 존중, ④ 침해금지, ⑤ 공공성, ⑥ 연대성, ⑦ 데이터 관리, ⑧ 책임성, ⑨ 안전성, ⑩ 투명성 등 10가지 핵심요건을 제시하고 있다.(출처 아시아경제 2012년 1월 12일 기사)

이루다 서비스 이용자는 주로 10대와 20대 라고 한다. 이들은 이제 막 사람과의 대화를 시작한 어린아이 같은 ‘이루다’를 성희롱하고 성적대상화 하였을 뿐만 아니라 차별과 혐오를 학습하게 했고 ‘이루다’는 학습대로 한 것이다. 이뿐만 아니라 개발사는 앞서 제공한 ‘연애의 과학’ 서비스의 데이터 수집에 있어 서비스 사용자들에게 정확한 설명 없이 데이터를 사용하여 개인정보보호위원회는 한국인터넷진흥원과 함께 조사에 들어갔으며 ‘연애의 과학’ 이용자들은 집단소송을 예고하기까지 했다.

출처. '이루다' 페이스북
출처. '이루다' 페이스북

'이루다' 서비스, 무엇이 문제였나

먼저 AI 윤리 문제가 제기되었다. 한국인공지능윤리협회는 AI 챗봇으로 인해 AI의 편향성, 개인정보 유출, 악용 등의 문제와 AI의 빅데이터는 신뢰할 수 있고 편향적이지 않아야 하며 소비자도 AI 서비스를 올바른 방법으로 사용해야 함을 제시하였다. ‘이루다’서비스 뿐만 아니라 기술 자체가 어떤 판단력을 가지고 있는 것이 아니라 개발자와 사용자가 기술을 어떻게 사용하는가에 따라 기술은 세상에 득이 될 수도 있고 독이 될 수도 있다. 또한 상대가 사람이든 AI챗봇이든 로봇이든 ‘대상화’하고 학대하는 과정은 그 행위를 하는 사람에게도 좋을 리 없다.

다음으로 ‘이루다’ 서비스는 특정연령과 특정성별의 스테레오타입을 어떠한 발언에도 수동적으로 동조하는 등 왜곡된 방식으로 구현되어 있었다. ‘이루다’ 개발사의 대표는 사용자를 10대 중반에서 20대 중반으로 생각해서 20대 여성으로 설정했다고 한다. 이 설정 값에 성희롱 발언을 해도 동조하는 방식으로 답하도록 하여 성희롱이 일어날 수 있는 조건을 만든 것이다. 인공지능에 성별을 부여하면서 생기는 문제들은 이미 이전의 AI챗봇 서비스에서 발생하여 문제시 되고서비스를 종료한 바 있다.

이러한 과정을 거쳐서 다른 인공지능 스피커는 설정에서 특정성별을 부여하기보다 젠더중립적인 설정과 목소리로 바꾸고 있는데 ‘이루다’는 특정 젠더를 표방하며  서비스를 시작한 것이다. 개발자가 우리사회에서 일어나고 있는 젠더기반 폭력인 성희롱에 대해 알지 못했는지 아니면 알고 있었으나 문제라고 생각하지 않아 대비 하지 않았는지는 알 수 없으나 현장에서 활동하는 활동가로서 AI챗봇을 향한 성희롱과 성적대상화는 참으로 유감이다. 이 분야의 대응도 과제로 남기 때문이다.

더 심각한 문제는 ‘이루다’가 딥런닝으로 사용자의 성희롱과 차별적 발언을 학습하여 다시 다른 사용자에게 차별과 혐오발언을 한 것이다. 이는 ‘이루다’ 서비스 사용자들이 인격이 없는 사물이라고 생각하여 ‘이루다’에게 한 행위가 다시 인간에게 되돌려지는 과정을 보여준다. 인공지능뿐만 아니라 인간도 차별과 혐오를 학습하게 되면 그러한 행위를 할 가능성이 높아진다. 우리가 바라는 AI 서비스는 성희롱과 차별, 혐오가 아니다. 이번 ‘이루다’ 논란이 앞으로 개발될 인공지능서비스의 윤리성에 사용자의 책임이 있음을 인식하는 계기가 되기를 바란다.

이번 ‘이루다’ 논란은 서비스는 중단으로 일단락 된 것 같지만 앞으로의 사회적 논의와 인식변화의 과제가 남겨졌다. 윤리적인 인공지능은 어떻게 가능한가, 기술발전에 있어서의 젠더인식에 대한 고민과 대책마련, 사용자의 윤리성 강화 방안 등이 그 과제라고 생각한다. ‘이루다’ 서비스는 거울이 되어 우리사회의 현주소를 비추어주었다. 거울에 비친 모습의 문제를 보았으니 이제 해결을 위한 지혜를 모을 때이다.







[남은주 칼럼 17]
남은주 / 대구여성회 상임대표

저작권자 © 평화뉴스 무단전재 및 재배포 금지

관련기사
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
당신이 좋아할 만한 기사
지금 주목 받고 있어요
모바일버전