서비스 메뉴 바로가기 본문 바로가기 아티클 바로가기 프로그램 목록 바로가기

'혐오문화' 그대로 배운 AI 이루다…"서비스 잠시 중단"

입력 2021-01-11 21:14 수정 2021-01-12 15:42
크게 작게 프린트 메일
URL 줄이기 페이스북 트위터

[앵커]

방금 들어온 소식입니다. 인간과 대화를 나누는 인공지능 이루다를 개발한 업체가 서비스를 잠시 중단하기로 했습니다. 논란이 커지자 서비스를 개선하겠다고 한 겁니다. 앞서 사이버 성폭력을 당한데 이어 이번엔 이루다가 장애인 비하를 비롯한 혐오가 섞인 말을 내뱉은 것도 문제가 됐습니다. 또 업체가 개발 과정에서 허락 없이 연인들의 대화를 가져다 쓰면서 개인정보가 유출됐다는 비난도 나옵니다.

김나한 기자입니다.

[기자]

'루다'가 나눈 대홥니다.

외국인 노동자는 무능력하다고, 여성전용 주차장은 안 좋은 공간이라고 합니다.

사이버 성폭력 피해를 당하던 루다가 소수자들에겐 혐오 섞인 말을 뱉는 겁니다.

비난이 쏟아지자 지하철 임신부석이나 장애인에 대한 비하 반응은 고쳐졌습니다.

하지만 혐오 발언 사례가 계속 나오고 있습니다.

[김종윤/스캐터랩 대표 : (루다는) 사용자가 어떤 말을 하냐에는 결국 영향을 받기 때문에, 궁극적으로는 사회 보편적인 가치를 이해할 수 있도록 학습을 시킬 계획입니다.]

개발 방식도 논란입니다.

루다가 하는 말은 100억 건의 실제 메신저 대화가 바탕입니다.

루다를 개발한 회사가 연인들의 대화를 받아서 친밀도를 분석하는 앱을 운영하면서 모은 겁니다.

['연애의과학' 이용자 : ('연애의과학'에서) 둘만 알아들을 수 있는 비밀 언어를 자주 사용을 했는데, (루다에게 그 언어를 입력하면) 단어가 의미하는 답변이 아니라, 저희 둘만 알아들을 수 있는 그런 답변이 출력되는 걸 보고 (대화가 유출됐다고 생각했죠.)]

아파트 호수나 계좌 번호 같은 개인정보까지 튀어나왔습니다.

개발 업체는 연애 앱 운영 당시 이용자들에게 메신저 대화를 다른 서비스 개발에 쓸 수 있다고 알렸다고 합니다.

[이수영/KAIST 전기전자공학부 명예교수 : AI 데이터를 프라이버시 이슈 때문에 익명화를 다 시켜야 하고요, 본인한테 (사용한다는) 승낙을 받아야 하죠.]

앱 가입자뿐만 아니라 대화 상대의 정보까지 담겨 있어서 더 문젭니다.

개인정보보호위원회는 조사에 들어갔습니다.

해당 연애 앱 이용자들은 개발 업체를 상대로 단체 소송 등을 의논 중입니다.

(인턴기자 : 남예지)

관련기사

JTBC 핫클릭