[출근길 인터뷰] 인공지능 챗봇 '이루다' 서비스 중단…AI 윤리 논란

  • 3년 전
[출근길 인터뷰] 인공지능 챗봇 '이루다' 서비스 중단…AI 윤리 논란

[앵커]

혐오 발언과 개인정보 유출 등의 논란에 휩싸인 인공지능 챗봇 '이루다'가 결국 서비스를 잠정 중단했죠.

'이루다' 논란을 계기로 인공지능 개발 윤리에 대한 논의가 필요하단 목소리도 힘을 얻고 있습니다.

오늘은 김승주 고려대 정보보호대학원 교수를 만나 관련 이야기 나눠본다고 합니다.

현장에 나가 있는 박진형 기자 나와주시죠.

[기자]

인공지능 챗봇 '이루다'가 출시 2주 만에 약 75만 명에 달하는 이용자를 모으며 인기를 끌었는데, 먼저 인기의 배경은 어디에 있다고 볼 수 있을까요?

[김승주 / 고려대 정보보호대학원 교수]

세 가지 정도를 꼽을 수 있겠는데요. 일단은 잘 만든 겁니다. 그래서 인공지능이지만 사람과 대화하는 것처럼 잘 만든 거고요. 두 번째는 우리가 코로나19로 인해서 사람들을 못 만나지 않습니까? 그런 상황에서 누군가 대화하고 싶은 그런 감성을 자극한 게 두 번째고요. 마지막으로 세 번째는 우리가 페이스북 같은 어떤 SNS, 유명 SNS와 연동시킴으로써 사용자들이 접근하게 편리하게 만들었다는 그런 세 가지 장점을 꼽을 수 있겠습니다.

[기자]

높은 인기만큼 많은 논란도 남기며 이루다의 서비스가 종료되었는데, '이루다'가 남긴 것이 있다면 뭐가 있을까요?

[김승주 / 고려대 정보보호대학원 교수]

일단 이번 문제로 우리가 꼽을 수 있는 건 두 가지가 있습니다.

첫 번째는 편향성 문제입니다. 인공지능 챗봇이라고 하는 것은 사람들과 인공지능이 나눈 대화를 계속 수집해서 그것을 또 학습의 재료로 삼습니다. 그런데 이 과정에서 인공지능 챗봇을 이용하는 사람들이 어떤 비속어를 계속 입력한다든가 아니면 좀 성적 차별성을 불러일으키는 단어를 계속 입력한다라면 인공지능은 또 그렇게 학습을 하는 겁니다. 그러다 보니까 인종차별적인 발언을 한다든가 아니면 성적 소수자를 업신 여기는 그런 걸 한다든가 이런 인공지능의 편향된 학습 논란이 하나 있을 수 있겠고요.

두 번째는 인공지능 챗봇을 만들면서 사용하는 데이터에 개인정보가 포함돼 있다라는 그 두 가지 논란을 꼽을 수 있겠습니다.

[기자]

스스로 학습하는 인공지능의 특성상 단순한 금기어 숫자 늘리기만으로는 근본 처방이 될 수 없을 것 같은데 앞으로 어떤 대책이 필요하다고 보십니까?

[김승주 / 고려대 정보보호대학원 교수]

우리가 보통 필터링이라고 하는 거죠. 사용자가 입력했을 때 이상한 단어가 나오면 모두 다 걸러버리는 겁니다. 그런데 이런 것 가지고는 사실은 이런 문제를 막을 수가 없고요. 왜냐하면 사용자들이 이런 걸 연구해서 이 필터링 규칙을 또 피해 가는 기법들을 연구를 하거든요. 그래서 외국에서는 인공지능이 이런 어떤 편향된 학습에서 견딜 수 있도록 하는 보완장치에 대한 연구를 굉장히 활발하게 진행하고 있습니다.

[기자]

또 다른 부분은 개인정보 유출 부분입니다. 개인정보를 통해서 딥러닝을 할 수밖에 없을 수도 있는데 이 부분 어떻게 해결해야 합니까?

[김승주 / 고려대 정보보호대학원 교수]

지금 이루다 같은 경우에는 카카오톡의 대화 내용을 학습데이터로 썼다. 그런데 그 데이터에 개인정보가 포함돼 있고 그리고 사용자들한테 충분한 고지를 하지 않았다, 이 두 가지고 핵심사항입니다. 물론 회사 측에서는 그걸 부인하고 있고요. 아마 앞으로 관계부처의 어떤 조사가 진행될 것 같은데요.

이번 기회에 인공지능이 학습이 되게 중요하지만 이 학습 데이터에 있어서 개인정보를 지키기 위한 구체적인 가이드라인이 정부로부터 제시돼야 될 것으로 보여집니다.

[기자]

지금까지 박진형의 출근길 인터뷰였습니다.

연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23

(끝)

추천