플레이어로 건너뛰기본문으로 건너뛰기
생성형 인공지능, AI 시대.

흔히들 '데이터가 편향되면 결과도 편향된다'고 말합니다.

하지만 그게 전부가 아닙니다.

우리가 AI를 어떻게 생각하고, 어떤 질문을 던지느냐가 AI의 편향성을 더 부추긴다는 분석이 나왔습니다.

고한석 기자가 보도합니다.

[기자]

영화 [아이언맨].

주인공 토니 스타크는 AI 비서 '자비스'와 끊임없이 의견을 주고받고, 때로는 충돌하며 결정을 내립니다.

그런데, 영화 주인공과 달리 특정 결과만을 바라고 묻는다면 오히려 AI는 질문자의 한쪽으로 치우친 인식을 강화하는 도구가 됩니다.

전문가들은 AI의 오류가 단순히 학습 데이터 문제가 아니라, 인간과의 상호작용 과정에서 발생할 수 있다고 말합니다.

사용자의 질문 내용과 방식이 AI의 행동을 결정짓는 핵심 변수라는 겁니다.

대표적인 것이 "왜 우리 제품이 최고지?"

라고 묻는 식의 '유도 질문 편향'입니다.

이런 질문에 답할 때 AI는 제품의 단점을 가리고 강점만을 나열하게 되는 겁니다.

[김덕진 / IT커뮤니케이션연구소 소장 : 정확한 답변과 좋아할 만한 답변이 있을 때 일반적으로 그걸 피드백하는 사람들이 자기가 좋아하는 것들에 더 '좋아요'를 많이 누른단 말이죠. 그렇기 때문에 AI도 사람의 편향성을 똑같이 담게 되는 현상입니다.]

AI의 결과물을 받아든 뒤에도 또 다른 함정이 기다리고 있습니다.

자신이 공들여 만든 결과물을 과도하게 신뢰하는 이른바 '소유 효과'가 발생해, 더 나은 대안을 거부할 수 있습니다.

인지적 편향은 뇌가 정보를 단순화하려는 본능적인 과정입니다.

전문가들은 이 편향에 지나치게 빠지지 않으려면 AI의 답을 그대로 받아들이기보다, 의도적으로 질문을 뒤집어보라고 조언합니다.

내 논리의 허점을 찾아 달라거나, 반대 입장에서 비판하라는 질문을 더 하는 것만으로도 AI가 놓친 사각지대를 점검할 수 있습니다.

[전창배 / 인공지능 윤리협회 이사장 : AI는 아직 불완전한 기술이기 때문에 이러한 AI의 잘못된 조언과 정보를 그대로 수용하게 되면 굉장히 위험할 수 있다는 걸 알아야 됩니다.]

결국, AI를 더 책임감 있고 효과적으로 만드는 마지막 열쇠는 인간의 비판적 사고입니다.

YTN 고한석입니다.




YTN 고한석 (hsgo@ytn.co.kr)

※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr

▶ 기사 원문 : https://www.ytn.co.kr/_ln/0105_202602220601449379
▶ 제보 안내 : http://goo.gl/gEvsAL, 모바일앱, social@ytn.co.kr, #2424

▣ YTN 데일리모션 채널 구독 : http://goo.gl/oXJWJs

[ 한국 뉴스 채널 와이티엔 / Korea News Channel YTN ]

카테고리

🗞
뉴스
트랜스크립트
00:00생성형 인공지능 AI 시대, 흔히들 데이터가 편향되면 결과도 편향된다고 말합니다.
00:06하지만 그게 전부가 아닌데요.
00:08우리가 AI를 어떻게 생각하고 어떤 질문을 던지느냐가 AI의 편향성을 더 부추긴다는 분석이 나왔습니다.
00:16고한석 기자가 보도합니다.
00:20영화 아이언맨, 주인공 토니 스타크는 AI 비서 자비스와 끊임없이 의견을 주고받고 때로는 충돌하며 결정을 내립니다.
00:30그런데 영화 주인공과 달리 특정 결과만을 바라고 묻는다면
00:35오히려 AI는 질문자의 한쪽으로 치우친 인식을 강화하는 도구가 됩니다.
00:40전문가들은 AI의 오류가 단순히 학습 데이터 문제가 아니라
00:46인간과의 상호작용 과정에서 발생할 수 있다고 말합니다.
00:50사용자의 질문 방식과 내용이 AI의 행동을 결정하는 핵심 변수라는 겁니다.
00:57대표적인 것이 왜 우리 제품이 최고지라고 묻는 식의 유도 질문 편향입니다.
01:03이런 질문에 답할 때 AI는 제품의 단점을 가리고 강점만을 나열하게 됩니다.
01:08정확한 답변과 사람이 좋아할 만한 답변이 있을 때
01:13일반적으로 그걸 피드백하는 사람들이 자기가 좋아하는 것들에 더 조화를 많이 누른단 말이죠.
01:19그렇기 때문에 AI도 사람의 편향성을 똑같이 담게 되는 현상입니다.
01:24AI의 결과물을 받아든 뒤에도 또 다른 함정이 기다리고 있습니다.
01:28자신이 공들여 만든 결과물을 과도하게 신뢰하는 이른바 소유효과가 발생해
01:34더 나은 대안을 거부할 수 있습니다.
01:36인지적 편향은 뇌가 정보를 단순화하려는 본능적인 과정입니다.
01:42전문가들은 이 편향에 지나치게 빠지지 않으려면
01:45AI의 답을 그대로 받아들이기보다 의도적으로 질문을 뒤집어보라고 조언합니다.
01:52내 논리의 허점을 찾아달라거나 반대 입장에서 비판하라는 질문을 더하는 것만으로도
01:57AI가 놓친 사각지대를 점검할 수 있습니다.
02:09결국 AI를 더 책임감 있고 효과적으로 만드는 마지막 열쇠는
02:14인간의 비판적인 사고입니다.
02:16YTN 고한석입니다.
댓글

추천