00:00유명 배우와 SNS로 얘기했다며 블로그에 올라온 글입니다.
00:04이 내용은 얼마 안가 삭제됐지만 캡처 화면이 순식간에 퍼졌습니다.
00:09작성자는 장난으로 대화를 꾸며낸 거라고 해명했지만 해당 배우가 입은 이미지 타격은 돌이킬 수 없었습니다.
00:17온라인 연애 사기 일당이 유명 배우의 가짜 신분증을 만들어 50대 여성을 속이고 5억 원을 빼낸 사례도 있었습니다.
00:24이처럼 인지도가 높은 연예인들이 주로 AI 범죄 수단으로 악용되고 있지만 그 대상은 누구나 될 수 있습니다.
00:45뭐가 진짜고 가짜인지 모를 정도로 AI 이미지의 정교함은 나날이 높아지고 있습니다.
00:52영상 속에서 AI를 이용한 합성 기술을 경고하는 영국 경찰.
00:58이 남자는 이른바 딥페이크 위험성을 경고하면서 마지막에 이렇게 말합니다.
01:13구글 같은 주요 기업들은 AI로 만든 영상에 워터마크를 넣는 제도를 도입했지만 아직 충분치 않습니다.
01:22국내에서도 내년 1월 시행되는 AI 기본법에 AI 생성물 표시 의무가 포함돼 있지만 악용을 막기엔 여전히 걸음마 단계입니다.
01:32AI 기술 혁신의 속도가 빠를수록 제도적 안전장치가 뒷받침돼야 하는 것은 물론 이용자 인식 개선도 함께 이뤄져야 한다는 지적입니다.
01:41YT의 김승환입니다.
댓글