00:00AI는 전쟁의 정밀도를 높여 민간인 피해를 최소화한다고 여겨지지만 실상은 그렇지 않습니다.
00:06인간이 AI의 오류를 의도적으로 무시한 채 버튼만 누르면 기계로 전락하면 이른바 알고리즘에 의한 학살은 피하기 어렵게 됩니다.
00:15고한석 기자입니다.
00:192023년 10월의 개전에 2년 동안 이어진 이스라엘 하마스 전쟁.
00:24이때 이스라엘이 사용한 AI는 라벤더였습니다.
00:28이스라엘 독립언론과 영국 가디언이 정보장교 6명의 증언, 비공개 자료 등을 분석한 결과입니다.
00:36라벤더는 하마스 대원을 찾겠다며 가자지구 주민 230만 명의 데이터를 분석해 남성 3만 7천 명을 잠재적 암살 대상으로 분류했습니다.
00:48암살 성공률을 높이기 위해 가족과 함께 있는 자택에서 공격하는 전략을 썼고 고위 지휘관 1명을 잡기 위해 민간인 100명의 희생을 허용했습니다.
00:58이스라엘군 정보요원들이 라벤더의 판단에 따라 공격 버튼을 누르는데 걸린 시간은 고작 20초.
01:06라벤더의 오류 가능성을 알고 있었지만 무시했습니다.
01:10이 같은 자동화된 대량 학살의 결과로 가자지구에서만 3만 명 넘게 죽었고,
01:15이 가운데 어린이와 여성이 70%에 이르렀습니다.
01:27이 위험한 살상 알고리즘은 이번 이란 전쟁으로 이어지며 규모를 더 키우고 있습니다.
01:35미군은 프로젝트 웨이븐 등 다양한 AI 시스템을 사용해 이란 전역에 폭탄을 뿌리고 있습니다.
01:52기술이 아무리 진보해도 전쟁의 참상은 사라지지 않습니다.
01:57판단을 기계에 맡기는 인간의 무책임까지 겹쳐지면 비극은 더 커질 수밖에 없습니다.
02:03YTN 부한석입니다.
댓글