
급속도로 발전한 인공지능(AI)이 전쟁에 본격 활용되며 전쟁 기술의 새 장을 열고 있다. 특히 국지전에서 표적 식별, 사살 명단 작성, 신원 파악에 AI가 사용되면서 전투 효율성을 높였다는 평가를 받는다. 그러나 AI에 의존한 표적 선정은 민간인 희생과 윤리적 논란을 키우며 국제사회의 우려를 낳고 있다.
27일 뉴욕타임스에 따르면 이스라엘 국방군(IDF)은 가자지구 하마스와의 전쟁에서 AI 기반 시스템을 전례 없이 도입했다.
2023년 10월 7일 하마스의 이스라엘 남부 공격으로 1200명이 사망하고 251명이 인질로 잡히며 전쟁이 발발한 이후, IDF는 AI를 본격 활용했다.
이 AI 기술은 이스라엘 군사정보국(Unit 8200)의 혁신 허브 ‘더 스튜디오’에서 현역 병사와 메타, 구글, 마이크로소프트 예비역들이 협력해 개발됐다. 활용 사례를 보면 2023년 10월 31일 하마스 중앙 자발리아 대대 사령관 이브라힘 비아리를 추적하기 위해 AI 오디오 도구가 통화 위치를 분석, 공습을 유도했다. 이 공습은 비아리와 125명 이상의 민간인을 사망케 했다. 가자지구 검문소의 AI 안면 인식 시스템은 팔레스타인인을 감시했으나, 가려진 얼굴을 식별하지 못해 부당 체포를 초래했다. 아랍어 방언으로 훈련된 챗봇은 여론 분석에 활용됐지만, 속어 ‘바티흐’(수박)를 폭탄으로 오인하는 등 오류를 일으키기도 했다.
AI 전쟁은 이스라엘에 국한되지 않는다. 미국은 2017~2018년 ‘프로젝트 메이븐’을 통해 이라크와 시리아에서 드론 영상을 분석, 테러리스트 표적을 식별했다. 구글 직원 반발로 중단됐지만, 오바마 행정부 시절 드론 전쟁에서는 미 국가안보국(NSA)의 ‘스카이넷(SKYNET)’ 프로그램이 메타데이터(휴대전화 위치, 통화 패턴)를 기반으로 표적을 선정했다. 인터셉트는 스카이넷이 파키스탄에서 55백만 명의 메타데이터를 분석, 알자지라 기자를 테러리스트로 오인했다고 보도했다.
이는 IDF 라벤더의 ‘남성=무장세력’ 기준과 유사하며, 민간인 피해를 키웠다는 국제사회의 비난을 받고 있다. 뉴욕타임스는 이 방식이 ‘군사 연령 남성’을 전투원으로 간주, 최대 800명 이상의 민간인을 사망케 했다고 보도했다.
우크라이나 전쟁에서도 AI가 전장을 재편했다. 우크라이나는 AI 드론 ‘사케르’를 사용해 러시아 탱크를 정밀 타격, 하루 수백 개 표적을 처리했다. 러시아는 ‘란셋’ 드론에 AI를 통합, 자동 추적·공격을 수행했다. 포브스는 2023년 러시아 AI 드론의 명중률이 인간 조종 드론보다 3배 높았다고 보도했다. 그러나 글로벌 인권침해 NGO(비영리법인) 휴먼라이츠워치는 2023년 도네츠크 공습에서 AI가 민간 차량을 탱크로 오인, 12명이 사망했다며 AI 전쟁기술에 대해 비판했다.
2020년 리비아 내전에서는 터키제 ‘카르구-2’ 드론이 인간 개입 없이 표적을 공격한 최초의 사례로 기록됐다. 유엔 보고서는 이 드론이 AI로 무장세력을 식별, 폭발물을 투하했다고 밝혔다. 뉴사이언티스트는 저해상도 카메라로 민간인을 오인했을 가능성을 제기하며 '자율 살상 무기'의 위험성을 경고한 바 있다.
국제사회는 AI 전쟁 규제를 논의 중이다. 2023년 유엔 총회는 “알고리즘이 살해 결정을 완전히 통제해서는 안 된다”는 결의안을 채택했다. 2024년 ‘자율 살상 무기 금지 캠페인’은 100개국 지지를 받았으나, 미국, 러시아, 이스라엘은 반대했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지