인공지능(AI) 기술을 활용한 자율살상 무기 통제를 위한 글로벌 합의가 난관에 부딪쳤다.

치명적인 자율 무기 시스템(lethal autonomous weapons systems, LAWS)을 금지하는 다국적 노력이 지난달 제네바에서 열린 UN 고위급 회담에서 무산됐다.

안토니오 구테레스 유엔 사무총장은 지난 3월 제네바에서 인공 지능 전문가 회의에 치명적인 자율 무기 시스템(LAWS)의 개발을 제한하기위한 연구를 추진할 것을 촉구했다.

군사 및 외교 지도자들은 AI 전투 응용 프로그램이 초기 단계에 있기 때문에 선제적으로 금지하는 것은 어리석은 일이라고 말한다. 그들은 국가 안보 목적의 AI 기술이 궁극적으로 인간을 대체하고 터미네이터와 같은 종말의 전장을 가져올 것이라는 개념을 거부한다.

미국 육군 AI 태스크포스(Army AI Task Force) 본부는 카네기멜론대(Carnegie Mellon University) 연구원과 협력해 다양한 첨단 프로젝트를 수행중이다. 미국 국방부(DoD)는 AI 무기 개발을 위한 윤리 가이드를 마련 중이다. JAIC 잭 샤나한(Jack Shanahan) 중장이 이끄는 연합 인공지능 센터(JAIC)는 군사 분야 AI 이니셔티브를 포함하는 펜타곤 차원 프로젝트로 최근 첫 AI 윤리학자를 고용 할 것이라고 발표했다.

윤리학자는 인명살상 등 군사 작전에 최소한의 인간 개입이 필요한 무기와 차량 사용의 적법성, 도덕성 및 실용성에 관한 여러 가지 주요 문제를 다루는 포괄적 윤리 정책을 개발하게 된다.

피츠버그에 있는 육군 AI 센터(Army’s AI center) 최첨단 프로젝트의 핵심은 국가 안보를 목적으로 전장에서 병사들을 도울 수 있는 방법에 중점을 두고 있다.

해군도 자율무기 연구에 대한 불안을 부정하지 않는다. 해군 기뢰국(mine warfare office) 부국장 스티브 올슨(Steve Olson)은 “신뢰는 컴퓨터로 제공하기 어려운 문제이며, 특히 테스트 및 평가 커뮤니티와 협력하기 시작할 때 어려운 일“이라고 미국 국방매체 디펜스뉴스에 말한다.

그는 “자율성은 많은 사람들을 긴장하게 하기 때문에 마음에 들지 않는다”며 “우리가 매우 조심해야 할 것이 있다…가장 우려되는 것은 ‘터미네이터가 미쳐가는 것’시나리오”라고 말했다.

비평가들은 미국이 주도하고 세계 각국이 참여한 AI 로봇의 전투 사용을 통제하기 위해 광범위한 조약을 채택해야한다고 주장했다. 지난달 제네바에서 모인 주요 강대국들은 이와 관련한 주요 주제를 논의했다. 점점 더 많은 국가들이 치명적인 자율 무기 시스템에 대한 글로벌 금지 조치를 재촉했다.

최근 요르단 까지 29개국이 동참했지만 미국, 러시아 및 영국을 포함한 세계 군사 강국은 그러한 움직임에 저항했다. 비평가들은 ” 궁극적으로 여론은 AI 로봇의 전쟁 활용에 반대할 것”이라며 이들 나라가 미래를 위한 어둠의 길을 닦고 있다고 주장한다.

휴먼 라이츠워치(Human Rights Watch) 무기부문 대변인이자 킬러 로봇 중단 캠페인(Campaign to Stop Killer Robots) 조정관 메리웨어 햄(Mary Wareham)은 “러시아와 미국은 킬러 로봇을 위한 필수 조약의 도출에 실패하고 있다”며 이러한 무기 시스템에 대한 새로운 조약을 이들 군사 강국들이 주도해선 안될 것이라고 워싱턴타임즈에서 말했다.

트럼프 행정부는 완전한 금지에 반대하는 입장을 유지하고 있지만, 당국자는 워싱턴이 AI의 군사적 사용을 통제하기 위한 국제 원칙의 초안에 반대하지 않을 것이라고 강조했다.

국무부 관계자는“이러한 지도 원칙에는 무기 시스템 사용에 관한 결정에 대한 인간의 책임이 유지되어야한다고 주장하는 내용이 포함돼 있었다”며 “무기 수명주기의 다양한 단계에서 다양한 형태를 취하고 시행 될 수 있다. (AI 무기 활용이) 해당 국제법, 특히 국제 인도주의 법을 준수하는지 확인해야한다”고 덧붙였다.