인공지능(AI) 기술 회사들이 킬러로봇 개발에 협력해 인류를 위험에 빠뜨리는 국제 NGO단체 보고서가 나왔다.

22일(현지시각) 프랑스 국영 뉴스통신사 AFP에 따르면 글로벌 인공지능(AI) 기술업체들의 치명적인 자율무기(lethal autonomous weapons)에 대한 입장을 조사한 네델란드 NGO 팍스(Pax)보고서는 자율살상무기 관련 기술 개발, 군사 프로젝트 수행, 관련 기술개발 표기 약속 등 3가지 기준으로 50개 기업을 선정했다. 아마존(Amazon), 마이크로소프트(Microsoft), 인텔(Intel) 등은 ‘높은 우려’그룹으로 분류됐다

21일 발표된 보고서의 수석 저자 프랭크 슬리퍼(Frank Slijper)는 “마이크로소프트 나 아마존과 같은 회사들이 현재 논란의 여지가 있는 무기를 개발하고 있다는 사실을 부인하지 않는 이유는 무엇인가”라고 물었다.

무기 시스템이 목표를 자율적으로 선택하고 공격할 수 있도록 AI를 사용하는 것은 최근 몇 년 동안 윤리적 논쟁을 불러 일으켰다. 비평가들은 글로벌 안보를 위태롭게 하고 화약과 원자폭탄 이후 세 번째 무기 혁명을 이끌 것이라고 경고했다.

정부 전문가들로 구성된 패널은 이번주 초 스위스 제네바에서 열린 특정 무기에 관한 유엔 협약 회의에서 자율살상 무기에 관한 정책 옵션에 대해 토론했다.

지난해 무기 시스템을 위한 AI기술 지원을 배제하는 지침과 원칙을 발표 한 구글(Google)은 12개 국가에 걸친 분석에서 ‘휴머노이드 후추 로봇’으로 가장 잘 알려진 일본 소프트뱅크(Softbank)와 같은 7개 “모범 사례(best practice)”로 분류됐다.

21개 회사는 ‘중간 우려(medium concern)’, 21개는 “높은 우려(high concern)”카테고리에 속했다. 특히 미군에 클라우드 인프라를 제공하기 위해 100억 달러의 펜타곤 계약에 입찰하는 아마존과 마이크로소프트는 ‘높은 우려’업체로 분류됐다.

‘높은 우려’그룹의 다른 업체는 CIA지원 벤처 캐피탈 조직에 기반한 회사 팔란티어(Palantir)가 있다. 이 시스템은 AI가 군인이 실시간으로 전투 지역을 분석하는 데 도움을 줄 수있는 AI 시스템 개발 계약을 8억 달러에 수주했다.

미국 버클리의 캘리포니아대 스튜어트 러셀(Stuart Russell) 교수는 “자율 무기는 필연적으로 대량 살상 무기가 될 것이다. 왜냐하면 인간이 배제되면 한 사람이 백만 개의 무기 또는 1억 개의 무기를 발사 할 수 있기 때문”이라고 AFP에 말했다.

그는 “실제 자율 무기를 회사들이 개발 할 것이며 자율 무기 확산을 막기 위한 캠페인이라는 측면에서 (회사는) 매우 큰 역할을 할 수 있다”고 덧붙였다.

군사 목적을위한 AI 개발은 업계 내에서 논쟁과 항의를 촉발했다. 작년에 구글은 기계 학습(ML)을 사용해 드론 영상에서 사람과 물체를 구별하는 프로젝트 메이븐(Project Maven)이라는 국방부 계약 갱신을 거부했다. 또한 아마존과 마이크로 소프트가 클라우드 계약을 맺고자하는 펜타곤과의 클라우드 계약 JEDI(Joint Enterprise Defense Infrastructure)의 운영을 중단했다.

이 보고서는 또한 마이크로소프트 직원들이 전장에서 ‘살상 증대’를 목표로하는 증강현실(AR) 헤드셋 홀로렌즈(HoloLens)에 대한 미군 계약에 대한 반대 의견을 표명했다고 밝혔다.

러셀은 “현재 무기는 무엇이든, 탱크, 전투기 또는 잠수함 등 자율 버전을 개발하고있다”고 말했다.

이스라엘의 하피(Harpy)는 이미 존재하는 자율 드론으로, 목표 지역을 배회하고 공격 할 장소를 선택한다. 아직 존재하지 않는 새로운 범주의 자율 무기가 여전히 우려다.

2017 년 단편 영화 ‘살육로봇(Slaughterbots)’에 등장하는 것과 같은 무장 미니 드론도 포함될 수 있다. 러셀은 “이러한 유형의 무기를 사용하면 컨테이너나 화물 항공기로 백만 개를 배치할 수 있다. 따라서 핵폭탄 만큼 파괴적일 수 있지만 모든 건물은 그대로 남겨둔다”고 말했다.

4 월 유럽 연합(EU)은 기업과 정부가 인간에 의한 감시 필요성, 비차별적인 방식으로 사회 및 환경 복지에 대한 노력, 프라이버시 존중 등 AI 개발 방법에 대한 지침을 발표했다.

러셀은 치명적인 AI에 대한 국제적 금지 형태로 다음 단계를 취하는 것이 필수적이라고 주장했다. 주장에 따르면 드론은 안면인식 등 AI기술을 사용하면 한 민족 그룹이나 한 성별을 없애거나 소셜 미디어 정보를 사용해 정치적 견해를 가진 모든 사람을 제거할 수있다. 인간을 죽이기로 결정할 수있는 기계는 개발, 배치 또는 사용하지 않아야한다는 것이다.