인공지능(AI) 자율 플랫폼 발달과 슈퍼 컴퓨터를 능가하는 양자 컴퓨터 발달로 핵 억제력 약화 가능성이 제기됐다.

10일(현지시각) 미국 군사전략매체 워온더락(warontherocks)은 AI 억제력 무력화의 ‘기회의 창(Window of Opportunity)’이 열릴 가능성을 제기했다.

컴퓨터 비전 등 인공지능(AI) 기계학습(ML) 알고리즘이 발달하면서 자율주행 차량, 자율비행 드론, 해저 자울잠수정 등 전 방위적인 감시 기술도 발달하고 있다. 이동식 핵무기 발사대와 고정 핵 발사기지 등 적의 핵 전력 위치가 추적 가능하게 되면 2차 공격을 무력화하는 선제 공격이 있을 수 있다는 지적이다.

현재 수준에서 AI 기술적 한계와 기밀로 관리되는 적국의 핵 전력 관련한 훈련 데이터의 부족은 이같은 가능성을 제한한다. 그럼에도 불구하고 포괄적인 군사적 비AI 기술이 보완되면 ‘기회의 창’이 작게나마 열릴 수 있다는 주장이다.

자카리 칼렌본(Zachary Kallenborn) 연구원은 ” AI는 핵 억제력의 위협을 야기하고, 다른 신기술은 AI의 과제를 완화해 이러한 위험을 악화시킨다”며 “AI 알고리즘 훈련 시간은 플랫폼 식별에 있어 AI의 유용성을 제한한다. 그러나, 양자 컴퓨터의 신뢰성 및 유용성 및 수퍼 컴퓨팅의 개선은 대량의 데이터를 보다 신속하게 처리하기 위해 컴퓨팅 성능을 크게 향상시킨다”고 말했다.

한편, 앞서 미국 비영리 국제정책 연구기관인 랜드 연구소(RAND Corporation)는 보고서를 통해 2040년까지 AI에 의한 핵 전쟁 가능성을 지적한바 있다. 보고서는 드론과 소위 ‘킬러 로봇’위협이 아닌 AI를 활용한 군사 결정의 위험성을 강조했다.

이하 전문.

미국은 현재 1750기 이상 핵탄두를 잠수함, 항공기 및 미사일 사일로에 배치 중이다. 1967년 냉전 종식 당시 비축량은 3만1000 이상이었다.

핵 공격에 대한 보복 공격을 가능하게 하는 핵 억제력 유지는 미국 국가 안보의 핵심 요소다. 인공지능(AI) 신기술이 등장하면서 핵 억제력에 새로운 변수가 생겼다.

기술적 한계로 AI가 오늘날의 핵 억제 수단을 위협하는 것을 막을 수 있다는 주장이 있다. 이론적으로, AI 기계학습(machine learning) 기반 영상 인식 시스템은 2차 타격 능력을 식별 할 수 있다. 그러나 Loss와 Johnson은 불량 데이터와 불량 데이터를 보완 할 수 없는 두 가지 주요 과제를 강조한다. AI 시스템이 구별해야 할 상용 트럭의 이미지와 비교할 수 있는 이동식 핵 미사일 발사기의 이미지는 거의 없다. 사용 가능한 데이터 부족으로 기계가 일반 트럭과 핵 발사대의 차이를 추론 할 수 없다. 최고의 AI 기술조차도 이러한 한계를 극복 할 수는 없다.

인공 지능이 성공적으로 목숨을 잃을 수 있는 기회의 창을 만드는 데 도움이 될 수 있다고 생각한다. AI는 새로운 플랫폼을 개발해 지능을 수집하고 핵 시스템을 공격 할 수 있게 한다. AI는 다른 제약이 있지만, 비AI 역량은 정보처리에 대한 AI의 제한을 완화할 수 있다. 이는 AI 기반 시스템이 2차 공격 플랫폼 식별을 지원할 가능성을 무시해서는 안 된다는 것을 의미한다.

Loss와 Johnson은 AI로 실제 기술 문제를 설득력 있게 강조하지만, 그들의 주장이 미국과 동맹국의 생존에 대한 전반적인 신뢰를 지지하지는 않는다. AI 기반 시스템은 AI 한계에 대응하는 폭넓은 군사 수단 일부로 존재한다. AI는 또한 새로운 플랫폼의 생성 및 개선을 통해 센서 데이터를 수집하고 핵 플랫폼을 공격 할 수 있다.

취약함은 피할 수 없다. 미국과 동맹국은 은밀하게 운영하고 새 미끼를 개발하는 새로운 방법을 찾아 AI 유발 위험을 줄일 수 있다.

AI 플랫폼

AI는 핵 억제력 관련 새 자율 플랫폼 개발을 가능하게 한다. 기계학습 발전으로 자율주행차량이 크게 개선됐다. 차량은 적군 발사체를 포함한 장애물을 더 잘 인식하고 피할 수 있다. 자율주행 차량은 스스로 결정을 내리고 자신의 업무를 계획 할 수 있다. 거의 모든 주요 군사 세력들은 다양한 수준의 자율성을 갖춘 무인 시스템을 보유하고 있거나 개발하고 있다.

AI는 한꺼번에 무인 항공기 드론 부대 운용을 가능하게 한다. 인지능력의 한계가 있는 인간과는 다르다. 그러나 자율성이 크면 인지 부하가 줄어 든다. 저렴한 자율 드론으로 넓은 범위를 커버, 부대 단위로 수색을 할 수 있다. 드론 무리는 더 복잡한 검색이 가능하다. 드론은 다른 유형의 정보를 수집, 거짓 반응을 줄이는 다른 센서 패키지가 장착 될 수 있다.

자율 플랫폼은 또한 핵 군사력 및 2차 공격 플랫폼에 대한 위험을 높인다. 공중, 표면과 해저 자율플랫폼은 적 잠수함 바다를 검색 할 수 있다. 그들은 잠수함 포트, 전략적 요충지, 그리고 넓은 바다에 근접 센서를 배포 할 수 있다. AI 기반의 시스템은 또한 수집된 데이터를 분석하고 전체 센서 네트워크를 최적화 할 수 있다. 자율시스템은 명령과 제어계통, 조기 경보 시스템, 핵무기 전달 시스템에 대한 공격을 수행할 수 있다. 플랫폼 비용이 낮은 점에서 자율 시스템은 또한 상대의 방어를 압도하는, 대량 사용을 가능 한다. AI에는 한계가 있지만 더 넓은 방어 수단이 이를 완화시킨다.

AI 혼자 작동하지 않는다

AI 기반 기술은 핵 전력의 생존을 위협한다. 위협은 AI만으로 운영되는 것만이 아니다. 모든 군사 기술은 전체 방어 생태계의 일부다. 더 광범위한 군사조직, 기존 역량 및 기타 신기술은 2차 공격 플랫폼 식별에서 AI의 성공 가능성을 높인다. AI는 지능 분석가가 방대한 양의 수집된 정보를 정리하는 데 도움이 될 수 있다.

국가는 적의 핵 전력에 대한 데이터를 수집하고 평가하기 위해 다양한 자산을 활용한다. 인간 정보 자산은 핵 시스템의 분류된 군사 계획 및 기술적 특성에 대한 정보를 수집 할 수 있다. 스텔스 기능, 위성 및 항공기 비행은 핵 무기 관련 활동을 식별할 수 있으며 광범위한 대잠 기능은 해저에서 적 잠수함을 검색한다. AI 기반 시스템은 2차 타격 플랫폼의 위치를 가리킬 가능성이 높은 관심정보를 식별 할 수 있다.

수집 자산은 AI 탐지 시스템 교육에 도움이 되는 데이터도 수집한다. 실제로 8 개의 트라이던트 잠수함이 주둔하는 해군 기지에서 다수 드론 관측이 발견됐다. 적은 드론을 사용해 핵 잠수함과 관련된 광범위한 이미지, 비디오 및 기타 센서 데이터를 수집 할 수 있다. 무인 항공기는 잠수함이 들어 오거나 떠날 때와 같이 더 광범위한 기본 활동에 대한 정보를 수집 할 수도 있다.

훈련 데이터가 견고한 AI에 충분한 지 여부는 평가하기 어려운 문제다. 이러한 자산의 기능, 배포 및 데이터 자체는 분류가 잘돼 있다. 국가가 정보 수집의 대상, 위치 및 방법을 알면 행동을 바꿀 것이다. 더 나은 지능 네트워크와 자산을 보유한 국가들도 AI 시스템에 대한 훈련 데이터가 점점 많아 질 것이다. 심지어 불완전한 AI 감지조차도 중요할 수 있다.

인간은 AI의 한계를 보완한다. 미국 국방부는 인간-기계 팀 구성의 개념을 강조한다. 인간과 기계는 공생적으로 협력한다. 인간은 고차원적인 의사 결정을 제공하고 자율 시스템의 윤리적이고 적절한 운영을 보장한다. 예를 들어, 드론은 유인 항공기와 함께 비행, 레이더와 조종사 재량으로 사용할 수 있는 무기에 이르기까지 다양한 기능을 제공한다. 인간-기계 팀 구성은 핵 영역과도 관련이 있다.

AI 기반 시스템이 이동 핵전력을 찾는 데 도움이 된다면, 인간은 결과를 확인할 수 있다. 분석가는 해당 지역의 사용 가능한 위성 또는 항공기 이미지를 참조 할 수 있다. 인간 및 무인 자산을 배치해 추가 데이터를 수집하고 식별된 이동 핵 시스템을 추적 할 수 있다.

또한 인간은 알려진 시간에 군사 교리, 행동 및 플랫폼 위치에 대한 평가를 기반으로 검색 범위를 좁힐 수 있다. 잠수함 기지를 떠나는 잠수함이 발견되면 검색 할 바다 영역이 크게 줄어 든다. 물론 검증은 AI 기반 시스템 처리 이상의 시간이 걸린다. 그러나 AI는 이러한 작업과 다른 작업을 수행하는 데 도움이 되는 새로운 플랫폼을 만들 수도 있다.

AI는 핵 억제력의 위협을 야기하고, 다른 신기술은 AI의 도전 과제를 완화함으로써 이러한 위험을 악화시킨다. Loss and Johnson이 지적한 것처럼 AI 알고리즘 훈련 시간은 플랫폼 식별에 있어 AI의 유용성을 제한한다. 그러나, 양자 컴퓨터의 신뢰성 및 유용성 및 수퍼 컴퓨팅의 개선은 대량의 데이터를 보다 신속하게 처리하기 위해 컴퓨팅 성능을 크게 향상시킨다. 실제로 구글은 양자 우월성을 달성했다고 전했다. 이는 세계에서 가장 강력한 슈퍼 컴퓨터보다 더 강력한 양자 컴퓨터를 만들었다는 것을 의미한다. 구글(Google)의 양자 컴퓨터는 특정한 단일 계산만 가능하지만 양자 컴퓨팅의 잠재력을 보여준다. 새 컴퓨터 칩 및 기타 하드웨어도 AI 응용 프로그램을 지원하는 최적화 프로세스로 속도를 높인다. 전반적으로 이것은 더 빠르고 효과적인 AI를 의미한다. 이는 핵 억제에 실질적인 위험을 초래한다.

‘기회의 창’ 핵 안정성 위협

AI는 공격이 심각한 위험을 줄 수 있는 기회의 창을 만드는 데 도움을 주기만하면 된다. 성공적인 무력화 공격은 본질적으로 상황 종료이며 실패의 위험은 매우 크다. 공격을 시작하기 전에 2차 공격 플랫폼 위치 정보가 확실할 때까지 사려 깊은 적들은 기다릴 것이다. AI 기반 탐지가 완벽하지 않더라도 충분한 정도면 이 같은 일이 발생할 수 있다. 창문이 들여다 보는 구멍 정도일지라도.

창이 열릴 가능성조차도 세력 균형을 깬다. 미국의 핵 전력 위치에 대한 적의 지식은 군사 기밀이며 그 반대도 마찬가지다. 위기 상황에서, 양측 정책 입안자들은 창문이 활짝 열려 있거나 닫혀 있는지 알 수 없다. 그들은 무력화 기회를 이용하려는 욕구로 해석되는 생존 가능성을 위한 조치를 취할 수 있다. 예를 들어, 러시아 정책 입안자는“미국 전략 폭격기를 배치는 공격을 두려워해서인가 공격을 준비하고 있기 때문인가?”라고 생각할 수 있다.

그러나 인공 지능은 2차 공격에 일상 위험을 초래할 것 같지 않다. Loss and Johnson이 강조한 것처럼 AI 기반 시스템은 미사일 발사기를 인식하지 못할 수 있다. 많은 양의 데이터를 처리하는 데 시간이 오래 걸릴 수 있으며 특히 더 많은 양의 센서 데이터를 포함 할 때 시간이 오래 걸릴 수 있다.

진정한 기회의 창을 열려면 행위자들은 충분한 거리에 충분한 군사 자산이 있다고 확신해야 한다. 공격자는 이동 및 고정식 핵 발사 플랫폼을 제거하기에 충분한 핵 및 재래식 능력이 있어야 한다. AI는 자율 플랫폼이 핵무기 및 기존의 타격 능력을 강화하는 방식으로 인해 더욱 쉬워졌다.

물론, 국가가 기회를 취할 것이라고 가정해서는 안 된다. 긴장이 심하고 전쟁이 가까워 보이는 위기의 시기에는 창문이 열리지 않을 수 있다. 평화 시기에 창이 열리면 각 국가는 정책과 군사 교리에 따라 무엇을 해야 할지 결정할 것이다. 그럼에도 불구하고 국가는 위험을 줄이기 위해 조치를 취할 수 있다.

위협 완화

현재 추세는 인공 지능이 핵 억제력에 중대한 영향을 끼치지만 종말적 영향을 미치지 않을 것으로 시사한다. 무력화 공격을 허용하는 작은 창은 여전히 걱정할만한 창이다. 물론, 창을 열 가능성은 근본적인 AI 연구가 계속 진행되고 있는지, AI 대책이 얼마나 효과적인지, AI가 얼마나 강력한 지 등 수많은 질문에 달려 있다. Loss와 Johnson이 올바르게 강조한 것처럼 AI의 취약성은 전반적인 영향을 제한한다. 현명한 투자는 토네이도를 허리케인으로 바꾸지 않고 새로운 AI 위험을 핵 억지로 완화 할 수 있다.

미국은 AI 기반 탐지 시스템에서 숨을 수 있는 방법을 모색해야 한다. AI 시스템의 취약성은 방어적 이점으로 이용 될 수 있다. 미국은 적의 AI를 조작하는 사이버 수단을 고려할 수 있다. 예를 들어, 머신비전 시스템에 대한 적대적 훈련 데이터의 레이블을 변경하면 훈련된 알고리즘을 사용하는 모든 시스템이 중독 될 수 있다. 조작된 이미지를 공개하는 것 외에도 미국은 음향 방출기와 같은 다른 형태의 나쁜 데이터를 전파해 잠수함 신호를 모방할 수 있다. 미국은 전자, 사이버 또는 우주 기반 공격을 통해 센서를 비활성화하는 수단을 탐색할 수도 있다. 추가적인 유인 플랫폼도 도움이 될 것이다.

공격자가 더 많은 2차 공격 플랫폼을 목표해야 한다면, 무력화 공격이 성공할 가능성은 줄어 든다. 각 추가 플랫폼을 식별하고 공격해야 하기 때문이다. 미국과 동맹국은 인공 지능, 기계 학습 및 로봇 공학의 발전을 통해 추가적인 유인 플랫폼을 구축 할 수 있다. 예를 들어, 무인 해저 잠수함은 핵 잠수함 신호를 모방하도록 설계할 수 있다. 러시아는 정확히 그렇게 하고 있다.

이러한 “서브 싱크”에는 기존의 위협으로부터 핵 해저 플랫폼을 식별하고 방어하는 데 도움이 되는 무기와 센서가 장착 될 수도 있다. AI의 기술적 한계는 하늘이 떨어지지 않는다는 것을 의미한다. 그러나 AI는 실질적인 위험을 초래한다. 이제 행동으로 인해 적의 공격으로 미국의 2차 타격 능력이 제거 될 수 있는 창이 열릴 가능성이 줄어 든다. 이러한 조치는 미국의 안보를 유지하기 위해 필요하다.

*원글:AI RISKS TO NUCLEAR DETERRENCE ARE REAL

*기고자

자카리 칼렌본(Zachary Kallenborn)은 프리랜서 연구원 및 분석가로 핵 비확산 검토, 분쟁 및 테러 등을 연구한다.