국가안보 목적으로 활용하는 인공지능(AI)는 유용하고 투명하며 개인 정보 보호 및 기타 법률에도 어긋나지 않아야 한다.

미국 ODNI(Office of the Director of National Intelligence)는 AI 사용과 새로운 도구 개발을 안내하는 원칙 목록을 발표했다. 이 목록은 국방부의 윤리 원칙 목록과 인텔리전스 커뮤니티(Intelligence Community, IC)의 2019년 기계를 이용한 지능화 전략(Augmenting Intelligence Using Machines strategy)을 따른다.

지난 5 년간 AI는 특히 국가 안보 목적으로 사용에 대한 대중의 관심이 높아지면서 상당히 성장했다. 세계 여러 도시에서 안면 인식 기술을 금지했다. 이러한 우려의 대부분은 데이터 편향에서 비롯된다. 프로그래머는 실제 상황을 전체적으로 제공하는 데이터가 아니라 쉽게 사용할 수 있거나 명백한 데이터만 사용해 기계 학습(machine-learning) 알고리즘을 구축할 수 있다.

데이터 바이어스는 2015년에 구글 알고리즘이 백인이 아닌 사람들을 고릴라로 분류한 사례도 있다. 이러한 편견이 널리 퍼져 있다. 편견 문제는 지침과 틀을 형성하는 데 도움이됐다. AI 사용은 비즈니스나 군대가 사용하는 방식과 근본적으로 다르다.

ODNI에 따르면, 군은 인간의 속도보다 빠른 전술적 결정을 내리기 위해 인공 지능이 필요할 수도 있지만, 인공 지능을 사용할 수 있더라도 IC는 의사 결정을 아웃소싱할 수 없다.

AI가 정책 입안자들이 인간의 판단을 해석하고 활용해 행동할 수있는 결과를 도출해야한다. 즉, 누구나 프로그램이 그 결론에 도달한 방식을 이해할 수 있어야한다. 잠재적 용도에는 공개적으로 분류된 일부 자료, 공개 소스 정보의 언어 번역과 같이 대중에게 공개될 수있는 자료가 포함된다.

언어 패턴이 엄청나게 다양하기 때문에 여기에서도 인간 지도의 필요성은 여전히 상당하다. ODNI는 IC가 필요로하는 5-6개 영역을 민간 영역과 중복되는 것으로 식별했다. 그중에는 사이버 보안, 외국 영향 운영에 대한 대응 등이 있다.

ODNI 관계자는 “네트워크와 구성원에게 피해를 입히고자하는 사람들… 그 행위자들이 누구인지, 어떻게 특성화하는지 이해해야 한다”고 지적했다.