미국 국방성(DoD)이 임명한 기술 지도자 및 학자 그룹이 10월 31일 조지타운대(Georgetown University)에서 인공지능(AI) 활용에 대한 새로운 윤리 원칙을 제안했다.

윤리 원칙은 DoD가 “책임”, “평등”, “추적 가능”, “신뢰” 및 “거버넌스 가능한”방식으로 AI를 사용해야한다고 명시하고 있다. 제안된 원칙은 DoD가 수용하거나 수정, 거부가 가능하다.

국방 혁신위원회(DIB)로 알려진 이 그룹은 데이터 기술, 네트워크 보안 및 인력을 현대화하는 권고안도 제공했다. 이 발표는 공동 인공지능 센터(Joint Artificial Intelligence Center, JAIC) 등 DoD 내에서 AI를 구현하려는 새로운 시도의 일환이다. 구글(Google) 전 CEO 겸 이사회 의장 에릭 슈미트(Eric Schmidt)는 “우리는 공동 AI 센터를 매우 자랑스럽게 생각한다”고 말했다.

이들은 군사적 맥락에서 위해를 가할 수 있는 AI의 잠재적 가능성에 대해 우려를 표명했다. 작년에 수천 명의 구글 직원이 AI를 사용해 DoD가 수집 한 방대한 양의 감시 영상을 분석하는 프로젝트 메이븐(Project Maven)에 대한 회사의 작업에 항의했다.

직원들이 서명한 항의서한에서 “미국 정부에 협력해 군사 감시에서 잠재적으로 치명적인 결과를 초래할 수있는 이 기술을 구축하는 것은 수용할 수 없다”고 밝혔다.

DIB는 이러한 원칙을 만들 때 15 개월 동안 다양한 이해 관계자 및 일반 대중과의 관계를 유지했다. 마이클 멕쿼드(Michael McQuade) 이사는 “우리는 AI의 윤리적 사용이 무엇인지, AI의 윤리적 사용 가능성이 없다고 믿는 사람들까지 포함해, 상반된 의견을 가진것을 확인 했다”고 말했다.

멕쿼드는 인공 지능에 대해서는 인간이 판단하지 않고 중요한 결정을 내리고 편향된 방식으로 이러한 결정을 내릴 수있는 AI의 잠재력을 강조하면서 AI가 다른 기술과 근본적인 차이점이 있다고 강조했다.

AI 시스템은 이미 다양한 그룹에 대한 편견을 보이는 것으로 관찰됐다.

원칙에서는 “DoD가 전투 또는 비전투 AI 시스템의 개발 및 배치에서 의도하지 않은 편견을 피하기 위해 신중한 조치를 취해야한다” 고 밝혔다.

또한 이사회는 AI 시스템이 의도한대로 운용하는 데 어려움이 있음을 논의했다. 대니 힐리스(Danny Hillis) 이사는 “그들은 설계자가 예측하기 매우 어려운 종류의 행동을 보여주고 발전시킬 수있다”며 “이는 실제로 가장 위험한 잠재적 측면 중 하나라고 생각한다. 이 시스템을 관리한 경험을 통해 규칙을 적용하기 위한 매우 까다로운 방법을 발견했다”고 말했다.

제안 된 원칙은 사람이나 자동 프로세스가 원치않는 동작을 나타내는 AI 시스템의 전원을 차단할 수 있어야한다고 명시하고 있다.

AI의 보다 나은 구현과 규제를 위해 이사회는 이러한 시스템에 대한 추가 연구 개발을 요구했다. 이사회 다니엘라 러스(Daniela Rus) 디렉터는”기술은 여전히 개발 중이며, 매일 바뀌고 있다. 이러한 변화를 추진해 더 나은 기반을 얻을 수 있고 보다 신뢰할 수 있는 행동이 중요하며 이를 고려해야한다”고 말했다.

조지타운대에 따르면 AI와 국가 안보의 교차점에 대한 정책 입안자들을 연구하고 조언하기 위해 올해 SFS내에 새 연구센터 보안 및 신기술 센터(Center for Security and Emerging Technology)를 개설했다.