인공지능(AI)이 윤리에 반하는 의사 결정을 하지 못하도록 유인하는 ‘비윤리적 최적화 원칙(Unethical Optimization Principle)’이 제시됐다.

영국과 스위스 연구원들은 규제 기관과 비즈니스 목적 감시 인공지능 시스템에서 비윤리적 편향이 발생할 경우 잠재적으로 큰 비용과 피해를 주도록 하는 수학적 수단을 발견했다.

영국 워릭대학교(University of Warwick), ICL(Imperial College London) 및 스위스 로잔의 EPFL 공동 연구자들은 전략 회사 ‘Sciteb Ltd’와 함께 비윤리적 최적화 원칙을 개발했다.

인간의 개입 없이 의사 결정이 이루어지는 환경에서 AI 시스템은 비윤리적 전략을 채택할 수 있는 위험 상황을 찾아서 줄이거나 가능한 경우 완전히 제거할 수 있다.

AI는 상업적 상황에서 점점 더 많이 사용되고 있다. 예를 들어 AI를 사용해 특정 고객에게 판매할 보험 상품 가격을 설정하는 것을 고려해보자. 사람들 마다 다른 가격을 책정해야 하는 합법적 이유가 있지만 당장은 회사 이익을 해칠 수 있는 특정 결정을 내리는 것이 결과적으로 더 유리할 수도 있다.

AI는 선택할 수 있는 수많은 잠재적 전략을 가지고 있지만, 일부는 비윤리적이다. 비윤리적 전략 채택시에는 규제 당국이 벌금을 부과하거나 고객이 불매하게 될 경우 도덕적 비용뿐만 아니라 상당한 잠재적 벌금을 지불하게 된다. 수학자와 통계학자들로 구성된 공동 연구팀은 AI 결정의 영향을 추정할 수 있는 간단한 공식을 제공하는 새로운 비윤리적 최적화 원칙을 만들었다.

워릭 대학 수학 연구소의 로버트 맥케이(Robert MacKay) 교수는 “현재 최적화는 불공정하고 많은 비윤리 전략을 선택할 것으로 예상된다. 원칙은 또한 매우 큰 전략 공간에서 AI가 작동하는 방식을 다시 생각할 필요가 있으므로 최적화/학습 과정에서 비윤리적 결과가 명시적으로 거부되도록 제안한다”고 말했다.

연구팀은 7월 1일(현지시각) 로열 소사이어티 오픈 사이언스(Royal Society Open Science)에 발표된 “비윤리 최적화 원칙(An unethical optimization principle)” 논문에 자세한 내용을 정리했다.

멕케이는 “비윤리적 최적화 원칙을 사용해 규제 기관, 컴플라이언스 직원 및 기타 사람들이 잠재적으로 문제가 있는 전략을 찾는 데 도움을 줄 수 있다. (이) 검사는 문제가 발생할 가능성이 높은 부분을 보여주고 향후 AI 검색 알고리즘을 어떻게 수정해야하는지 제안한다”고 설명했다.