세계는 인공지능(AI) 기술의 발전을 주목하고 있다. 경제, 금융, 국방, 의료, 사법 및 교육 등 사회 전반에서 인공 지능 분야에서 특별한 발전을 보이고 있다.

그러나 동시에 AI에 포함 된 윤리적 가치와 알고리즘이 기본적인 인간 존중 등에 대한 우려가 있다.

윤리학자들은 AI의 투명성과 책임성 부족, 불공정과 편견에 대해 걱정한다. 각 응용 프로그램을 구성하는 수백만 줄의 코드, 소프트웨어에서 알고리즘이 자동화된 결정에 도달하는 과정을 알기 어렵다. 소프트웨어개발 과정에서 코더는 알고리즘이 작동하고 결정을 내리는 데 영향을 미치는 대다수의 결정을 내린다.

미국 워싱턴D.C 정책싱크탱크 ‘브루킹스연구소(Brookings Institution)’는 ‘인공지능 미래를 위한 청사진(A BLUEPRINT FOR THE FUTURE OF AI)’ 시리즈의 일환으로 최근 ‘AI시대 윤리적 딜레마에 대한 대비(Preparing for the ethical dilemmas of the AI era)’ 패널 토의를 진행했다. 크리스 메저롤(Chris Meserole) 대외정책 펠로우(Fellow – Foreign Policy, Center for Middle East Policy)가 사회를 맡았다.

패널은 윌리엄 갈스턴(William A. Galston) 에즈라 질카 의장(Ezra K. Zilkha Chair), 빌 갈스턴(BillGalston) 거버넌스연구 부소장(vice president of Governance Studies), 첼리나 추(Charina Chou) 구글 신기술글로벌정책리드(Global Policy Lead for Emerging Technologies- Google),
히더 페터슨(Heather Patterson) 인텔연구소 선임과학자(Senior Research Scientist – Intel Labs) 등이 참가 했다.

이들은 무기 및 군사 관련 응용 프로그램, 법률, 정부 감시, 인종 편향 문제, 사회적 신용 시스템 등 5 가지 AI 윤리적 딜레마를 검토했다. 기술 회사가 이러한 문제를 다루는 방법과 이러한 문제를 해결하기 위한 원칙 및 프로세스의 중요성에 대해 논의, 의사 결정에서 윤리성 강화를 지적했다.

기업 차원에서 AI 윤리를 진지하게 검토하기 위한 몇 가지 단계는 이렇다.

기업 의사 결정자 및 소프트웨어 개발자와 협력하는 윤리 전문가 고용.
다양한 문제 처리 방법을 설명하는 AI 윤리 강령 개발.
기업의 윤리적 질문에 정기적으로 답변하는 인공지능 검토 보드 마련.
다양한 코딩에서 의사 결정 과정을 보여주는 AI감사 추적기법 개발.
직원이 일상 업무에서 윤리적 고려 사항을 운영 할 수 있도록 AI 교육 프로그램 구현.
인공 지능 솔루션이 사람이나 조직에 해를 입히거나 피해를 입힐 때 복구 방법 제공.

발생 가능한 문제에 대해 많은 비정부기구, 학계 및 기업 단체가 인공 지능 및 기계 학습에서의 기본 인권 보호의 필요성을 제기했다. 이들은 AI 개발 및 인류 보호를 위한 프로세스에 대한 원칙을 설명했다.

2017년 미국 캘리포니아주 아실로마(Asilomar)에서 열린 생명의 미래(Future of Life) 컨퍼런스 참가자들은 인공 지능과 기계 학습(machine learning)으로 제기 된 문제를 요약한 성명서를 발표했다. 그들은 “고도로 자율적 인공 지능 시스템은 목표와 행동이 인간의 가치와 일치하도록 설계되어야한다”며 “인공지능 기술은 최대한 많은 사람들에게 이익을 주며 권한을 부여해야한다. AI가 창안한 경제적 번영은 모든 인류에게 이익이 되도록 널리 공유돼야한다”고 선언했다.

2018년에는 국제 앰네스티, 엑세스 나우(Access Now) 등이 주관 한 ‘토론토 선언’이 뒤따랐다. 선언은 기계학습에 중점을 두고 “국가들과 사적 행위자는 사람들이 자신의 인권을 더 쉽게 행사하고 즐기도록 돕기 위해 이러한 기술의 개발과 사용을 장려해야한다”는 기본 원칙을 마련했다. 열거한 구체적인 권리 중에는 ” 다양성과 형평성을 증진하고 평등을 보호한다”는 원칙을 포함했다. 이러한 목적을 위해 서명 단체들은 개발자들에게 위험을 식별하고 투명성을 보장하며 감독을 강화하고 사적인 행위자가 그들의 행동을 설명하도록 요구했다.

“AI 애플리케이션의 복잡성과 편재성이 커지면서 윤리적 우려가 커지고 있다. 여기에는 편향, 공정성, 안전성, 투명성 및 책임에 관한 문제가 포함된다.”

많은 대학 프로젝트들 또한 인공지능에 관심을 기울이고 있다. 하버드대, 옥스포드대, 캠브리지대, 스탠포드대, 워싱턴대 등을 포함한 대학들도 노력을 기울이고 있다. 학계 전문가들은 정부와 기업 모두 AI 개발에서 윤리적 고려를 촉진해야하는 특정 관심 분야와 방법을 정확히 지적했다.

비영리 단체도 이 공간에서 활발하게 활동하고 있다. 영국 왕립학회(Royal Society)는 현장의 기회뿐만 아니라 극복해야 할 장벽을 분석하는 기계 학습 프로젝트를 수행했다. 그 목표는 “기계 학습이 최대한 많은 사람들에게 최대한의 이익을 가져다 줄 수 있도록하는 것”이다. IEEE 표준협회(Standards Association)는 자율 시스템 설계시 윤리적 고려 사항에 대한 주도적 노력을 기울이고 있다.

기타 비영리 단체는 인공 지능을 개발하고 유익한 용도로 활용하는 방법에 중점을 둔다. 셈 알트먼(Sam Altman), 그렉 블록먼(Greg Brockman), 엘론 머스크(Elon Musk) 등 개인뿐만 아니라 Y Research, Infosys, Microsoft, Amazon, Open Philanthropy Project와 같은 기업들은 ‘OpenAI’를 비영리 AI 연구 기관으로 설립해 힘을 모으고 있다 . 이들은 “안전한 범용 인공지능(artificial general intelligence)에의 접근법 발견 및 제정”을 사명으로 했다. 엔지니어 및 과학자들은 오픈 소스 도구를 사용해 전체 커뮤니티의 이익을 위해 AI를 개발하고 ‘안전 문제가 있을 때 기술을 비공개로 유지하기 위한’ 프로토콜을 보유하고 있다.

기업도 논의에 참여하고 있다. 구글은 ‘책임있는 AI 개발(responsible development of AI)’ 문서를 발표했다. AI는 사회적으로 유익해야하고, 불공정한 편견을 강화시키지 않아야하며, 안전성 테스트, 사람에 대한 책임성, 프라이버시 디자인을 포함해야 한다. 또한 높은 수준의 과학적 탁월성은 이러한 원칙에 부합하는 용도로 사용할 수 있어야 한다.

한편 마이크로소프트는 ‘계산된 미래(the future computed)’에 관한 광범위한 보고서를 발표했다. AI에 대한 기회, 즉 AI의 책임있는 사용 원칙, 정책 및 법률의 필요성을 제시하고 미래의 일자리 및 업무에 대한 잠재적 파급 효과에 주목했다.

여러 기업이 인류와 사회에 이익을주기 위해 인공 지능 파트너십을 형성하기 위해 함께 했다. 여기에는 Google, Microsoft, Amazon, Facebook, Apple 및 IBM이 참여했다.이들은 ‘윤리, 공정성 및 포괄성’ 증진을 목표로 인공지능 개발을 안내하는 산업 모범 사례를 개발하고자한다. 투명성, 개인 정보 보호 및 상호 운용성 사람과 인공지능 시스템 간의 협력, 신뢰성 및 견고성을 추구한다.