기술 회사들이 사익을 위한 인공지능 연구에 공적기금을 활용, 유리한 규제 도입을 추구하고 있다는 비판이 제기됐다.

각국 정부와 산업계는 인공지능(AI_의 파급력과 잠재력을 주목하고 관련 연구개발에 경쟁적으로 나서고 있다. IT 회사들은 자체 가이드라인을 구성, 윤리적 AI를 명목으로 이윤추구에 유리한 규제를 도입하려 한다는 내용이다.

요차이 벤클러(Yochai Benkler) 하버드 로스쿨(Harvard Law School, Berkman Entrepreneurial Legal Studies )교수는 최근 네이처 기고문에서 인공지능 알고리즘의 위협에 대해 “알고리즘 블랙박스 안에서는 사회적 편향이 드러나지 않고, 이를 설명 할 수도 없다”며 “이익을 창출하기 위해 고안된 알고리즘은 공공의 이익에서 반드시 멀어진다. 정보 비대칭, 협상력 및 외부효과들이 이러한 시장에 팽배해 있다”고 경고했다.

이어 그는 페이스북 등 IT업체 광고에서 나타나는 인종, 젠더 편향적 알고리즘에 대해 “이러한 종류의 서비스를 첨단 기술 산업의 공해로보고 있다. 그들은 이익을 가져 오지만, 비용은 사회가 부담한다”고 비판했다.

미국국립과학재단(NSF)의 아마존(Amazon) 공동연구 등 산업계 펀딩이 공적연구를 약화시키는 문제와 규제제한과 민영화를 둘러싼 책임와 신뢰 저하 문제도 거론했다.

벤클러 교수는 “오늘날 선도적 기술 기업은 시장 기반 메커니즘에 대한 높은 신뢰를 바탕으로 탄생했다”며 “1990년대에는 규제가 제한됐고, 철도 및 공공 시설과 같은 공공 시설은 민영화됐다. 처음에는 민주주의와 경제 성장을 위해 환영 받았지만 2000년대 후반 대불황 이후 이름난 기술 업체들은 모종의 의혹을 받았다”고 말했다,

그는 독일, 호주 및 영국 등이 회사에 벌금을 부과하거나 회사가 현재 비난받는 문제들에 대해 임원에 대한 개인적 책임을 이행 할 법률을 입안 중이거나 계획하고 있다고 설명했다.

이하 기고문.

5 월 10일 미국 국립 과학 재단이 아마존과 공동으로 인공지능 공정성 (Fairness in Art Intelligence) 프로젝트를위한 새로운 자금 조달 프로그램 의향서(letters of intent)를 발표할 예정이다.

앞서 4월 유럽 집행위원회(European Commission)가 신뢰할 수있는 인공지능을 위한 윤리지침(Ethics Guidelines for Trustworthy AI)을 발표 한 후 전문가 그룹의 한 학자는 이를 업계서 주도한 “윤리 세탁(ethics washing)”이라고 묘사했다.

지난 3월 구글은 AI 윤리위원회를 구성했지만 이 위원회는 일주일 후 논란 가운데 종료됐다. 1월, 페이스북은 독일 뮌헨공대(Technical University of Munich) 윤리 및 AI 센터에 750만 달러를 투자했다.

AI의 미래를 형성하기 위한 기업의 인풋은 필수적이지만 시스템이 사회에 어떤 영향을 미치는지 또는 도덕적으로 그 효과를 평가하는 방법에 대한 연구를 구성하는데는 힘이 미치지 못한다.

정부와 공적 책임이 있는 구성체들은 독립적 연구를 지원해야하며 업계가 책임을지기에 충분한 데이터를 공유해야한다고 주장한다.

알고리즘 결정 시스템은 우리 생활의 모든 측면에 개입하고 있다. 의료 및 보험, 모기지 및 물류, 보석금 및 가석방, 뉴스피드 및 정치 및 상업 광고 등을 모두 포함한다.

알고리즘은 사회적 불평등을 반영하는 기존 데이터로 훈련을 받기 때문에 사람들이 의식적으로 상쇄 조치를 설계하지 않으면 시스템 불의를 영속시킬 위험이 있다. 예를 들어 재범을 예측하는 인공 지능 시스템은 흑인과 백인 공동체의 차별적 치안 정책을 포함 할 수 있다. 또는 젠더 편향적 활동 이력를 바탕으로 취업 후보자의 성공 가능성을 평가할 수 있다.

알고리즘 블랙박스 안에서는 사회적 편향이 드러나지 않고, 이를 설명 할 수도 없다. 이익을 창출하기 위해 고안된 알고리즘은 공공의 이익에서 반드시 멀어진다. 정보 비대칭, 협상력 및 외부효과들이 이러한 시장에 팽배해 있다.

예를들어 페이스북과 유튜브는 광고주에 사이트 사용자로부터 이익을 얻고 정확하게 타겟팅한 메시지를 전달할 수있는 기술을 제공한다. 그것은 불법이거나 위험한 것으로 판명 될 수 있다.

미국 주택 및 도시개발부(Department of Housing and Urban Development)는 주택 광고에서 차별을 가능케하는 페이스북(Facebook)에 대해 과징금을 부과했다 . 광고는 리스트를 보는 사람의 인종과 종교의 상관관계 영향에 관한 내용이었다. 유튜브 추천 알고리즘은 백신 음모에 대한 공격을 불러 일으켰다.

이러한 종류의 서비스는 첨단 기술 산업의 공해로 여겨진다. 그들은 이익을 가져 오지만, 비용은 사회가 부담한다. 회사는 자신의 제품이 사회적으로 책임이 있음을 보장하기 위해 노력한다고 명시했다.

휴대 전화에서 의료에 이르기까지 정부, 학계 및 시민 사회 단체는 AI기술이 사회에 어떤 영향을 미치는지 연구하고 시장 중심 조직에 대한 점검을 제공하기 위해 노력한다. 업계 플레이어들은 이러한 노력에 전략적으로 개입한다.

NSF가 아마존에게 760만 달러 상당의 프로그램(아마존의 2018년 연구 및 개발 지출의 0.03 %)에 대한 프로세스의 정당성을 부여하면 산업계 펀딩 연구에 대한 반대편 공공연구의 역할을 약화시킨다. 대학은 기업의 사업 모델에서 핵심적인 관행의 도덕적, 정치적, 법적 영향을 연구하기 위해 회사 자금을 받을 때 그 핵심 역할을 내려놓는다. 또한 정부가 정책 프레임 워크를 업계 주도 패널에 위임한다.

기관들은 몇 가지 안전 조치를 수립했다. NSF는 아마존의 의견 없이는 일반적인 피어 리뷰 과정을 통해 연구 보조금을 수여 할 것이다. 하지만 아마존은 목표에 맞는 프로젝트를 홍보하기위한 계약적이고 기술적이며 조직적인 방법을 갖고있다. 뮌헨 공대는 페이스북 자금이 의무나 조건없이 제공되며, 회사는 센터의 자문위원을 맡을 수 없다고 보고했다. 이 단일출처 선물 규모와 기부자의 이익에 직접적으로 영향을 미치는 방식을 고려할 때 과도한 영향력에 대한 위험과 인식은 여전히 너무 크다.

오늘날 선도적 기술 기업은 시장 기반 메커니즘에 대한 높은 신뢰를 바탕으로 탄생했다. 1990년대에는 규제가 제한됐고, 철도 및 공공 시설과 같은 공공 시설은 민영화됐다. 처음에는 민주주의와 성장을 위해 환영 받았지만 2000년대 후반 대불황 이후 이름난 기술업체들은 모종의 의혹을 받았다.

독일, 호주 및 영국은 모두 회사에 큰 벌금을 부과하거나 회사가 현재 비난받는 문제들에 대해 임원에 대한 개인적 책임을 이행 할 법률을 임안 중이거나 계획하고 있다.

새로운 규제 열기는 과잉 반응 일 수 있다. 신뢰할 수있는 연구에 기반하지 않은 기술은 기술 유토피아보다 정책의 지침으로 더 바람직 하지 않다. 그럼에도 불구하고 그것은 산업계가 협력할 인센티브를 창출한다. 정부는 적절한 수단을 통해 적절한 보호를받는 데이터베이스에서 기업이 데이터를 공유하도록 요구하기 위해 그러한 레버리지를 사용해야한다.

*네이처 원문

*요차이 벤클러(Yochai Benkler)는 이스라엘계 미국인 작가이자 하버드로스쿨(Harvard Law School, Berkman Entrepreneurial Legal Studies )교수다. 하버드대 버크먼 클레인 인터넷 및 사회센터(Berkman Klein Center for Internet & Society)의 공동 책임자이기도 하다. 그는 인터넷과 네트워크화 경제사회의 출현, 무선통신 등 인프라 구조에 대해 글을 쓴다.