“AI는 점차적으로 거의 모든 고용 분야에 침투해 컴퓨터가 인간의 노동을 넘겨받게 될 것이다.” -‘인공 지능에 관한 스텐포드 백년연구(Stanford ‘s One Hundred Year Study)’ 2015 연구조사 보고서

인공지능(AI)이 가져온 위험과 약속은 국가사회 전반의 기대치를 넘어서고 있다.

광범위한 범용 기술인 인공지능은 인간 지능이 수행하는 모든 것을 잠재 응용 프로그램으로 활용할 수 있다. 그 활용에 한계를 지우는 것은 인간의 상상력, 윤리 및 신중함이다.

AI는 패턴적용이 가능한 작업과 의사결정을 자동화 프로세스로 대체, 기업과 공공기관을 보다 효과적이고 효율적으로 만들 수 있다. 편견과 차별을 제도화해 불평등을 악화시킬 수도 있다. 궁극적으로 막대한 실업을 유발하거나 아직 알려지지 않은 새로운 전문 분야가 나올 가능성도 있다.

시카고부스경영대학원(chicagoboothreview, A.I. is only human)은 AI에 잠재된 몇 가지 가능성들과 숨겨진 위험을 강조, 정보에 입각한 강력한 디지털 도구 및 기술 응용 프로그램을 개발할 수 있는 길을 제시했다.

AI는 재무, 통신 및 소매업 분야에 우선적인 영향을 미치고 있다. AI는 대출 처리, 주식 트레이딩, 펀드 메니징, 회계 등 같은 규칙 기반 작업을 자동화하고 있다. 은행과 증권회사, 회계 업체에서 사람이 해온 일들을 이제 컴퓨터 알고리즘이 맡고 있다.

수잔 에이시(Susan Athey)스탠포드대 기술경제학 교수는 “AI에 대한 많은 논의가 있긴 하지만 대부분의 기업들이 첫 번째 애플리케이션으로 수행하는 작업은 실제로 매우 간단하다”고 말했다.

AI는 첨단 하드웨어 -자율주행 자동차, 수술 로봇, 스마트 어시스턴트 등-와 제휴 운송, 건강, 삶 전반에 극적인 변화를 가져올 수 있다. AI 기계 학습(ML)은 데이터의 패턴을 인식하고 예측을 만들기 위해 패턴을 사용한다. 복잡한 알고리즘을 통해 방대한 양의 데이터를 처리 할 수있는 컴퓨터 덕분에 이러한 예측은 고도의 정확성으로 향상 될 수 있다. 이러한 방식으로 기업은 고객 또는 시장 행동을 더 잘 예측하기 위해 데이터를 사용할 수 있다. 특정 제안이나 인센티브와 같은 보존 노력으로 어떤 고객을 대상으로 삼을 것인지를 회사가 알고 있다면 상당한 비용을 절감 할 수 있다.

지난해 유럽 집행위원회(European Commission)는 2020년까지 AI 연구 및 응용 프로그램에 15억 유로를 투자 할 것이라고 발표했다. 유럽 전역의 AI 이해를 높이고자 중소기업, 비기술기업 및 공공행정 분야 잠재적 AI 사용자에 촛점을 뒀다.

유럽 집행위원회가 해당프로그램에서 공공 행정을 포함한 것은 사람들이 대량의 데이터를 갖고 부족한 자원을 가장 잘 분배하는 방법을 결정하기 위해 예측을 해야 할 필요가 있는 기계학습 및 AI를 적용 할 수 있다는 사실을 인정한 것이다. 형사 사법에서부터 교육, 건강관리, 주택 정책에 이르기까지 다양하다.

워싱턴대 에일린 칼리스칸(Aylin Caliskan), 베스대(University of Bath) 요안나 브리슨(Joanna J. Bryson),프린스턴대 얼빈드 나르야난(Arvind Narayanan) 등은 기계학습 시스템이 훈련 데이터에 존재하는 고정 관념을 내재화할 수 있음을 발견했다. 연구자들은 사람들이 특정한 단어와 개념 사이 무의식적 연결을 일반적인 기계학습 언어 도구로 찾아내는 암시적 연관성 테스트와 유사한 분석기술을 적용해 이 도구가 인간 과 동일한 편향을 나타냄을 분석했다 .

유럽계 미국인 이름은 아프리카계 미국인 이름에 비해 유쾌한 말과 더 밀접한 관련이 있었다. 여성 이름은 남성 이름에 비해 직업 지향 단어보다는 가족적 의미가 있는 단어와 더 밀접하게 관련돼 있었다.

사회를 위한 AI

컴퓨터 프로그래머는 인종편향 알고리즘을 제한 할 수 있다. 코넬대 존 클라인버그(Jon Kleinberg), 시카고대 헤리스 공공정책 스쿨(Harris School of Public Policy) 옌 루드윅(Jens Ludwig), 시카고대 부스경영대학원 멀레인아덴(Mullainathan), 그리고 하버드대 에쉬시 람바찬(Ashesh Rambachan)은 기계학습 알고리즘의 잠재적 편향을 보상하도록 인종 및 예측 결과에 대한 해석을 조정함으로써 공평한 결과를 얻을 수 있다고 주장했다.

인공 지능의 사회적 사회적 잠재력 편견, 고정관념 및 투명성에 대한 우려에도 불구하고 AI는 기업과 사회가 더 잘 무시할 수없는 기회를 제공하는 데 도움이 될 수 있다.

이들은 하버드대 박사후 연구원 히말빈두 라카라주(Himabindu Lakkaraju)와 스텐포드대 주르 레스코벡(Jure Leskovec)과 연구에서, 뉴욕의 비영리 탐사저널리즘 매체 프로퍼블리카(ProPublica)가 지적했듯, 사법 위험 평가 도구(judicial risk-assessment tools)가 많은 사회 문제를 해결할 수 있다고 밝혔다.

연구원은 “보석금 결정은 인과관계와 일관된 측정을 보장하지 않는다는 약점을 피하면서 기계 학습의 고유한 강점 – 예측 품질 극대화하는데 달려 있다”고 말했다. 2008년부터 2013년까지 뉴욕시 체포 및 보석 결정에 관한 데이터를 사용, 기계학습 알고리즘 결과와 비교한 판사 판결이 종종 피고인의 도주위험 (뉴욕주 보석 결정 유일한 기준)을 잘못 평가했다는 증거를 발견했다.

판사들은 알고리즘이 가장 위험한 1%로 확인한 피고의 절반을 풀어줬고 그 중 56 %가 법정에 출두하지 않았다. 위험 순서에 따라 피고를 평가한 알고리즘의 도움으로 판사는 수감자를 늘리지 않고 피고인 도주 비율을 약 25 % 줄이고, 수감자를 40 % 이상 줄였다. 또한 알고리즘은 시스템을 보다 공평하게 만드는 동시에 모든 것을 수행 할 수 있었다.

연구원은 “적절히 수행 된 재순위 정책은 범죄와 수감 인구를 줄이는 동시에 인종 간 격차를 줄이는 효과가 있다. 이 경우 알고리즘은 인종 간 형평성을 위한 도움이 됐다”고 말했다.

“AI의 도래, 그 개발과 활용을 통해 도움을 받는 것은 결국 사람이다.”

스텐포드대 사라드 고엘(Sharad Goel), 뉴욕대 라비 쉬로프(Ravi Shroff)는 기계학습을 사용해 뉴욕 ‘스탑&프리스크정책(stop-and-frisk policy)’에서 통계적으로 가장 관련이 있는 요인에 집중함으로써 정책을 개선 할 수 있다고 판단했다. 뉴욕 경찰이 잠재적 범죄자를 단속하기 위해 순찰 경관이 의심 가는 보행자를 불러세워 무기나 마약소지 여부를 검문 검색한 정책이다. 2011년 한 해 동안 68만 여명의 시민이 그 대상이 됐다.

연구에 따르면 2008년과 2012년 사이에 흑인과 히스패닉 사람들이 뉴욕 인구의 약 절반을 차지했음에도 불구하고 그 중 80%정도가 검문검색을 위해 보행을 제지당했고, 경찰이 무기를 소지를 의심했던 이들 중 90%는 결백했다. 2011년에서 2012년 사이 사례에 초점을 맞춘 연구원은 정지(stop) 시점의 43%가 무기를 발견할 확률이 1%미만이라는 사실을 발견했다. 그들의 기계 학습 모델은 정지의 58%만 수행해 90%의 무기 소지를 탐지할 수 있다고 판단했다. ‘의심스러운 부풀림(bulge)’과 같은 무기의 존재를 나타낼 가능성이 가장 큰 세 요인을 고찰함으로써 경찰은 8%의 정지만으로 무기 소지자 절반을 확인할 수 있었다.

이러한 전략을 채택하면 검문검색을 위해 중지된 사람들 사이에서 인종적으로 평등한 균형을 유지할 수 있다. 이러한 결과는 AI가 인류 사회복지를 개선 할 수 있는 가능성을 암시한다. 현명하게 사용하면 효율성과 효과성을 제고, 범죄를 늘리지 않고도 수감자도 줄일 수 있다.

AI 실현을 위해 기술을 개발하고 그 도움을 받는 것은 결국 사람이다.