인공지능(AI) 기계학습(Machine Learning) 모델의 의사 결정 방법을 아는 것은 기술이 의학, 금융 및 운송 등에 활용하는 데 중요한 부분이다.

자율주행차가 사고 발생시 조치를 설명할 수 있다면 기존 규제 및 보험 등 기술적 접근이 쉬워질 수 있다.

구글, AWS은 최근 발표한 신규 클라우드 서비스에 AI/ML모델 통합 가능한 설명 가능한 AI 서비스를 소개했다.

아마존 세이지메이커

아마존웹서비스(Amazon Web Services, AWS)는 미국 라스베이거스에서 진행 중인 리인벤트(AWS re:Invent) 행사에서 개발자가 맞춤형 ML 모델을 보다 쉽게 구축, 디버그, 훈련, 도입, 모니터링, 운영할 수 있는 신규 서비스를 발표했다.

신규 서비스를 통해 AWS는 개발자들에게 시스템 통합 관리, 자동 모델 생성, 디버깅과 프로파일링, 모델 이탈 감지(model drift detection) 등 새로운 툴을 최초의 머신러닝용 통합 개발 환경(IDE)인 아마존 세이지메이커 스튜디오를 통해 제공한다.

신규 서비스 가운데 설명가능성 관련 아마존 세이지메이커 디버거(Debugger)는 개발자들이 모델 훈련을 디버깅, 프로파일링해 정확도를 높이고 훈련 시간을 단축하고, 머신러닝 모델에 대한 이해도를 높일 수 있도록 지원한다. 훈련과 관련된 문제가 생길 경우, 디버거는 경고와 함께 복원/권고 표시를 띄운다. 디버거는 모델이 어떻게 작동하고 있는지 해석할 수 있도록 지원한다. 뉴럴 네트워크의 설명 가능성 초기 단계에 해당한다.

쿠버네티스 워크플로우 통합

쿠버네티스(Kubernetes)와 같은 컨테이너 관리 도구는 응용 프로그램 개발을 간소화한다. 다양한 조직에서 컨테이너를 활용한 기계 학습 모델을 교육, 평가 및 배포하기 위해 쿠버네티스를 채택했다. ML모델을 제공하는 것은 일반적으로 부피가 커지기 때문에 번거롭다. 이러한 과제를 해결하기 위해 AWS는 쿠버네티스 사용자를위한 세이지메이커(SageMaker)를 도입해 컨테이너를 통한 ML모델로 손쉽게 작업할 수 있다.

AWS는 아마존 세이지메이커와 쿠버네티스 워크 플로우를 통합, 쿠버네티스를 사용하는 개발자가 세이지메이커를 신속하게 호출할 수 있게 했다. 이는 개발자와 데이터 과학자가 ML 모델을 보다 쉽게 구축, 교육 및 배포 할 수 있도록 도와주는 모듈식 완전 관리형 서비스다. 이를 통해 관리자는 데이터과학 프로젝트를 개발 및 제공하는 동안 유연성을 높일 수 있다. 사전 구성 및 최적화한 컴퓨터 리소스를 통해 워크 플로우를보다 효과적으로 관리할 수 있다.

구글 xAI

구글(Google) AI 플랫폼 ‘설명 가능한 AI(xAI)’툴은 ML모델 결정에 가장 큰 영향을 미치는 요인을 제시한다. 사용자는 모델 성능을 평가하고 편향된 결과를 완화할 수 있다.

xAI는 구글 클라우드 AI 플랫폼 및 오토ML(AutoML) 모델 및 API 사용자에게 제공된다. xAI의 핵심은 모델의 예측에서 각 속성(attributes)의 상대적 중요성을 보여주는 그래프 또는 데이터 유형에 따른 맵을 제공하는 도구다.

통합 그라디언트(Integrated Gradients)라는 도구는 신경망 등 속성이 수학적으로 분류되는 다른 모델 위한 것이다. 예측된 결과에서 속성의 등급을 매기는 샤플리 값(Shapley value, 게임 이론에서 빌려온 것으로 각 플레이어가 협력 결과에 얼마나 중요한 지를 측정하는 개념)을 각 기능에 할당한다. 구글에 따르면 이는 대부분의 신경망에 적용이 가능하다.

 많은 앙상블 신경망과 트리는 속성의 중요도를 구별할 수 없었다. ‘Sample Shapley’라는 도구는 망 전체에 복제된 순열을 샘플링 한 후 앙상블에서 각 속성의 등급을 매긴다. 동일한 데이터 세트에서 두 모델의 성능을 비교하는 ‘What-If’ 도구를 통해 결과 변화를 확인할 수 있다.

이에대해 TDS(Towards Data Science)는 데이터 세트에 숨어있을 수 있는 상관 관계가 미묘하기 때문에 xAI는 너무 복잡하며, 특히 앙상블 신경망에서 편향에 대한 의미있는 통찰력을 제공 할 수 없다고 주장한다.

사실 인간의 결정도 항상 설명 가능한 것은 아니다.

구글도 xAI 백서는 AI 의사결정을 설명하는 기술에 인간 편견이 영향을 줄 수 있는 여러 가지 방법을 자세히 설명한다. 인간 분석가는 자신의 편견을 유발하는 속성을 강조 표시하는 설명을 무시할 수도 있다. 무엇보다 머신러닝 모델이 올바른 결정을 내릴 수 있는 방법이 필요하다.

*관련기사