유럽연합(EU) 유럽 집행위원회(European Commission)가 인공지능(AI) 가이드라인 초안을 발표했다.

EU차원에서 ‘시민 복지’라는 인간 중심 윤리적 목적을 달성하면서 신뢰할 수 있는 기술적 발달 기준을 구체적으로 제시했다.

지난달 18일 발표한 가이드라인 ‘ 유럽 집행위원회 인공지능 고위 전문가그룹(The European Commission’s HIGH-LEVEL EXPERT GROUP ON ARTIFICIAL INTELLIGENCE)’은 AI가 가진 변혁적 영향력을 경제적 번영과 성장에 활용하면서 특정 위험은 최소화하는데 초점을 뒀다.

가이드라인은 신뢰성을 보장해야만 AI의 혜택을 완전히 누릴 수 있다고 강조한다. ‘유럽 주도 신뢰할 수 있는 AI’를 표방하며 윤리적 인공지능 선두주자로 기술적 발달을 이끈다는 목표다. 글로벌 수준에서 AI 윤리적 기본 틀에 대한 반영과 토론을 촉진하겠다는 비전도 제시했다.

가이드라인 최종 버전은 2019년 3월 발표할 예정이다.

이하 가이드라인 전문.

EXECUTIVE SUMMARY

이 문서는 유럽 연합이 제정한 AI 윤리 지침 초안을 구성한다. 유럽집행위원회 인공 지능 고위 전문가 그룹(AI HLEG) 최종 버전은 2019년 3월 발표할 예정이다.

인공지능(AI)은 우리 시대의 가장 변혁적인 힘 중 하나이며 사회 구조를 변화시킬 수밖에 없다. 번영과 성장을 증진시킬 수 있는 좋은 기회를 제공한다. 유럽은 이를 달성하기 위해 노력해야 한다. 지난 10 년 동안 방대한 양의 디지털 데이터를 활용할 수 있었고, 강력한 컴퓨팅 아키텍처가 가능했으며, 기계 학습과 같은 인공 지능 기술이 진보해 많은 발전이 이뤄졌다. 자율주행 차량, 의료, 가정 / 서비스 로봇, 교육 또는 사이버 보안 분야에서 AI가 지원하는 주요 개발은 일상 생활의 질을 향상시키고 있다. 또한 AI는 세계보건 및 복지, 기후 변화, 신뢰할 수 있는 법적 및 민주적 시스템 및 유엔 지속 가능 발전 목표에 명시된 다른 많은 도전과 같은 전세계의 과제를 해결하는 데 핵심이다.

개인 및 사회에 엄청난 이익을 창출 할 수 있는 AI는 또한 적절하게 관리해야 하는 특정 위험을 야기한다. 전체적으로 인공 지능의 이점이 위험보다 크다는 것을 감안할 때 위험을 최소화하면서 인공 지능의 이점을 극대화 할 수 있는 길을 따라야 한다.

우리가 올바른 방향을 유지하려면 AI에 대한 인간 중심적 접근이 필요하다. AI의 개발과 사용이 그 자체로 의미가 있는 것이 아니라 인간 복지를 증진하려는 목표를 가지고 있음을 명심해야 한다. 신뢰할 수 있는 인공 지능은 우리의 북극성(지향점)이 될 것이다. 인간이 기술을 신뢰할 수 있는 경우에만 인공 지능의 혜택을 자신 있게 누릴 수 있기 때문이다.

신뢰할 수 있는 AI는 (1) 기본적인 권리, 적용 가능한 규제 및 핵심 원칙 및 가치를 존중하고, ‘윤리적 목적’을 보장해야 하며, (2) 선의와 함께 기술적으로 강력하고 신뢰할 수 있어야 한다. 기술 발달은 의도하지 않은 해를 유발할 수 있다.

본 가이드 라인은 신뢰할 수 있는 AI를 위한 프레임 워크를 제시한다. 제 1 장은 준수 해야하는 기본 권리, 원칙 및 가치를 설정함으로써 AI의 윤리적 목적을 보장하는 것을 다룬다. 제 2 장은 그러한 원칙들로부터 신뢰할만한 인공 지능의 실현에 관한 지침을 도출하여 윤리적 목적과 기술적 견고성을 모두 다룬다. 신뢰할 수 있는 AI에 대한 요구 사항을 열거하고 구현에 사용할 수 있는 기술적 및 비기술적 방법의 개요를 제공한다. 3 장은 신뢰할 수 있는 인공 지능에 대한 구체적이지만 비포괄적 평가 목록을 제공함으로써 요구 사항을 연속적으로 관리한다. 이 목록은 특정 유즈 케이스에 적용한다.

윤리적 AI를 다루는 다른 문서들과는 대조적으로 이 가이드 라인은 AI의 핵심 가치와 원칙에 대한 추가 목록을 제공하기 보다 AI 시스템에 대한 구체적인 구현과 운영에 대한 지침을 제공하기 위한 것이다. 이러한 지침은 제 1 장 추상적인 내용(기본적인 권리, 원칙 및 가치)에서 제 3 장 구체적인 평가항목에 이르기까지 세 계층으로 제공된다.

이 가이드 라인은 회사, 조직, 연구원, 공공 서비스, 기관, 개인 또는 기타 단체를 포함해 AI를 개발, 배포 또는 사용하는 모든 관련 이해 관계자를 대상으로 한다. 이 가이드 라인의 최종 버전에서는 이해 관계자가 자발적으로 이를 보증 할 수 있는 메커니즘이 제시 될 것이다.

중요한 것은 이 가이드 라인이 정책 결정 또는 규제 (AI HLEG의 두 번째 발간물 : 2019 년 5 월 예정)의 대체물로 의도 된 것이 아니며 그 도입을 저지하기 위한 목적도 아니다. 또한 가이드 라인은 기술 및 지식, 진화와 관련하여 지속적인 관련성을 보장하기 위해 정기적으로 업데이트해야 하는 살아있는 문서로 간주되어야 한다. 그러므로 이 문서는 “신뢰할 수 있는 AI made in Europe”토론의 출발점이 돼야 한다.

유럽은 글로벌 수준에서 경쟁력을 갖출때 AI에 대한 윤리적 접근 방식을 전파 할 수 있다. AI에 대한 윤리적 접근은 사용자 신뢰를 창출하고 AI의 폭 넓은 이해를 촉진하므로 책임있는 경쟁력을 실현하는 데 중요하다. 이 가이드 라인은 유럽에서 인공 지능 혁신을 저지하는 것이 아니라 개인과 공동 이익을 보호하고 이익을 얻는 것을 목표로 하는 AI를 개발하기 위해 윤리를 적용하는 것을 목표로 한다. 이를 통해 유럽은 최첨단의 안전하고 윤리적인I인공 지능의 선두 주자로 자리 매김 할 수 있다. 유럽 ​​시민들은 신뢰성을 보장해야만 AI의 혜택을 완전히 누릴 수 있다.

마지막으로, 유럽을 넘어선 이 지침은 또한 세계 수준에서 AI에 대한 윤리적 기본 틀에 대한 반영과 토론을 촉진하는 것을 목표로 한다.

EXECUTIVE GUIDANCE

가이드 라인 각 장은 신뢰할 수있는 AI 달성에 대한 지침을 제공한다. AI를 개발, 배포 또는 사용하는 모든 이해 관계자에 대한 지침은 다음과 같다.

제 1 장 : 윤리적 목적 달성을 위한 주요 지침 :

– 인공 지능이 인간 중심적(human-centric)인지 확인한다.

인공 지능은  “윤리적 목적”에 기반해 개발, 활용해야 한다. 근본적인 권리, 사회적 가치와 윤리적 선행의 원칙(선을 행함), 부작용 없음(해를 끼치지 않음), 인간의 자율성, 정의, 설명가능성을 반영해야 한다. 신뢰할 수 있는 인공 지능(Trustworthy AI)개발이 핵심이다.

– 가능한 영향을 전향적으로 평가할 기본 권리, 윤리적 원칙 및 가치에 의지한다.

인간에 대한 인공 지능과 공동선. 아동, 장애인 또는 소수 집단과 같은 취약 집단과 관련된 상황에 특히 주의한다. 고용주와 직원, 또는 기업과소비자와 같은 권력이나 정보의 비대칭성 관련 상황에도 주의한다.

– AI는 개인에게 실질적인 이익을 가져다주는 한편, 부정적인 영향을 미칠 수 있다. 비판적 관심 영역에 민감하라.

제 2 장 : 신뢰할 수있는 AI 실현을 위한 주요 지침 :

– 신뢰할 수 있는 인공 지능 (AI)에 대한 요구 사항을 가장 초기 설계 단계부터 통합한다.

책임성, 데이터 거버넌스, 모두를 위한 디자인, 인공지능 자율성(autonomy) 거버넌스 감독, 차별 금지, 인간의 자율성 존중, 개인 정보 보호, 견고성, 안전, 투명성.

– AI 시스템에 요구 사항의 구현을 보장하기 위한 기술적 및 비기술적 방법을 고려, 시스템 작업 팀을 구성 할 때 이러한 요구 사항을 염두에 둔다. 시스템 자체, 테스트 환경 및 시스템의 잠재적 애플리케이션에 대한 정보를 제공한다.

– 이해 관계자 (고객, 직원 등)에게 정보를 명확하고 능동적으로 제공한다. AI 시스템의 기능과 한계에 대해 실제적인 기대치를 설정할 수 있다. 이 점에서 AI 시스템의 추적 가능성을 보장하는 것이 중요하다.

– 신뢰할 수 있는 AI를 조직 문화의 일부로 만들고 이해 관계자에게 정보를 제공한다. AI 시스템의 설계 및 사용에 어떻게 구현되는지 신뢰할 수 있는 AI도 있다. 신뢰할 수 있는 AI가 조직의 의무 의무 또는 행동 강령에 포함되어야 한다.

– AI 시스템의 설계 및 개발에 이해 관계자의 참여와 참여를 보장한다. 팀을 구성하고 산출물을 구현 및 테스트 할 때 다양성을 보장한다.

– 특히 중요한 상황이나 상황에서 AI 시스템의 감사 용이성(facilitate the auditability )을 증진한다. 가능한 범위 내에서 다양한 입력에 대한 개별 결정을 추적 할 수 있도록 시스템을 설계한다. 데이터, 사전 훈련 된 모델 등을 포함한다. 또한 AI 시스템의 설명 방법을 정의한다.

– 책임성 거버넌스(accountability governance)를 위한 구체적인 프로세스를 보장한다.

– 관리자, 개발자, 사용자 및 고용주가 신뢰할 수있는 인공 지능에 대한 훈련을 받는다.

– 서로 다른 목표 사이에 근본적인 긴장이 있을 수 있음을 염두에 둔다.(투명성은 정보 오남용을 초래할 수 있다. 편견 식별 및 수정은 개인 정보 보호와 상충할 수 있다.) 이러한 절충 사항을 전달하고 문서화한다.

– 신뢰할 수 있는 인공 지능에 대한 요구 사항을 달성하기 위한 연구와 혁신을 촉진한다.

제 3 장 : 신뢰할 수 있는 AI 평가를 위한 주요 지침

– AI를 개발, 배포 또는 사용할 때 신뢰할 수 있는 AI에 대한 평가 목록을 채택하고 시스템이 사용되는 특정 유스 케이스에 적용한다.

– 평가 목록은 완전한 것이 아니다. 신뢰할 수 있는 AI를 보장한다는 것은 요구 사항을 식별하고 평가하는 연속 프로세스다. 솔루션을 제공하고 AI 시스템의 전체 수명주기 동안 개선 된 결과를 보장한다.

이 지침은 인공 지능에 대한 인간 중심적 접근 방식을 수용하는 비전의 일부로 유럽이 윤리적이며 안전한 최첨단 인공 지능을 선도할 수 있도록 한다. 이는 유럽 ​​시민의 복지 증진을 위한 신뢰할 수 있는 인공 지능(Trustworthy AI)을 촉진하고 가능케 할 것이다.

*참고 : 가이드라인 원문