미국이 인공지능(AI) 규제를 최소화하는 적극적이고 실질적인 접근 원칙을 제시했다.

백악관 과학기술정책국(OSTP)은 6일(현지시각) 민간 부문에서 인공지능(AI) 활용을 위한 법과 규칙 고안 시 고려해야 할 10가지 원칙의 핵심으로 규제 ‘확대(overreach)’ 제한을 밝혔다. 도널드 트럼프 대통령의 인공지능(AI) 집행 명령에 대한 후속 조치로 AI 규정 초안 작성에 대한 최초 원칙이다.

관련 원칙에 따르면 미국 내 기관들이 도입하는 모든 AI 규제는“공정성, 차별 금지, 개방성, 투명성, 안전 및 보안” 등을 장려하는 것을 목표로 해야 한다. 새로운 규칙을 도입하기 전에는 ‘위험 평가 및 비용 편익 분석’을 선행, 과학적 증거와 대중의 피드백을 포함해야 한다.

향후 민간 부문에서는 90일 동안 관련 계획에 대한 피드백을 제출, 그 이후 연방 기관은 180일 동안 원칙 이행 수단을 연구해야 한다.

OSTP는 경제협력개발기구(OECD), G7, EU와 같은 주요 국제기구들이 AI에 대한 더 많은 규제를 고려하는 불확실한 전망 속에서 다른 국가들도 이번 이니셔티브를 따를 것을 촉구했다.

OSTP는“유럽과 동맹국은 강력한 혁신을 저해하는 모델을 피하는 유사한 규제 접근법을 고려해야한다. AI의 권위주의적 사용에 대응하는 가장 좋은 방법은 미국과 국제 동맹국이 공통 가치와 일치하는 방식으로 기술적 진화를 도모하면서 글로벌 혁신 허브가 되는 것”이라고 밝혔다.

미 정부 CTO 마이클 크라시오스(Michael Kratsios)는 CES에서 관련 원칙을 공식적으로 발표할 예정이다. 관련 내용은 미국이 AI 기술을 과도하게 규제하고 있다는 입장으로 적극적인 AI기술 도입과 할용을 예고한 것이다.

OSTP에 따르면 기관들은 시범 프로그램을 포함해 AI 규제를 줄이고 더 많은 연방 데이터 세트를 공개함으로써 AI 개발 장벽을 최소화해야 한다.

한편, 전문가들은 감시 및 자율 살상무기에 대한 AI기술 활용을 우려해왔다.

*OSTP 10대 AI 원칙

AI에 대한 대중의 신뢰 — AI에 대한 정부의 규제 및 비 규제 접근 방식은 신뢰할 수 있는 강력한 AI 응용 프로그램을 장려해야 한다.

공공 참여 — 기관은 대중이 규칙 결정 프로세스의 모든 단계에 참여할 수 있는 충분한 기회를 제공해야 한다.

과학적 무결성 및 정보 품질- 기관은 정책 결정에 정보를 제공하고 AI에 대한 대중의 신뢰를 증진하는 검증 가능한 증거를 공개적이고 객관적으로 추구함으로써 AI에 대한 기술 정보를 개발해야 한다.

위험 평가 및 관리- 감수할 수 있는 위험을 결정하는데 있어 어떤 위험이 예상되는 이익보다 비용보다 큰, 수용할 수 없는 피해를 줄 수 있는 지를 평가하는 위험 기반 접근 방식을 사용해야 한다.

혜택 및 비용 – 기관은 규정을 고려하기 전에 모든 사회적 혜택 및 분배 효과를 신중하게 고려해야 한다.

유연성 – 규정은 AI 응용 프로그램의 빠른 변경 및 업데이트에 적응해야한다.

공정성과 차별 금지 – 기관은 문제가 되는 AI 응용 프로그램에서 생성한 결과 및 결정과 관련해 공정성과 차별 금지 문제를 고려해야 한다

공개 및 투명성 — 투명성과 공개는 AI 응용 프로그램에 대한 대중의 신뢰와 신뢰를 높일 수 있다.

안전 및 보안 — 기관은 AI 시스템에 의해 저장 및 전송되는 정보의 기밀성, 무결성 및 가용성을 보장하기 위해 적절한 통제에 특별한 주의를 기울여야 한다.

기관 간 조정 — 기관은 경험을 공유하고 미국의 혁신과 성장 및 AI를 발전시키는 AI 관련 정책의 일관성과 예측 가능성을 보장하기 위해 서로 협력해야한다.