인공지능이란

인공지능은 학자들 사이에서도 의견이 다양하게 형성되고 있다. Bellman(1978)은 인간의 사고, 의사결정, 문제 해결, 학습 등의 활동에 연관 지을 수 있는 자동화라고 정의했고, Winston(1992)은 인지와 추론, 행위를 가능하게 하는 계산의 연구로, Kurzwell(1990)은 사람이 기능적으로 수행해야 하는 기능을 수행하는 기계의 제작을 위한 기술이라고 정의 내렸다.

과학기술정보통신부 4차산업혁명위원회(2018)는 인공지능이란 인지, 학습 등 인간의 지적능력(지능)의 일부 또는 전체를 ‘컴퓨터를 이용해 구현하는 지능’을 의미한다고 정의했다.

이들 정의를 종합하면 인공지능이란 ‘인지, 추론 등을 통한 학습과 문제해결 등 인간의 사고 능력을 기계적으로 구현, 자동화한 시스템을 의미한다.

특히, 인공지능 기술은 단순 신기술이 아닌 4차 산업혁명을 촉발하는 핵심 동력으로 산업혁명의 원동력이된 증기기관, 전기 등에 해당하는 범용기술로서의 특성을 지닌다. 인공지능 기술은 다른 분야로 급속히 확산하고 있다. 소프트웨어 측면에서는 정교한 아키텍처를 기반으로 여러 세대에 걸친 개발역량이 축적되고 통합되면서 발전이 가속화하고 있다. 하드웨어 측면에서도 기존 컴퓨터 연산능력이 펩타스케일에서 엑사스케일로 확대 중이며, 양자컴퓨테이션 개발도 경쟁적으로 이뤄져 미래 인공지능 발달은 한층 가속화할 전망이다.

결과적으로 인공지능은 IT분야를 넘어 전 산업분야에서 파괴적 기술혁신을 통해 산업구조의 변화를 야기하고, 사회 제도 변화까지 유발할 것으로 기대되고 있다.

페이스북 인공지능 연구팀 리더, 딥러닝 권위자 얀 르쿤.

약한 인공지능과 강한 인공지능(범용인공지능, AGI)

초기 인공지능 연구에 대한 대표적인 정의는 다트머스 회의에서 존 매카시가 제안한 “기계를 인간 지식수준으로 행동하게 만드는 것”이다.

이는 사람과 비슷한 수준으로 세상을 인식하고 정보를 조합하고 이해하는 정도의  ‘약한 인공지능(weak AI)’에 해당한다. 약한 인공지능은 어떤 문제를 실제로 사고하거나 해결할 수는 없다. 오늘날 이 분야의 연구는 주로 미리 정의된 규칙의 모음을 이용해서 지능을 흉내내는 컴퓨터 프로그램을 개발하는 것에 맞추어져 있다.

이 정의는 범용인공지능(AGI, 강한 인공지능)을 포괄하지 못한다.

강한 인공지능은 어떤 문제를 실제로 사고하고 해결할 수 있는 수준을 의미한다. 즉, 인공지능의 강한 형태는, 지각력이 있고, 스스로를 인식하는 것이라고 말할 수 있다. 이론적으로 강한 인공지능은 크게 두가지 형태를 지닌다. 인간처럼 행동하고 사고하는 인간형 인공지능과 인간과 다른 형태의 지각과 사고 추론을 하는 비인간형 인공지능이다.

인공지능의 또다른 정의는 인공적인 장치들이 가지는 지능이다. 대부분 정의들이 인간처럼 사고하는 시스템, 인간처럼 행동하는 시스템, 이성적으로 사고하는 시스템, 이성적으로 행동하는 시스템이라는 4개의 분류로 분류된다.

 “강한 인공지능이 등장하면 인류는 멸망한다. 그런데 그게 왜 나쁜가? 인류가 멸망하는 것이 왜 나쁜지 설명해보라.” 앤드류 무어(Andrew Moore)

강인공지능(AGI), 철학적 담론

존 설이나 허버트 드레이퍼스와 같은 몇몇 철학자들은 기계에 인간의 지능이나 의식을 구현하는 작업의 실현 가능성에 대한 철학적 바탕을 두고 논쟁을 벌였다. 드레이퍼스는 그의 저서 “컴퓨터가 할 수 없는 것들: 인공적인 추론에 대한 비평”에서 의식이라는 것은 룰이나 논리 기반 시스템 또는 물리적인 형태를 가지고 있지 않은 시스템에서 찾을 수 없으나, 신경망(neural network)이나 그 유사한 메커니즘을 이용하는 로보틱 시스템은 인공지능을 실현할 수 있는 가능성이 있다고 주장했다.

다른 철학자들은 엇갈린 관점을 고수한다. 많은 사람들이 약한 인공지능 정도는 가능하다고 본다. 일부는 강한 인공지능을 지지한다. 대니얼 C. 데넷은 그의 ‘의식에 대한 설명’에서 만일 마법의 불꽃이나 영혼이 없다면 인간은 기계에 불과하다며, 지능에 대해서만 인간이라는 기계가 다른 실현 가능한 모든 기계와 다르게 특별 취급을 받아야할 이유를 묻고 있다.

어떤 철학자들은 우리가 약한 인공지능을 가능한 것으로 받아들인다면, 강한 인공지능 역시 받아들여야 한다고 주장한다. 지능은 (외견상) 보여지는 것이지, 진정한 무엇이 아니라는 약한 인공지능의 입장은 많은 비판을 받고 있다. 사이먼 블랙번은 지능이 진정한 것인가에 대해서 말할 수 있는 방법이 없다고 지적한다. 그는 우리는 단지 믿음 또는 신념 위에서 그것을 다룰 뿐이라고 이야기한다.

강한 인공지능을 지지하는 사람들은 인공지능에 반대하는 주장이 결국 특권에 바탕을 둔 오만함으로 인해 인간에게는 (기계에는 없는) 마법의 불꽃(영혼)이 있다거나 지능은 기계로는 성취될 수 없는 그 무엇이라는 정도라고 말한다.

이에 대해 강한 인공지능을 뒷받침하는 논증은 인간의 마음은 유한 상태 기계(Finite State Machine)이고, 따라서 처치-튜링 이론은 뇌에 적용 가능하다고 말한다. 뇌는 순수한 하드웨어로 인간의 마음은 오로지 뇌를 통해서만 존재한다는 것이다.

로저 펜로즈를 포함한 몇몇 사람들은 처치-튜링 명제의 적용이 가능하지 않다고 논박한다. 로저 펜로즈의 주장은 우주 안에서 고도연산(hypercomputation)이 가능하다는 논증에 바탕을 두고 있다. 양자역학과 뉴턴 역학에 따르면 이러한 고도연산은 가능하지 않지만, 특별한 시공간(space time)에서는 가능한 것으로 생각되기도 한다. 그러나 일반적으로는 우리의 우주는 그와 같은 고도연산이 가능할 정도로 꼬이지(convoluted) 않았다는 합의가 존재한다.

독립성, 자아, 정신, 자유의지를 갖는 강한 인공지능은 불가능할 것인가? 만약 강한 인공지능이 가능하다면 인류의 미래는 어떻게 될 것인가?

스티븐 호킹(Stephen Hawking) 박사와 엘론 머스크(Elon Musk)는 강한 인공지능이 생기면 인류가 멸망한다, 강한 인공지능은 핵폭탄보다 더 위험하다고 경고했다. 닉 보스트롬(Nick Bostrom) 교수는 ‘슈퍼 인텔리전스(Superintelligence)’ 책에서 인공지능은 만들어 질 수 밖에 없고 그냥 인공지능이 아니라 초지능으로 나아갈 수밖에 없다고 썼다.

“이제 인간은 지금껏 스스로 해왔던 약속을 지켜야만 한다. 지금껏 인간이 인간의 약속을 어겨도 별 문제가 없었지만, 이제는 더 뛰어난 지능이 그 약속의 존재를 알게 되어 인간이 그 약속을 지키는지 아닌지를 판단할 것이다.”

우려스려운 것은 강한 인공지능이 생겼을 때 인류에게 주는 영향에 대한 모든 시뮬레이션은 인류멸망으로 끝이 났다. 그렇다면, 강한 인공지능 시대 인간의 미래를 어떻게 될[까?

김대식 KAIST 교수는 저서 ‘김대식의 인간 vs 기계’에서 강한 인공지능이 도래한다면 ‘지구에 인간이 있는 것이 좋다’라는 인식을 갖게하는 것이 최선이라고 지적한다. 인류가 없으면 기계도 외로울 것이라고 설득하거나, 아니면 계몽을 완성하여 도덕적으로 성숙하는 것이 필요하다는 것이다.