자본주의는 복잡하고 적응적 시스템으로 여러 번의 주요 변형을 통해 살아남았다. AI 등 파괴적 IT기술은 비시장영역을 상업화시키는 자본주의의 적응력에 새로운 국면을 초래했다.

‘포스트자본주의:새로운 시작’의 저자 폴 메이슨은 탈자본주의의 첫 단계에서 상품과 서비스의 비시장 생산 증진, 지대추구에 반대하는 입법, 혁신과정에서 지적재산권(IP)제한 등 필요하다고 말한다. IT혁신중 P2P, 비계층적, 오픈소스 운동은 비시장영역에서 생산을 증진하고 있다. 이들 과정을 통해 교통, 주거, 교육 등 생활 전반에서 무상으로 보편적인 서비스 제공, 기본소득제도까지 구현할 수 있다.

14일 서울 대한상공회의소 국제회의장에서 열린 ‘시사인’ 주최 2018 인공지능 컨퍼런스 ‘인공지능, 인간의 선택을 묻다’에서 영국 IT저널리스트 폴 메이슨 (Paul Mason)은 ‘포스트케피탈리즘, 왜, 어떻게’ (Postcapitalism,why? how?)를 주제로 강연을 했다.

그는 “AI시대 우리는 기술에 대한 찬사(유포리아) 속에 경제적으로는 우울한 삶을 살고 있다”고 기존 IT기술 시대 자본주의 체제에 문제를 제기했다.

그가 말하는 ‘고장 난 정보자본주의(Dysfunctional infocapitalism)’는 네 가지 측면에서 그 징후를 찾아볼 수 있다. 먼저 가격측면에서 단일 회사의 독점 문제다. 글로벌 휴대폰 시장을 보면 소수 몇개 회사가 시장을 사실상 독점하고 있다. 다음으로 노동 측면에서는 저렴한 비용의 높은 수준으로 강요된 노동이다. AI와 정보기술의 결합은 인간의 직업을 대체하며 임금 수준을 점점 더 낮게 만들고 있다. 네트워크 측면에서는 지대추구현상이 나타나고 있다. 경제학에서 잉여이익은 투자의 증가, 노동의 질 개선, 생산과 삶의 질 개선으로 나타나야 하지만 이익은 네트워크를 점령한 소수에 독점되는게 현실이다. 구글, MS, 페이스북, 우버 등 IT 공룡기업들이 그렇게 탄생했다.

마지막 측면은 정보의 풍부함 이면에 넘쳐나는 지적재산권이다. 정보는 전에 없이 풍부하지만 지적 재산권이 가치있는 정보의 무료화를 제한하고 있다. 이것들이 합쳐져 정보자본주의의 위기로 나타난다.

자본주의는 복잡하고 적응적인 시스템으로 여러 번의 주요 변형을 통해 살아남았다. 자본주의는 사실 낮은 가격에 제공 할 수 있는 상품에 높은 가격을 부과하며, 비시장영역을 상업화시킨다. IT기술 시대는 자본주의의 적응력에 파괴적 영향을 초래한다. 폴은 “많은 이들의 기대와는 달리 4차 산업혁명은 자본주의를 악화시킬 것”이라고 예상했다.

AI 등 ITC기술의 발달은 파괴적 가격 메커니즘, 노동과 임금의 분리, 네트워크 효과, 정보 대량생산 결과를 초래했다. 먼저 AI와 결합한 자동화는 자본주의 가격 매커니즘에 파괴적 영향을 미친다. 재생산 비용이 0에 가까워지면서 서비스와 상품에 가격을 매기기 어려워진다.

물리적 제조업과 단순 서비스에서 의사소통, 감정서비스 영역까지 일자리를 기계가 대체하기 시작하면서 인간의 노동과 임금 체계가 분리된다. 네트워크 효과로 막대한 정보가 생산되고 축적되지만 지적재산권은 풍부한 정보의 시대 가치있는 정보를 희소하게 만드는 역설을 초래한다.

AI, 활용에 따라 ‘좋은 삶’ 기여

반면 메이슨은 AI 기술을 어떻게 활용하느냐에 따라 “아리스토텔레스가 물었던 ‘어떻게 도시민들이 좋은 삶을 살수 있는가’에 대한 해답을 줄 수도 있다”고 말한다. 철학적, 이상적으로 추구했던 사회가 파괴적 영향력을 갖는 IT 기술로 가능해 질 수 있다는 것이다.

일자리 대체하는 로봇에 ‘자본’, ‘노동’ 측면 세금 부과해야

영국 브리스톨 로보틱스랩을 이끄는 앨런 윈필드(Alan Winfield) 로봇윤리(Robot Ethics) 교수는 로봇이 인간의 일자리를 상당부분 대체할 전망 속에 일자리 문제 해결을 위해 ‘로봇세’도입을 주장해왔다,

그는 로봇이 직업을 대체하는 것과 관련한 사회적 윤리적 문제에 관심을 촉구해왔다. 문제는 로봇이 인간의 일자리를 대체하는데 있는 것이 아니라 생산 과정에 로봇 도입으로 발생하는 ‘이익의 공유’에 있다.

윈필드 교수는 “로봇 AI로 유발되는 이익, 재산을 어떻게 모두가 공유하도록 강제할 것인가의 문제”라며 “각국 정부 연구기관이 주도하는 로봇 AI기본적인 연구에 투입하는 공공 펀딩이 세금으로 이뤄진다”고 강조했다.

로봇 윤리에 대한 글로벌 업계와 학계 등 광범위한 논의를 위해 관련 기술의 표준화와 함께 이를 논의하기 위한 거버넌스가 중요하다.

그는 “우리가 기술을 신뢰하는 것은 기술에 대한 신뢰라기보다 표준, 안전 보증 등 투명하고 견고한 거버넌스 프레임이 만든 규제 때문”이라며 “신뢰를 만드는 것은 윤리적 거버넌스, 규제당국, 첵임있는 혁신 표준기구의 입증과 검증, 과장없는 저널리즘 등 공공의 개입 등이다. 이들의 상호작용을 통해 공공 신뢰가 형성된다”고 말했다.

2011년 영국 공학 연구위원회 ‘로봇의 원리’에 따르면 로봇이 아닌 사람에게 윤리적 책임이 있다. 로봇은 제품, 상품이라는 것이다.

윈필드 교수는 “국제 표준화기구 전기전자기술자협회(IEEE)는 관련 기술 표준화 논의를 진행중이다. 이중 P7001 투명성(Trnasparency)가 중요하다. 전제는 왜 자율 시스템이 특정한 결정을 내리는지가 항상 드러나야 한다는 것”이라고 말한다.

이와 관련한 자율주행 베타 테스팅의 윤리적 문제가 2016년 테슬라, 2018년 우버 사고에서 발생했다. 테슬라 운전자는 사고직전 30여초 간 운전대에 손을 대지 않아 주의의무를 게을리 했다는 비난을 받았다. 우버 무인자율주행 자동차는 도로를 횡단하던 사림을 인지하지 못했다. 현실에서 사람을 대상으로 하는 테스트에서 문제가 발생했다.

윈필드 교수는 윤리 원칙으로 투명성, 설명성 등을 강조했다. 그는 “사고 조사에서 투명성은 조사 과정에서 왜 사고가 일어났는지 알아야 한다는 것이다. 항공기의 블랙박스처럼 이를 윤리적 블랙박스(Ethical blackbox)라고 한다. 설명성(Explainability)은 사용자 입장에서 필요한 부분이다. 왜 로봇이 특정한 행동, 발언을 했는지에 대한 이유를 물었을 때 자연어로 대답을 하는 것을 의미한다”고 설명했다.

문제는 윤리적 원리와 정책 간의 간극이 크다는 점이다. 로보틱스와 AI에서 윤리적 거버넌스 원칙은 크게 다섯 가지다.

  1. 윤리적 행동 규범을 갖는다.
  2. 모두가 윤리 훈련을 받는다.
  3. 모든 제품이 윤리적 위험 평가를 거친다.
  4. 윤리적 거버넌스는 투명해야 한다.
  5. 윤리적 거버넌스는 매우 중요하다.