생각만으로 두뇌-컴퓨터 인터페이스(neural interface)를 통해 대화를 할 수 있을까?

미국 샌프란시스코의 캘리포니아대(University of California) 연구원은 최근 연구에 참가한 이들의 발화 과정에서 뇌 활동이 스피치 합성 버전을 어떻게 만들 수 있는지 제시했다. 일반적으로 연구자가 신호를 해독하는 과정은 수주에서 수개월이 걸린다.

30일(현지시각) 네이처 커뮤니케이션스(Nature Communications)에 게재된 추가 연구결과는 이 기술을 현실에서 구현하기 위한 구체적인 단계에 대해 설명했다.

연구자들은 두뇌 활동에 기초해 참가자의 대답을 즉각적으로 확인할 수 있었다. 두뇌 신호 음성연구를 위해, 정상적인 언어 기능을 가진 간질 환자는 뇌의 한쪽 반구의 표면에 외과적으로 관련 장치 ‘ECoG(electrocorticography)’를 이식했다. 이를 통해 연구원들은 비침습적 뇌파( EEG) 또는 기능적 자기공명영상(fMRI) 데이터에 의존했을 때보다 더 자세한 데이터를 수집 할 수 있었다.

연구원은 9개의 질문 세트를 듣고 24 개의 대답 선택지 중에서 하나를 큰 소리로 말하는 과정에서 참가자의 뇌 데이터를 기록했다.

한 참가자의 음성 해독 및 분류 결과. credit:nature.

곧, 연구자가 개발한 알고리즘은 참가자가 새로운 질문이나 응답을 듣고 있을 때를 감지 할 수 있었다. 참가자가 24가지 선택사항 중에서 말하고 있는 것을 최대 61 %의 정확도로 식별 할 수 있었다. 마찬가지로 이 알고리즘은 참여자가 75 %의 정확도로 청취한 사전 정의된 질문을 식별했다. 이는 참여자가 응답 할 수 있는 가능한 답변의 범위를 좁힌다.

이같은 결과가 당장 일상생활에서 사람들의 의사소통하는 방식을 다시 바꿀만한 수준은 아니다.

기술은 실제로 뇌졸중, 척추부상, 신경 퇴행성 질환 등으로 고통 받는 사람들과 같은 발화 능력을 잃은 사람들의 말하기 회복의 가능성을 제시했다. 안면 마비로 말하기 능력을 잃어 버렸지만 말하기를 생성하는 뇌 영역이 손상되지 않은 환자들에게 새 희망을 준다.

연구 공동저자 UCSF 신경외과학과 통합신경과학센터 에드워드 창(Edward Chang, MD)은 “지난 10 년간 우리가 이 분야에서 보아 왔던 발전으로 인해 신경학적 손상의 가장 큰 결과 중 하나인 언어 손실 환자를 돕기 위해 이러한 발견을 활용할 수 있을 것”이라고 밝혔다.

이제 연구자들은 ‘EcoG’ 신경 인터페이스(neural interface) 임플란트가 마비 환자가 다양한 운동 및 의사소통 능력을 회복하는 데 도움이 되는지를 연구하고 있다.

한편, 페이스북이 생각을 분당 100단어를 입력할 수 있는 헤드밴드 유형 장치를 개발하겠다고 발표한 것은 2017년이었다. 페이스북(facebook)은 이번 연구에 자금을 지원하고 있다.

*논문 : Real-time decoding of question-and-answer speech dialogue using human cortical activity