`머릿속 생각` 읽는 헤드셋 나왔다 매사추세츠공대(MIT) 연구진이 실제 소리 내어 말하지 않고 머릿속으로 생각만 해도 알아듣는 헤드셋을 개발했다. 명령어를 말하거나 손으로 자판을 치지 않고도 인공지능(AI)과의 소통이 가능해진 것이다.
미국 MIT 미디어랩 연구진은 사용자가 입 밖으로 말을 꺼내지 않아도 머릿속으로 생각하는 `하위 발성` 신호를 해석해 단어로 옮겨주는 지능형 컴퓨터 인터페이스 `알터에고(AlterEgo)`를 개발했다고 밝혔다. 이 같은 컴퓨터 시스템을 결합한 헤드셋을 지난달 미국 컴퓨터학회(ACM)가 주최한 `2018 지능형 사용자 인터페이스 콘퍼런스`에서 공개했다. 하위 발성(subvocalization)이란 스스로에게 속으로만 이야기하는 것을 말한다. 글을 읽을 때 머릿속으로 한 단어 한 단어 따라가느라 속독이 힘들다면 무의식 중에 하위 발성을 하고 있다는 증거다. 이 같은 발성은 인간의 눈으로 감지할 수는 없지만 미세한 물리적 반응을 일으켜 턱과 얼굴 신경근을 일부 자극한다. 이 같은 점에 착안해 연구진은 얼굴 뼈를 통해 귀 안쪽으로 진동을 전달하는 헤드셋을 만든 뒤 발성 신호를 포착해 단어로 번역하도록 했다. 우선 목 뒤쪽을 감싸는 이 헤드셋은 입 양쪽과 턱을 따라 7군데 위치한 전극을 활용해 신호를 식별했다. 헤드셋은 귓구멍을 막지 않기 때문에 대화나 일상적인 듣기 활동을 방해하지 않고도 인간과 기계의 소통을 가능케 한다. 가령 체스 게임을 하다가 상대방의 움직임을 보고 다음 수를 머릿속으로 질문하면 입을 벙긋하지 않고도 인공지능(AI)의 조언을 구할 수 있게 되는 셈이다. 덧셈과 곱셈 등 제 아무리 복잡한 계산 문제가 있어도 사람들 눈에 띄지 않은 채 정답을 들을 수 있다.
연구진에 따르면 시범 사용자 10명이 90분간 소리 없이 헤드셋만 쓰고 연산 과제를 수행한 결과 번역 정확도는 92%에 달했다. 다만 아직까지 각각의 과제당 사용할 수 있는 단어는 20개로 제한된다. 개발을 주도한 아나브 카푸 MIT 미디어랩 박사 과정생은 "명령어를 손으로 입력하거나 입으로 말하지 않아도 인간과 기계가 소통할 수 있는 IA(지능증강) 장치를 만드는 게 목표였다"며 "마치 스스로의 내부 인식이 확장된 것처럼 느껴지도록 하는 은밀한 컴퓨팅 플랫폼이 가능하다는 것을 보여줬다"고 설명했다.
파티에 마에즈 MIT 교수(교신저자)는 "지금까지는 대화 도중 무언가를 검색해보고 싶다면 스마트폰을 찾아서 잠금을 해제하고 앱을 열어 검색 키워드를 입력해야 하기 때문에 함께 있는 사람들의 눈길을 끌 수밖에 없었다"며 "그러나 이제는 이 모든 지식과 서비스 혜택을 그대로 누리면서도 주변의 관심을 끌지 않은 채 검색할 수 있다"고 말했다.
|