주메뉴바로가기.. 본문바로가기

인공지능(AI)으로, 사람 표정 꼭 닮은 로봇 만든다

네이버밴드 구글플러스

2017년 07월 14일 07:00 프린트하기

로봇 ‘에버’가 눈을 크게 뜨며 놀랍다는 표정을 짓자, 모니터 화면에도 ‘놀라움(surprised)’이라는 표시가 뜬다. 한국생산기술연구원이 개발한 로봇의 표정 검출 및 감정 인식 인공지능(AI)으로 분석한 결과다. - 안산=권예슬 기자 yskwon@donga.com 제공
로봇 ‘에버’가 눈을 크게 뜨며 놀랍다는 표정을 짓자, 모니터 화면에도 ‘놀라움(surprised)’이라는 표시가 뜬다. 한국생산기술연구원이 개발한 로봇의 표정 검출 및 감정 인식 인공지능(AI)으로 분석한 결과다. - 안산=권예슬 기자 yskwon@donga.com

“제가 얼마나 다양한 표정을 지을 수 있는지 보시겠어요?”
 

지난달 27일 경기 안산시 한국생산기술연구원(생기연)의 한 연구실에 들어서자 키 175㎝, 몸무게 50㎏의 늘씬한 미녀 로봇 에버4(Eve-R 4)가 환영인사를 건넸다.

 

어깨를 으쓱이는 몸짓, 실리콘으로 만든 부드러운 피부까지 사람과 꼭 닮은 에버가 카메라를 향해 웃어 보였다. 모니터 화면엔 에버가 70% 즐거워하고 있다는 감정 인식 결과가 떴다. 이어 눈을 크게 뜬 놀라운 표정, 눈썹이 처진 슬픈 표정, 얼굴을 찡그리고 역겨워하는 표정까지 시스템이 에버의 여러 감정을 포착해 냈다.
 

생기연이 본지에 공개한 ‘얼굴 표정 검출 및 감정 인식’ 소프트웨어(SW)는 로봇에 가장 사람다운 표정을 부여하기 위해 개발된 인공지능(AI)이다. 최근 로봇연구자들은 가상현실이나 게임 속 캐릭터, 사람과 상호작용하며 서비스를 제공하는 로봇에 표정을 담으려 하고 있다.

 

더 실감나는 가상세계, 더 친밀한 로봇과의 소통을 위해서다. 생기연이 개발한 AI 역시 사람이 감정을 표현할 때 짓는 표정 변화 데이터를 바탕으로 향후 로봇을 설계할 때 사람과 가장 유사한 표정을 가진 로봇을 만들기 위해 개발됐다.
 

이동욱 생기연 로봇그룹장은 “사람은 타인의 미세한 표정 변화까지 알아차릴 수 있도록 진화해 왔기 때문에 사람과 똑같이 생긴 로봇이라도 표정을 표현하는 방식이 다르면 ‘혐오스러움’을 느낀다”며 “새로 개발한 AI 시스템은 로봇에게 사람과 무리 없이 융화할 수 있는 표정을 부여하기 위해 개발됐다”고 설명했다.
 

사람의 얼굴을 탐지해 시시각각 표정을 통해 드러나는 기쁨, 슬픔 등 감정을 인식하는 기술은 이미 개발됐다. 연구진은 이 기술을 로봇에 적용해 가장 사람다운 표정을 만들려는 시도를 했다. 이를 위해 네덜란드 라드바우트대 행동과학연구소가 개발한 ‘RaFd’ 데이터를 AI에게 학습시켰다.

 

RaFd는 행복, 분노, 슬픔, 경멸, 역겨움, 중립, 두려움, 놀람이라는 8가지 감정을 정면, 측면, 대각선의 5각도에서 촬영한 사진 데이터다. 연구진은 딥러닝으로 AI에게 총 8040장의 사진을 4만5000번 반복 학습시켜 AI가 스스로 표정에 담긴 감정을 파악하는 공식을 깨닫도록 했다.
 

기존 감정 인식 기술은 표정의 특징을 로봇에게 직접 가르쳤다. 미간을 찌푸리면 기분이 안 좋고, 입 꼬리가 올라가면 즐거운 것이라는 등의 특징을 알려준 것이다. 하지만 연구진은 AI가 표정에 담긴 미묘함을 학습할 수 있도록 이마 윗선부터 턱 끝까지의 얼굴을 통째로 입력했다.
 

장인훈 생기연 인공지능연구실 수석연구원은 “현재까진 로봇이 얼마나 사람다운 표정을 짓는지 평가하는 데 설문조사, 연구자의 평가 등 사람의 주관이 개입됐다”며 “사람이 타인의 얼굴을 보며 ‘감’으로 기분을 파악하듯, AI가 감으로 로봇의 표정을 분석하는 것”이라고 설명했다.
 

연구진이 개발 중인 ‘에버5’의 모습. 인공 안구 대신 눈에 카메라를 덜어 사용자와 아이컨택도 가능하며, 표정을 짓는데 필수적인 근육들만 남기고 미세한 근육들은 없앴다. - 안산=권예슬 기자 yskwon@donga.com 제공
연구진이 개발 중인 ‘에버5’의 모습. 인공 안구 대신 눈에 카메라를 덜어 사용자와 아이컨택도 가능하며, 표정을 짓는데 필수적인 근육들만 남기고 미세한 근육들은 없앴다. - 안산=권예슬 기자 yskwon@donga.com

시연을 도와준 에버4는 아직 표정으로 감정을 표현하는 일에 사람보다 서툴다. 가령, AI앞에 사람과 나란히 서서 함께 ‘행복한 표정’을 짓는다 해도 AI 인식기는 에버4의 행복한 정도 42%, 사람 74%의 결과를 보여준다. 사람이 더 행복해한다고 인식하는 것이다. 장 연구원은 “향후엔 로봇이 표정을 지을 때 AI가 인식한 수치가 최고로 높아지는 지점을 찾아, 그 로봇이 지을 수 있는 최선의 표정을 찾아줄 것”이라고 말했다.
 

연구진은 이 기술을 새로 개발 중인 로봇 ‘에버5’에 접목할 계획이다. 에버4와 달리 에버5는 가짜 안구 대신 카메라를 눈에 넣어 사람과 눈을 맞추는 상호작용이 가능하다. 사람의 표정을 짓는 60개의 얼굴 근육 중 알아차리기 힘들 정도로 미세한 역할만 하는 근육들을 제외하고 23개의 모터로 근육을 대신한다.

 

이 그룹장은 “향후 개발될 로봇은 감정의 정도에 따라 얼굴 표정을 달리하고, 사람이 무의식중에 짓는 표정까지도 따라할 수 있게 만들 계획”이라고 말했다.

 

 

네이버밴드 구글플러스

2017년 07월 14일 07:00 프린트하기

혼자보기 아까운 기사
친구들에게 공유해 보세요

네이버밴드 구글플러스

이 기사가 괜찮으셨나요? 메일로 더 많은 기사를 받아보세요!

5 + 3 = 새로고침
###
과학기술과 관련된 분야에서 소개할 만한 재미있는 이야기, 고발 소재 등이 있으면 주저하지 마시고, 알려주세요. 제보하기

관련 태그뉴스