9일 한빛소프트에 따르면 딥러닝 방식의 AI를 활용한 음성인식·챗봇·음성합성 기술을 동시에 개발 중이며, 이르면 연내 상용화에 나설 계획이다. 이 기술들은 사람의 감정까지 파악할 수 있는 수준으로 AI의 학습이 이뤄져, 장애인 교육·노인케어 등 다양한 분야에 적용 가능하다.
AI 프로젝트명은 ‘다니'(가칭)다. 어떤 사실에 대해 놀람이나 감탄 혹은 믿을 수 없음을 나타내는 말(~다니)에서 착안했다. 따뜻한 사리분별력을 지녀, 사람이 말을 하면 자연스럽게 인식하고 상황과 맥락을 파악한 뒤 학습된 목소리와 어투를 사용해 답변하는 모습에 개발진들이 이같은 이름을 붙였다.
이 기술을 음성인식 스피커에 적용하면 실제 가족이나 친숙한 유명인사와 대화하는 듯한 경험을 제공할 수 있다. 또한 다중 화자 간 대화를 구현할 수 있어 시각장애인용 전자책에 적용할 경우 여러 명이 읽어주거나, 등장인물들의 목소리에 영화처럼 개성과 감정을 실어 읽어주는 게 가능하다.
최진 한빛소프트 4차산업연구팀장은 "AI '다니'는 한국어뿐만 아니라 영어도 학습하고 있으며 이를 통해 전 세계 생활 속 어디에나 적용 가능한 AI를 국내 및 글로벌 시장에 선보일 것"이라며 "음성인식·챗봇·음성합성 기술을 패키지로 적용할 수도 있고 개별적으로 사용하는 것도 가능하다"고 소개했다.
한편, 한빛소프트는 이 기술을 자사 영어학습 앱인 '오잉글리시'에도 적용해 서비스를 고도화 할 계획이다. 이 앱은 어휘, 상황 대화 등을 반복해 듣고 말하면서 영어를 배우는 특허받은 학습도구다.

[한빛소프트]
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지