얼굴 표정과 목소리로 치매를 진단할수 있는 길이 열렸다. 얼굴 표정과 음성 데이터를 머신러닝으로 분석하여 인지 기능을 예측하는 혁신적인 방법이라 연구진은 밝혔다.
초고령 사회에 진입한 일본에서는 치매, 특히 알츠하이머병(Alzheimer’s Disease, AD)이 심각한 사회적 문제로 떠오르고 있다. 이를 해결하기 위해, 순수한 대화와 표정을 통해 인지 상태를 평가하는 자동화된 저비용 진단 도구 개발이 절실히 필요했다. 일본 준텐도 대학(Juntendo University) 연구진은 스마일 테스트와 대화형 채팅봇을 활용하여 AD 환자를 효과적으로 선별할 수 있는 기법을 연구했다.
일본 준텐도 대학 하루카(Haruka Takeshige-Amano) 박사 연구진이 진행한 이번 연구는 2022년 6월부터 12월까지 65세 이상의 건강한 성인 99명(Healthy Controls, HC)과 알츠하이머병이나 경미한 인지장애가 있는 성인 93명(People with AD, PwA)을 대상으로 진행했다. 참가자들은 주어진 과제를 수행하며 채팅봇과 대화하고, 이 과정에서 스마일 지수와 음성 데이터를 수집했다. 표정 데이터는 얼굴의 눈 깜빡임, 입가의 움직임 등을 포함한 48개의 특성으로 구성되었으며, 음성 데이터는 110개의 특성으로 분석되어 AD 선별 및 인지 점수 예측에 활용됐다.
연구 결과, 머신러닝 모델은 얼굴과 음성 데이터를 조합하여 AD 환자와 건강 성인을 94%의 정확도로 구분했다. 특히, 얼굴 표정 변화와 어휘 사용의 빈도 차이가 인지 기능 저하와 높은 상관성을 보였다.
또한, AD 환자의 인지 평가 점수는 얼굴과 음성 특성을 기반으로 예측되었으며, 평균 절대 오차가 5.78점으로 높은 정확도를 기록했다. 이는 얼굴과 음성 데이터를 개별적으로 사용할 때보다 더 높은 예측력을 보였다.
이번 연구는 알츠하이머병 초기 스크리닝을 위해 표정과 자연스러운 대화를 결합한 디지털 툴이 유망하다는 점을 입증했다. 향후 AD 조기 진단과 경제적 의사결정을 위한 실용적인 도구로서 다양한 사회적 활용이 가능할 것으로 기대된다. 이러한 연구 결과는 고비용의 정밀 검사가 어려운 환경에서 AD 환자 선별에 큰 도움이 될 수 있으며, 추가적인 연구를 통해 일반적 사용이 가능해질 것으로 보인다.
연구진은 "사람들의 표정과 음성 데이터를 결합해 치매를 조기에 진단하는 효과적인 방법을 제안하여 향후 다양한 실생활 시나리오에서 활용 가능할 것"이라며 "이번 연구가 인공지능(AI)을 활용한 AD 조기 스크리닝의 새로운 기준을 제시할 것"이라고 기대를 밝혔다.
한편, 이번 연구 결과는 저명한 국제 학술지 Nature에 게재됐다. <저작권자 ⓒ 치매신문 무단전재 및 재배포 금지>
댓글
|
많이 본 기사
|