“한국어·한국 문화에 최적화”… 카카오, 멀티모달 언어모델 2종 공개

 

사람처럼 보고, 듣고, 말하며 한국어와 한국 문화를 가장 잘 이해하는 고도화된 멀티모달 인공지능(AI) 기술이 베일을 벗었다. 카카오의 ‘카나나-오(Kanana-o)’, ‘카나나-브이-엠베딩(Kanana-v-embedding)’이다.

 

카카오는 한국적 맥락 이해에 최적화된 통합 멀티모달 언어모델 카나나-오, 카카나-브이의 개발 과정과 성능을 12일 테크블로그를 통해 공개했다.

 

카나나-오는 텍스트와 음성, 이미지를 동시에 이해하고 실시간으로 답변한다. 글로벌 모델 대비 한국어 맥락 이해에서 압도적 성능을 보유한 동시에 자연스럽고 풍부한 표현력을 갖췄다.

 

카카오 측은 “기존 멀티모달 모델들이 텍스트 입력 시 강점을 보이지만 음성 대화 시에는 답변이 다소 단순해지고 추론 능력이 떨어진다는 한계에 주목했다”며 “이를 보완하기 위해 카나나-오의 지시이행 능력을 고도화해 사용자의 숨은 의도와 복잡한 요구사항까지 파악할 수 있도록 개선했다”고 설명했다.

 

이와 함께 자체 구축한 데이터셋으로 학습을 진행함으로써 다양한 모달리티의 입출력에 대해서도 기존 언어모델의 성능을 유지했다. 또한 단순 질의응답을 넘어 요약, 감정 및 의도 해석, 오류 수정, 형식 변환, 번역 등 다양한 과업을 수행할 수 있도록 성능을 끌어올렸다.

 

덧붙여 고품질 음성 데이터와 직접 선호 최적화 기술을 적용했다. 억양·감정·호흡 등을 정교하게 학습시켜 기쁨·슬픔·분노·공포 등 상황 별 생생한 감정은 물론 미세한 음색·어조 변화 등에 따른 감정 표현 능력까지 향상 시킨 것. 호스트와 게스트가 대화를 주고받는 팟캐스트 형태의 데이터셋을 구축, 끊김 없이 자연스럽게 이어지는 멀티턴(Multi-turn) 대화도 가능하다.

 

벤치마크 평가 결과, 카나나-오는 영어 음성 성능에서 GPT-4o와 유사한 수준, 한국어 음성 인식 및 합성, 감정 인식 능력에서는 월등히 높은 수준을 기록했다. 회사는 더 자연스러운 동시 대화와 상황에 맞는 사운드스케이프(소리환경)를 실시간 생성할 수 있도록 발전시킨다는 계획이다.

 

카나나-브이는 이미지 기반 검색의 핵심 기술로, 텍스트와 이미지를 동시에 이해해 처리할 수 있다. 텍스트로 이미지를 검색하거나, 사용자가 선택한 이미지와 관련된 정보를 검색하고, 이미지가 포함된 문서 검색 등을 지원한다.

 

이 모델은 실제 서비스 적용을 목표로 개발, 한국어와 한국 문화에 대한 이해도가 탁월하다. ‘경복궁’ ‘붕어빵’ 같은 고유명사는 물론 ‘하멜튼 치즈’처럼 오타가 포함된 단어도 문맥을 파악해 정확한 이미지를 찾아준다. ‘한복 입고 찍은 단체 사진’처럼 복합적인 조건도 정확히 이해해, 조건의 일부에만 해당하는 사진을 걸러낼 수 있는 높은 변별력을 갖췄다.

 

카나나-브이는 현재 카카오 내부에서 광고 소재의 유사도를 분석 및 심사하는 시스템에 적용됐으며 향후 비디오나 음성으로 확대 예정이다.

 

김병학 카카오 카나나 성과리더는 “카나나는 단순한 정보 나열 수준을 넘어, 사용자의 감정을 이해하며 친숙하고 자연스럽게 대화하는 한국 맞춤 AI가 될 것”이라며 “사용자가 일상 속 AI 기술 경험을 할 수 있고, 사람처럼 상호작용 할 수 있는 AI를 구현하겠다”고 말했다.

 

한편 카카오는 지난 5월 에이전틱 AI 구현을 위한 기능 강화에 중점을 둔 언어모델 카나나-1.5를 기반으로 현재 모바일 기기와 같은 온 디바이스 환경에서 동작할 수 있는 멀티모달 모델의 경량화 연구를 진행 중이다. 이와 더불어 MoE(Mixture of Experts) 구조를 적용한 고성능, 고효율 모델인 ‘카나나-2’ 개발을 준비하고 있다.

 

박재림 기자 jamie@segye.com

[ⓒ 세계비즈앤스포츠월드 & segyebiz.com, 무단전재 및 재배포 금지]