NO.1: 도박 픽토그램
[헤럴드경제=권제인 기자] 카카오는 국내 인공지능(AI) 생태계 활성화를 위해 자체 개발한 언어모델 라인업 중‘카나나 나노(Kanana Nano) 2.1B’모델을 오픈소스로 깃허브(GitHub)에 배포했다고 27일 밝혔다.이와 더불어 자체 개발 언어모델‘카나나(Kanana)’의 연구 성과를 담은 테크니컬 리포트를 아카이브(ArXiv)에 공개했다.
카카오는 자체 개발 경량 모델 카나나 나노 2.1B의 베이스 모델과 인스트럭트(Instruct) 모델,임베딩(Embedding) 모델이 오픈소스 커뮤니티인 깃허브를 통해 제공한다.카카오는 이번 오픈소스 공개를 통해 AI 기술의 접근성을 높이고,연구자와 개발자들이 해당 모델을 토대로 다양한 응용을 시도할 수 있도록 모델의 업데이트를 지속 지원할 계획이다.
카나나 나노 2.1B는 연구자와 개발자가 활용하기 적절한 크기의 모델이자 온디바이스(On-device) 환경에서도 활용 가능한 고성능의 경량 모델이다.비교적 작은 규모임에도 유사한 크기의 글로벌 모델에 견줄 만한 성능을 자랑한다.지난달 카카오 공식 테크블로그를 통해 공개한 바와 같이,한국어와 영어 처리 능력에서 뛰어난 결과를 보여준다.
또한,검빛경마출주출마표카카오는 매개변수와 학습 방법,학습 데이터 등 세부 사항을 담아낸 AI 논문인 테크니컬 리포트도 이날 공개했다.카카오는 이번 리포트에 다양한 사이즈에 이르는 카나나 언어모델 전체의 사전 학습(Pre-training)부터 사후 학습(Post-training)까지 전 과정을 자세히 담았다.
카카오의 초거대 언어모델‘카나나 플래그(Kanana Flag)’는 지난해 말 학습을 완료했다.카카오는 작년 10월 개발자 컨퍼런스‘이프 카카오(if kakaoAI) 2024’에서 공개한 카나나 언어모델의 전체 라인업을 모두 구축하게 됐다.
카나나 플래그는 글로벌 최고 수준의 한국어·영어 성능을 달성한 모델이다.한국어 성능을 평가하는‘로직Kor(LogicKor)‘KMMLU’벤치마크에서 타 모델을 압도하는 처리 능력을 입증했다.영어 성능을 평가하는‘MT-bench‘MMLU’벤치마크에서는 경쟁 모델과 유사한 성과를 기록했다.또한,학습 자원 최적화를 통해 유사 사이즈의 모델 대비 50% 이상 비용을 절감하며,최첨단(SOTA) 수준의 효율성과 성능을 동시에 구현해냈다.
카카오는 대규모 언어모델의 학습 효율을 극대화하고자 ▷모델 구성 요소를 가지치기해 중요 요소만 남기는 기법(Staged pre-training Pruning) ▷큰 모델의 지식을 더 작은 모델로 전달하는 증류 기법(Distillation) ▷깊이 업스케일링(DUS) 등 혁신적 학습 기법을 적용했다.이를 통해 경량 모델 카나나 나노 2.1B부터 초거대 모델 카나나 플래그 32.5B까지 다양한 사이즈의 고성능 모델을 효율적으로 개발,글로벌 유사 크기 모델 대비 절반 이하의 학습 비용을 실현했다.
카카오는 향후 카나나 모델에 강화 학습(Reinforcement Learning)과 연속 학습(Continual Learning) 기반의 최신 기술을 접목해 추론,수학,온라인큐알코드스캐너코딩 능력을 강화하고,정렬(Alignment) 기술을 고도화해 사용자 요청의 수행 정확도를 높일 계획이다.이를 통해 음성,이미지,영상 등 다양한 형태로 소통 가능하도록 지속적 모델 고도화를 이어가며,일상에 실질적인 가치를 더하는 기술로 자리잡을 수 있도록 기술 경쟁력을 강화해 갈 예정이다.
김병학 카카오 카나나 성과리더는 “모델 최적화와 경량화 기술을 바탕으로 라마,젬마 등 글로벌 AI 모델과 견줄 수 있는 고성능의 자체 언어모델 라인업을 효율적으로 확보하게 됐으며,이번 오픈소스 공개를 통해 국내 AI 생태계 활성화에 기여할 수 있을 것으로 기대한다”며 “앞으로도 효율과 성능 중심의 실용적이고 안전한 AI 모델을 개발해가며,지속적 기술 혁신을 통해 AI 경쟁력을 강화해 갈 계획”이라고 말했다.