Curl error: Could not resolve: clients1.google.com (Could not contact DNS servers)
첼시 크리스탈 팰리스 - 2024년 실시간 업데이트
주요 AI기업들은 최근 대형언어모델(LLM)뿐 아니라 소형언어모델(sLM)로 기술 다변화를 꾀하고 있다.성능 향상을 위해 AI모델 매개변수(파라미터) 규모 키우기 경쟁을 벌이던 AI기업들이 이젠 비용 효율성에 중점을 둔 모델도 함께 선보이면서 각자 저변 확대에 나서고 있다는 것.
SLM의 경우 이미 지난해부터 메타를 비롯한 오픈모델 진영과 신생 AI 스타트업들을 주축으로 다양한 모델이 선보여 왔다.그래픽처리장치(GPU) 수급난을 포함해 AI 컴퓨팅 비용 문제가 불거지면서 더 저렴하고 빠르며 원하는 영역에 특화 가능한 모델에 대한 수요도 덩달아 커졌기 때문이다.
올해 들어서는 주요 LLM 기업들까지 이런 흐름에 적극적으로 뛰어들고 있다.오픈AI의 최대주주인 마이크로소프트(MS)는 지난 4월 파라미터 38억개의 '파이-3 미니'를 출시하면서 "이 모델이 10배 큰 모델 수준의 응답을 제공할 수 있고,첼시 크리스탈 팰리스비슷한 기능을 가진 다른 모델들에 비해 학습·구동에 드는 비용이 10분의 1 수준"이라고 설명했다.
이들과 AI 시장에서 주도권 다툼을 하고 있는 구글도 최근 '제미나이 1.5 플래시'를 구글클라우드 버텍스AI 플랫폼을 통해 공식 출시했다.구글에 따르면 'GPT-3.5 터보' 대비 60배가량 더 긴 100만 토큰의 콘텍스트 윈도우와 함께 1만자 입력 기준 평균 40% 더 빠른 속도를 지원하고,첼시 크리스탈 팰리스3만2000자 이상 입력 시 콘텍스트 캐싱 기능으로 입력비용도 최대 4배 절감할 수 있다.
앞서 파이낸셜타임스(FT)는 최근 주요 AI기업들이 100만 토큰당 1달러 미만 비용이 드는 모델을 내놓는 이런 행보를 소개하면서,첼시 크리스탈 팰리스이는 IT시장 전반의 비용효율 중시 기조와도 맞닿아 있다고 분석했다.전체적인 성능이나 범용적인 성능에서 SLM은 LLM에 뒤떨어질 수밖에 없지만,첼시 크리스탈 팰리스LLM의 토큰당 이용료 등에 부담을 느끼는 고객들에게 목적와 용도에 맞춰 더 적합하고 효율적인 SLM 선택지도 함께 제시하는 것이다.
앤스로픽의 '클로드' 라인업 중 하이쿠 모델과 미스트랄의 여러 SLM도 같은 접근의 일환이다.LLM 선주두자인 오픈AI 또한 현재보다 작은 모델을 선보일 가능성을 점쳐진다.아울러 스마트폰,첼시 크리스탈 팰리스AI PC 등으로 확장되는 온디바이스AI 또한 SLM의 수요를 넓히는 주요 동력이 되고 있다.
월스트리트저널(WSJ)은 지난 6일(현지시간) "AI 거인들에 있어 때로는 작은 게 더 낫다"는 제목으로 최근 흐름을 소개하면서,SLM으로 충분한 작업에 LLM을 쓰는 것을 "탱크를 몰고 식료품을 사러 가는 것"에 비유했다.현 생성형AI 트렌드의 기반이 된 구글의 논문(Attention is all you need) 공동저자인 일리아 폴로수킨은 "2 더하기 2를 계산하는 데 수조 번의 연산이 필요해선 안 된다"고 언급했다.
SLM 다변화와 함께 전문가혼합(MoE) 아키텍처 등으로 LLM을 최적화하는 시도도 이어지고 있다.데이터브릭스는 1320억 파라미터를 지닌 자사 DBRX 모델이 주어진 시간에 360억개 파라미터만 사용한다고 밝힌 바 있다.이에 경쟁사인 스노우플레이크는 4800억 파라미터의 아크틱 모델을 내놓으면서 DBRX보다 약 50%,첼시 크리스탈 팰리스메타 라마3 70B보다 약 75% 적은 매개변수를 활성화하며 더 높은 효율을 보인다고 했다.
국내에서는 네이버가 사용자가 작업 종류나 비용 등에 따라 적합한 AI모델을 선택할 수 있도록 라인업을 확장했다.지난 4월 '클로바스튜디오'를 통해 '하이퍼클로바X'의 신규 모델로 출시한 'HCX-대시(DASH)'는 기존 '하이퍼클로바X(HCX-003)'의 5분의 1 수준 가격으로 제공되며,효율적인 컴퓨팅자원 활용으로 속도도 개선됐다.