Curl error: Could not resolve: clients1.google.com (Could not contact DNS servers)
도박 원금 - 2024년 실시간 업데이트
美 빅테크 GPT-4o미니·라마·제미나이 나노 등 선보여
수익화·대중화에 용이…경량형 AI 경쟁도 치열해질 것
엔비디아 의존도 낮춰도 메모리 수요↑…삼성·SK엔 호재[이데일리 김소연 기자] 인공지능(AI) 거품론이 대두되는 가운데 AI 대중화를 위해 배포가 용이한 경량형 AI모델로의 움직임이 나타나고 있다.비용이 많이 드는 거대언어모델(LLM)이 아닌 소형 언어모델(sLM)에 대한 접근도 점차 늘어나리란 전망이다.
14일 업계에 따르면 빅테크 기업들이 비용이 적게 드는 경량형 AI 개발에 속도를 내고 있다.AI 서버용 거대언어모델은 비용 측면에서 부담이 커서다.
특히 AI 거품론이 나오는 이유는 수익화 여부에서 비롯한다.거대 AI 모델은 훈련 효율성을 위해 GPU 10만개 이상의 AI 클러스터를 구축해야 하는데,GPU 10만개 이상 클러스터를 만들기 위해 소요되는 비용은 5조원 이상으로 알려져 있다.
이 때문에 엔비디아 그래픽처리장치(GPU)처럼 비용이 많이 드는 장치를 쓰지 않아도 되는,대중화를 노린 생성형 AI 시장이 커질 수 있다.기업과 소비자간 거래(B2C)를 통해 생성형 AI 경험을 쌓으면,기업들은 AI 모델 확산으로 수익성 개선이 가능해진다.
시장조사업체 밸류에이츠(Valuates)에 따르면 소형 언어모델 시장은 2022년 51억 8000만 달러에서 2029년 171억 9000만 달러까지 연평균 17.8% 성장할 것으로 예상된다.김광진 한화투자증권 연구원은 “거대 AI 모델은 확산이나 배포 측면에서 한계가 있다”며 “향후 AI 모델은 배포가 용이한 소형언어모델 경쟁이 증가할 것”이라고 전망했다.엔비디아 GPU를 꼭 쓰지 않아도 된다면 AI 서버 한 대당 구매 비용을 30~40% 절감할 수 있다고 김 연구원은 분석했다.
실제로 미국 빅테크들은 엔비디아 AI 가속기 대신 공급처를 다변화하는 움직임을 보이고 있다.엔비디아 의존도를 낮추려는 것이다.애플은 AI모델에 구글 TPU를 활용하기로 했다.TPU는 구글이 AI 구동을 위해 기계 학습과 추론을 위해 특화한 자체 설계 커스텀 칩이다.황철성 서울대 재료공학부 석좌교수는 “엔비디아 GPU를 기반으로 하는 AI 워크로드를 모두 필요로 하는 것은 아니다.워크로드가 적게 드는 AI 시스템도 필요한데,도박 원금현재로선 마땅치 않은 상황”이라고 설명했다.이에 빅테크 중에서는 AI 시스템을 스스로 개발하려 하는 움직임이 나타나고 있다.
국내 메모리 업체인 삼성전자(005930)나 SK하이닉스(000660)에는 이 같은 상황이 긍정적으로 작용할 수 있다.엔비디아 GPU를 쓰든 구글 TPU를 쓰든 메모리는 계속 필요해서다.
AI 기능 확대 경쟁에서 기기 성능 향상을 위한 메모리 채용량은 증가할 수밖에 없다.황 교수는 “기업들이 엔비디아 의존도를 낮추기 위해 여러 시도를 하고 있다”며 “다만 메모리 회사는 수요가 이어질 수 있기 때문에,도박 원금우려할 부분은 없다”고 덧붙였다.