Curl error: Could not resolve: clients1.google.com (Could not contact DNS servers)
로아 캐릭터 슬롯 이벤트 - 2024년 실시간 업데이트
로이터통신은 지난 5월 입수한 오픈AI 내부문서와 복수의 소식통을 인용,이 회사가 '스트로베리(Strawberry·딸기)'라는 코드명의 프로젝트를 통해 AI모델의 추론능력을 높이기 위한 연구를 진행하고 있다고 지난 12일(이하 현지시간) 보도했다.앞서 샘 올트먼 오픈AI 최고경영자(CEO)는 "AI 발전에 있어 가장 중요한 영역은 추론능력에 관한 것"이라고 올해 초 밝힌 바 있다.
보도에 따르면 스트로베리 모델은 AI가 단순히 질문에 답변을 생성하는 데 그치지 않고 인터넷을 자율적·안정적으로 탐색해 '심층연구(deep-research)'를 수행할 수 있도록 한다.이를 위해 대규모 데이터세트에 대한 사전학습을 거친 뒤에도 AI모델을 처리하는 특수한 방법이 적용된다.이미 학습된 데이터 기반으로 검색증강생성(RAG) 등의 도움을 받는 기존 모델과 달리 사후 조정이나 재학습도 자체적으로 수행하는 것으로 보인다.
스트로베리 프로젝트는 이전에 '큐스타(Q*)'라는 이름으로 알려진 적이 있다.지난해 11월 로이터는 오픈AI 일부 구성원들이 큐스타를 AGI로 가는 돌파구로 여기고 있으며,무위로 끝난 이사회의 올트먼 기습해고 사건 배경에는 그 위험성에 대한 우려도 포함됐다고 전한 바 있다.이때도 기존 모델은 해결하기 어려운 수학 문제 등에 강점을 지닌 것으로 전해졌다.
나아가 논리적인 오류 등을 인식하지 못해 빚어지는 할루시네이션(환각·왜곡) 현상과 계획이 요구되는 장기작업(LHT)도 해결 가능할 것으로 오픈AI는 기대하는 분위기다.로이터의 소식통은 스트로베리가 2022년 스탠퍼드대학교에서 발표한 '스타(STaR·자가학습추론기)' 방법과 유사하다고 평했는데,정답 산출까지 모든 근거를 미세조정하고 반복하게 함으로써 성능을 높이는 것이다.앞서 강화학습 기법 중 하나인 Q러닝도 프로젝트와 관련된 것으로 추정되기도 했다.
최근 블룸버그통신 또한 오픈AI가 지난 9일 가진 내부 전체회의에서 인간과 유사한 수준의 추론능력을 지녔다는 모델의 데모를 직원들에게 선보였다고 보도했다.이때 오픈AI는 AI 능력수준에 대한 5단계 분류체계를 제시,자신들이 1단계(챗봇)를 넘어 박사 수준의 추론이 가능한 2단계(추론가)에 근접했다는 메시지도 공유했다.에이전트(3단계),혁신가(4단계),로아 캐릭터 슬롯 이벤트조직(5단계)으로 이어지는 분류체계는 궁극적으로 이 회사가 목표하는 AGI의 달성 수준으로도 해석된다.
다만 오픈AI의 안전성 관련 행보에는 지속적으로 물음표가 붙고 있다.13일 워싱턴포스트(WP)에 따르면 오픈AI 일부 직원들은 자신들이 AI 위험에 대해 규제당국에 신고하지 못하게 불법적으로 막았다며 이달 초 미 연방거래위원회(SEC)에 회사의 비밀유지계약에 대한 조사를 촉구하는 서한을 보냈다.회사는 지난 5월에도 공동창업자인 일리야 수츠케버 등이 초지능AI 제어·관리를 목표로 이끌던 초정렬팀을 해체하면서 안전보다 이익을 중시한다는 논란에 휩싸인 바 있다.
스트로베리 프로젝트는 현재진행형이지만 공개 시점이 언제인지는 파악되지 않았고,로아 캐릭터 슬롯 이벤트오픈AI 내부에서도 그 작동방식이 철저히 비밀에 부쳐지고 있는 것으로 전해진다.로이터의 문의에 대해 오픈AI 측은 "우리는 AI모델이 우리처럼 세상을 더 많이 보고 이해하기를 원한다"며 "새로운 AI 기능에 대한 지속적인 연구는 업계에서 흔히 볼 수 있는 흐름이며,이런 시스템은 시간이 지남에 따라 추론 능력이 향상될 것이라는 공통된 믿음이 그 바탕에 있다"고 답했다.