Curl error: Could not resolve: clients1.google.com (Could not contact DNS servers)
군대 도박 처벌 - 2024년 실시간 업데이트
인공지능(AI) 안전성을 둘러싼 챗GPT 개발사 오픈AI의 내홍이 이어지고 있다.
오픈AI가 '안전'보다 '윤리'를 추구하며,개인적 이득이 아닌 인류 전체에게 도움을 주는 인공일반지능(AGI:Artificial General Intelligence)을 개발하겠다는 설립 목표와 달라지고 있다는 이유에서다.
AGI는 인간처럼 지능을 갖춰 추리·창의 같은 작업을 할 수 있고,군대 도박 처벌모든 분야에서 인간과 비슷하거나 더 나은 능력을 갖춘 인공지능이다.전문가들은 AGI가 등장하면 순식간에 인간과 비슷하게 발전하는 것은 물론,인간을 뛰어넘는 것도 시간문제라고 분석했다.
오픈AI는 이러한 AGI를 사전에 통제하고자 지난해 7월 슈퍼 얼라인먼트를 출범했다.AGI가 나타나더라도 사람들에게 해를 끼치지 않고,유익하게 사용되도록 조절하는 방법을 연구하는 것이 목표다.
그러나 올해 슈퍼 얼라인먼트 직원들이 줄줄이 퇴사하더니,지난 5월에는 팀이 해체됐다.
슈퍼 얼라인먼트를 이끈 일리야 수츠케버 오픈AI 공동 창업자는 지난 5월 퇴사했다.
그는 퇴사와 함께 “오픈AI가 안전하고 유익한 AI를 구축할 것이라고 확신한다”고 밝혔지만,불과 한달 여만에 순수 연구 조직 내에서 안전하고 강력한 AI 시스템을 만드는 것을 목표로 하는 '세이프 수퍼인텔리전스'를 설립했다.
수츠케버와 함께 팀을 이끈 얀 리이크도 수츠케버 퇴사 직후 오픈AI를 떠났다.
리이크는 사임을 발표하며 자신의 X(옛 트위터)에 “인간보다 똑똑한 기계를 만드는 것은 본질적으로 위험한 일이며,오픈AI는 인류 전체를 대표해 막중한 책임을 지고 있다”며 “하지만 지난 수년간 AI 안전성은 잘나가는 제품보다 뒷전으로 밀려났다”고 지적했다
슈퍼 얼라인먼트 연구원으로 일하다 각각 지난 2월,군대 도박 처벌4월에 퇴사한 윌리엄 손더스와 다니엘 코코타일로도 오픈AI가 AGI 개발에 있어 안전성은 뒷전으로 두고 있다고 비판하며 팀을 떠난 것으로 알려졌다.
이에 오픈AI는 지난 5월 말 생성형 AI 관련 기술 개발 과정에 안전 및 윤리 문제를 점검하기 위해 '새로운 안전·보안위원회'(safety and security)를 구성했다고 밝혔다.
안전 및 보안 위원회를 구성하면서 오픈AI는 일반 대중의 AI 우려점을 인식하고 있으며,내부적으로 모니터링하는 조치를 취하고 있다는 식의 메시지를 전달했다.
오픈AI는 공식 블로그를 통해 “오픈AI는 자랑스럽게도 기능과 안전성 모두 업계를 선도하는 모델을 구축하고 출시했다”며 “중요한 순간인 만큼 활발히 토론할 것”이라고 밝혔다.