saloon - 2024년 실시간 업데이트
프런티어 AI는 3개월마다 위험 평가
"위험 상당하다면 서비스 배포 중단"
네이버가 국내 최초로 인공지능(AI) 안전성 체계를 설계하고 실천 방안을 내놨다.그 핵심은 영어 중심의 글로벌 빅테크 AI의 한계를 극복하기 위해 문화적 다양성을 반영한 AI 안전성 체계를 만드는 것이다.특히 인류를 위협할 만한 '프런티어(frontier) AI'는 3개월마다 평가하고 위험 수준이 상당히 높다고 판단되면 서비스를 배포하지 않기로 하는 등 강도 높은 기준을 세웠다.
네이버가 17일 공개한 '네이버 ASF(AI Safety Framework)'는 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계다.네이버가 AI를 연구·개발하면서 세운 'AI 윤리 준칙'(2021년),saloon'AI 윤리 자문 프로세스'(2022년)에 이어 좀 더 구체화한 실천안을 담았다.
네이버 ASF는 AI 시스템 때문에 생길 수 있는 위험을 ①통제력 상실과 ②악용으로 정의하고 대응법을 설계했다.우선 인간이 AI 시스템에 영향을 줄 수 없는 통제력 상실 위험을 완화하기 위해서 AI 시스템의 위험을 주기적으로 평가하고 관리할 예정이다.특히 현존 최고 성능의 AI 시스템인 프런티어 AI에 대해선 3개월마다 위험을 따져본다.또한 시스템의 능력이 기존보다 여섯 배 이상 증가하면 추가 평가도 한다.
AI 시스템의 악용 위험에 대해선 'AI 위험 평가 매트릭스'를 가지고 대응한다.예를 들면 생화학 물질 개발과 같이 특수한 목적으로 쓰이는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공해 위험을 완화하겠다는 것.특히 사용 목적과 관계없이 안전 조치의 필요성이 높은 AI 시스템이라면 위험의 정도가 낮아질 때까지 모델 또는 서비스 배포를 중단할 방침이다.생성형 AI 기술 선봉에 있는 오픈AI가 안전성보다 기술 진보에 방점을 찍은 것과 대비된 행보다.