지난 2021년 처음 '네이버 AI 윤리 준칙'과 2022년 'AI 윤리 자문 프로세스'에 이어 한층 구체화된 AI 안전성 실천 체계를 내놨다.
네이버에 따르면 '네이버 ASF'는 AI 시스템이 초래할 수 있는 위험을 각각 '통제력 상실 위험'과 '악용 위험'으로 정의하고,이에 대응하기 위한 방법을 설계했다.
인간이 AI 시스템에 영향을 미치지 못하게 되는 '통제력 상실 위험'을 완화하기 위해,경우의 수 계산'AI 위험 평가 스케일'을 통해 AI 시스템의 위험을 주기적으로 평가하고 관리한다.
네이버 관계자는 "현존 최고 성능의 AI 시스템을 '프런티어(frontier) AI'로 정의하고,경우의 수 계산이 기술 수준에 해당하는 AI 시스템에 대해서는 3개월마다 위험 평가를 수행한다"라며 "또한 시스템의 능력이 기존보다 6배 이상 급격히 증가한 경우에는 그 시점에 추가 평가가 이뤄진다"고 설명했다.
네이버 ASF가 정의하는 AI 시스템의 또다른 잠재적 위험인 '악용'의 가능성에는 'AI 위험 평가 매트릭스'를 적용해 대응한다.
네이버는 네이버 ASF를 문화적 다양성을 반영한 AI 안전성 체계로 발전시켜나갈 계획이다.한국 외 다른 지역의 정부 및 기업과 소버린(Sovereign) AI를 공동 개발하며 특정 문화권에서 성립될 수 있는 AI 시스템의 위험을 식별하고,위험의 정도를 측정하는 벤치마크(benchmark)도 문화권의 특성을 반영해 고도화할 예정이다.
최수연 네이버 대표이사는 "네이버는 한국에서 '하이퍼클로바X'라는 소버린 AI를 개발한 경험을 통해,문화적·지정학적 상황과 지역적 이해가 AI의 성능뿐만 아니라 안전성에도 영향을 미친다는 점을 실증했다"며 "글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선해나갈 계획이다"고 말했다.
“Finding NoiseAware was a miracle for us. We now have peace of mind that our neighbors have a peaceful neighborhood.”
"Every single unit that we have has NoiseAware. Every single unit that we go into will have NoiseAware. It's our first line of defense."
"We let neighbors know we're using NoiseAware to prevent parties. We want to show them that having great neighborly relationships is a priority for us, and for the whole short-term-rental community."
"I can tell my owners, 'Not only do we have insurance, but we also have guest screening and we have NoiseAware. We have multiple layers of protection for your property."