SSG - 2024년 실시간 업데이트
[디지털데일리 김보민기자] 정부가 올해 인공지능(AI) 프라이버시 위험을 측정할 수 있는 평가 모델을 완성한다.AI 산업이 급성장하면서 정보주체 권리를 보호할 책임이 무거워진 만큼,SSG위험 관리 체계를 구체화한다는 구상이다.
이번 평가 모델이 새로운 규제로 작용해 AI 발전에 제동이 걸릴 수 있다는 우려도 나온다.이에 정부는 사안과 유형별로 평가 모델을 구축하고 상황에 따라 적용이 가능하도록 체계를 만들 방침이다.
개인정보보호위원회(이하 개인정보위)는 19일 서울 중구 포스트타워에서 제3차 '2024 개인정보 미래포럼'을 개최했다.현장에는 고학수 개인정보위 위원장을 비롯해 주요 민관정책협의회 분과 관계자들이 참석했다.
리스크 평가 분과를 이끌고 있는 박상철 교수(서울대 법학전문대학원)는 "개인정보위가 지난해 8월 '인공지능 시대 안전한 개인정보 활용 정책방향'을 발표했다"며 "이에 따라 9월 완료를 목표로 (AI 프라이버시) 리스크 평가 기준 모델을 준비하고 있다"고 밝혔다.개인정보위는 올해 정식 공개를 목표로 속도를 올릴 예정이다.
현재 AI 시대에 특화된 개인정보 관련 리스크 관리체계(RMF)를 구축한 국가는 많지 않다.미국을 비롯한 일부 국가만 기본 대책을 꾸린 상황이다.일례로 미국 국립표준기술연구소(NIST)는 'AI RMF'와 '생성형 AI 프로파일' 프레임워크를 공개한 바 있다.박 교수는 "외국에서도 잘 정리가 되지 않은 내용"이라고 말했다.
현재 개인정보위는 AI 프라이버시 민관 정책협의회를 필두로 리스크 평가 모델을 마련하는 데 속도를 내고 있다.평가 모델은 AI 사업자가 스스로 학습 데이터와 사업 특성을 고려해 위험 요인을 진단할 수 있도록 도울 수 있다.사업자는 평가 결과에 따라 위험 요인을 줄이거나 최소화할 수 있는 전략도 사전에 갖출 수 있게 된다.
리스크 평가 분과는 기업은 물론 공공기관이 관련 위험을 자율적으로 평가하고 완화 조치를 운용할 수 있도록 평가 항목을 수립하고 있다.박 교수는 "사업자 입장에서 규제가 생기는 것이 아니냐는 우려가 나온다"면서도 "자율적으로 스스로 프레임워크에 따라 맥락,SSG상황에 따라 적용할 수 있도록 체계를 만들 것"이라고 설명했다.
박 교수는 AI 프라이버시 리스크 평가 모델을 구축하는 데 유형과 사안별 평가 요소를 세우는 것이 관건이라고 강조했다.평가 절차안은 용례 및 유형 식별,리스크 매핑(mapping),SSG리스크 측정(measure),SSG리스크 경감(manage),SSG거버넌스 단위로 이뤄진다.규제 샌드박스를 통해 AI 분야 사례를 축적해 사안과 유형별 위험을 평가할 수 있는 기준도 갖춘다.
박 교수는 정보주체를 보호하기 위한 방향성도 추후 구체화할 예정이라고 밝혔다.그는 "아직은 초기 단계"라며 "어떤 방식으로 정보주체 권리를 보장할 수 있을지 살펴볼 것"이라고 말했다.
한편 이날 현장에서는 투명성 확보 분과를 이끌고 있는 박혜진 교수(한양대 법학전문대학원)의 발표도 이어졌다.박 교수는 '투명성 확보 방안'을 주제로 경제협력개발기구(OECD)를 비롯한 글로벌 동향과 국내 정책 방향을 소개했다.
개인정보위는 미래포럼에서 제안된 의견을 반영해 '공개된 개인정보 처리 안내서',SSG'AI 프라이버시 위험도 평가 모델','개인정보 처리 투명성 확보 안내서' 등을 마련할 계획이다.AI를 비롯한 신기술 및 신산업 성장을 지원하겠다는 의지도 내비쳤다.
SSG - 2024년 최고의 온라인 슬롯
SSG - 슬롯사이트 순위 추천:이들은 수련병원의 응급·중증환자가 또다시 전공의 집단 행동으로 유사한 피해를 받지 않도록 정부에 재발 방지 대책 마련을 요구하는 진정서를 인권위에 이날 중 제출할 예정이다.
SSG,▷ 전종철 : 그러니까 말씀하신 대로 한꺼번에 정리하지 않으면 이게 선거 때까지 계속 갈 수도 있네요? ▶ 김근식 : 계속 가는 거죠.