NO.1: 오만한 영어로
NO.2: 오만한 뜻
NO.3: 오만한 괴수 공주와 명탐정 사역마
NO.4: 오만한 사람 특징
NO.5: 오만한 너에게 바치는
NO.6: 오만한 오토 1세
NO.7: 오만한 그대를 사랑하는 방법
NO.8: 오만한 괴수 공주
NO.9: 오만한 괴수 공주와 명탐정 사역마 공략
NO.10: 오만한 사람
가짜뉴스·성착취물·보이스피싱 등 악용 늘어
알아볼 확률 48%…힌트는 입·말·손가락·문자
딥페이크와 인공지능(AI) 기술을 이용한 신종 범죄가 기승을 부리고 있다.정치인 얼굴과 음성을 합성해 가짜뉴스를 만들어 내거나 음란물이나 성 착취물 제작에 활용하는 사례가 대표적이다.최근에는 가족이나 친구 사진으로 가짜 영상을 만들어 보이스피싱 범죄에 이용한 사례까지 등장했다.
아무 요령 없이 딥페이크 영상이나 AI 생성물을 구별하기란 점점 더 불가능에 가까워지고 있다.2022년 영국 랭커스터대와 미국 캘리포니아대 버클리(UC버클리) 연구진이 참가자 315명을 대상으로 실험한 결과 AI가 생성해 낸 인물 사진과 실제 사진을 인간이 구분해낼 확률은 48.2%에 불과했다.
AI 조작 기술은 날로 정교해지고 있다.누구라도 딥페이크 범죄 피해자가 될 수 있는 시대다.영국 일간 가디언은 딥페이크 위협으로부터 스스로를 지켜낼 수 있는‘AI 간이 구별법’을 1일(현지시간) 소개했다.
입과 턱 주변을 살펴라
딥페이크 특유의 어색함은 영상에 등장하는 인물의 입 주변에서 가장 도드라진다.얼굴의 다른 부위에 비해 입 주변 화질이 유독 떨어지거나 턱 주위가 잠시 일그러지는 순간이 포착된다면 조작된 영상일 가능성이 크다.목소리와 입 모양이 일치하는지 확인하는 것도 힌트가 될 수 있다.
지난달 17일 온라인상에는 영국 극우 정치인 나이절 패라지가‘마인크래프트’게임 속에서 리시 수낵 총리의 집을 파괴하는 영상이 게시됐다.
영국 국립 인공지능 연구기관인 앨런 튜링 연구소의 마헤리 에이킨 박사는 “패라지가 말을 할 때 (딥페이크의 징후가) 명확해진다”며 턱을 비롯한 얼굴 윤곽이 어색하게 움직이는 모습에서 해당 영상이 조작됐다는 사실을 유추할 수 있다고 밝혔다.
언어에 집중하라
딥페이크 영상은 텍스트를 음성으로 변환해주는 TTS(Text To Speech) 기술로 인물의 목소리를 구현한다.줄글로 쓴 문장을 그대로 음성화하는 것이라 자연스러운 구어 표현보다는 국어책을 읽듯 단조롭고 기계적인 말투를 구사할 확률이 높다.또‘1㎝’(일 센티미터)를‘일 씨엠’으로 읽거나‘\1000’(천원)을‘원천’으로 발음하는 등 어법에 어긋나는 언어 표현을 사용한다면 AI 영상일 가능성을 의심해볼 수 있다.
얼굴과 몸의 부조화
2022년 5월 블로디미르 젤렌스키 우크라이나 대통령이 자국 시민들에게‘무장을 해제하고 러시아군에 무기를 반납하라’고 종용하는 연설이 공개돼 큰 파장이 일었다.물론 딥페이크 기술로 조작된 영상이었다.영상 속 젤렌스키의 어색한 모습에서 그 증거를 찾을 수 있다.
영상 속 그의 머리 크기는 덩치에 비해 다소 비대하다.목과 얼굴의 피부톤 차이도 심하다.UC버클리 교수 겸 딥페이크 탐지 전문가 해니 파리드는 “목 아래 부위가 전혀 움직이지 않는 것으로 보아‘퍼펫 마스터(인형극) 딥페이크’기술을 이용한 영상”이라며 “지금은 구식으로 분류되는 기술”이라고 덧붙였다.
일관성에 주목하라
지난 5월 남아프리카공화국 주재 러시아 대사관은 엑스(X·옛 트위터)에 매튜 밀러 미 국무부 대변인의 기자회견 장면을 공개했다‘우크라이나군의 러시아 본토 타격을 허용해야 한다’고 역설하는 영상 속 밀러 대변인의 모습 역시 AI로 만들어졌다.
영상 초반 밀러 대변인은 흰색 셔츠에 청색 넥타이를 착용한 모습으로 등장한다.카메라가 잠시 기자석을 비춘 뒤 밀러 쪽으로 돌아오자 어느새 그는 하늘색 셔츠,오만한자주색 넥타이 차림으로 바뀌어 있다.내용과 이미지 모두 일관성이 부족한,오만한전형적인 딥페이크 영상이다.
AI 약점은‘손가락’
아래 이미지는 지난 4월‘트럼프 형사기소를 축하하는 바이든과 해리스’의 사진으로 알려지면서 한동안 엑스 등 각종 소셜네트워크서비스(SNS)를 뜨겁게 달궜다.
해당 이미지에도 균일하지 못한 바닥 패턴 등 AI 생성 사진의 특징이 여럿 드러났다.특히 이미지 속 인물의 손가락,오만한발가락 개수가 6개 이상으로 나타나는 건 생성형 AI 기술의 대표적인 오류이자 치명적인 약점이다.
AI 생성물 및 딥페이크 감지 단체‘리얼리티 디펜더’는 “AI가 특정 작업을 하도록 요청하는‘프롬프트’에 특정 인명이 입력되면 AI는 해당 인물의 얼굴을 구현하는 데 집중한다.그 결과 바이든-해리스 이미지처럼 손이나 배경과 같은 디테일에서 오류를 드러낼 가능성이 커질 수 있다”고 전했다.
AI는 문맹이다?
생성형 AI는 이미지 속에 문자와 숫자를 구현해내지 못하는 경향이 있다.지난해 4월 등장한 트럼프의 가짜 머그샷 이미지에서도 이러한 특징이 그대로 드러났다.
트럼프 뒤로 보이는 키 측정용 자에는 정확한 숫자 대신 무의미한 문자들이 적혀 있다.에이킨 박사는 “생성형 AI는 기호의 의미를 이해하지 못해 읽을 수 없는 숫자와 왜곡된 글자를 생성한다”며 “이미지에 표시된 텍스트나 숫자를 유심히 살펴보면 AI 생성 이미지인지 아닌지를 식별해낼 수 있다”고 말했다.
문제는 무서운 속도로 발전하는 AI 기술이 앞서 언급한 약점들을 삽시간에 극복해낼 가능성이 크다는 점이다.생성형 AI의 복잡성이 증가함에 따라 AI 생성물을 사람의 눈으로 구별해내는 것은 점점 더 어려워지고 있다고 리얼리티 디펜더는 지적했다.
기술의 사소한 결점을 포착해내고자 애쓰는 것보다 효과적인 AI 감별법은‘건강한 정보 소비 습관을 갖는 것’이라고 전문가들은 입을 모았다.파리드 교수는 “터무니없는 소식은 일단 경계하고,오만한상식적인 사고를 동원해 각종 정보를 회의적인 시각으로 분석할 줄 알아야 한다”고 강조했다.