출처: Unsplash

2023년 5월 27일 중국 언론사 인민망(人民网)에 따르면, 네이멍구(内蒙古) 바오터우(头頭) 경찰은 최근 인공지능(Artificial-Intelligence, AI) 딥페이크(Deepfake) 기술을 이용한 사기 사건이 있었다고 발표했다. 이러한 사기는 기존의 보이스피싱(Voice Fishing)에 비해 AI 딥페이크 기술을 사용했기 때문에 얼굴 검증과 같은 예방 조치를 우회하는 방식을 통해 이루어졌다.

AI를 활용한 얼굴 바꾸기 기술은 일반 사용자도 튜토리얼(Tutorial)을 통해 쉽게 습득할 수 있다. 얼굴 바꾸기는 보이스피싱 외에도 유명인을 사칭한 라이브 방송, 합성 동영상 판매, 비방 및 갈취 등에도 활용되고 있다. 만약 정부가 적극적으로 개입하지 않으면 기술의 반복적인 업그레이드에 따라 AI 딥페이크 기술은 더욱 발전할 수 있으며, 사기 방지의 어려움이 더욱 증가하게 된다. 그렇기 때문에 현 시점에서 기술 개발자, 플랫폼(Platform) 운영자 및 규제 당국은 AI가 비도덕적으로 발전하는 것을 방지하기 위해 미리 차단할 책임이 있다.

이에 기술 역량을 강화하여 사용자의 사기 방지 능력을 강화할 필요가 있다. AI를 활용한 얼굴 변화는 일시적으로 사람의 눈을 속일 수 있지만, 완전히 은폐하기는 어렵다. AI로 생성된 이미지의 인식 및 진위를 확인하는 기술을 적용하여 짧은 영상 플랫폼 및 소셜 플랫폼들이 합성 이미지라는 사실을 화면에 크게 표시하게 해야 한다는 새로운 규칙도 논의되고 있다.

지난 22일, 미국에서도 인공지능이 만들어낸 미국 국방부 청사(펜타곤,Pentagon)와 백악관의 화재 사진이 온라인(Online)에 빠르게 퍼지며 미 주식시장이 출렁이는 등 큰 소동이 일었다. 최근 AI를 이용한 거짓 정보 확산이 민주주의를 위협할 수 있다는 우려가 커지는 가운데 AI가 생성한 가짜 이미지가 시장에까지 영향을 미친 첫 사례다. 미 국방부가 “사진이 조작된 것”이라며 진화에 나서 가까스로 무마되긴 했지만, AI의 부작용이 언제든 현실화될 수 있음을 확인시켜 준 사건이었다. (출처: 동아일보)

앞서 언급했듯이 현재 딥페이크 기술은 복잡한 과정 없이 일반인들도 쉽게 적용할 수 있다. 그렇기 때문에 최근 딥페이크 기술을 사용한 도용사칭 범죄 뿐만 아니라 음란물 생성 및 유포 등의 다양한 범죄들이 등장하고 있다. 딥페이크 기술은 마땅한 규제 조치 또한 없기 때문에 엄중한 처벌도 이뤄지지 않고 있다. 많은 국가에서 이러한 AI 기술을 활용한 범죄 방지를 위한 안전망 설치가 특히 필요한 시점으로 보인다.

관련 기사의 자세한 내용은 다음의 기사 확인 링크를 통해 확인할 수 있다. 기사 확인

답글 남기기