2021년 8월 6일 로이터 통신(Reuters)에 따르면 미국 캘리포니아(California)주(州)에 본사 둔 다국적 기술 기업인 애플사(Apple. Inc)에서 아동 성 착취 방지를 위해 아이폰(iPhone)에 아동 성범죄 관련 사진을 식별하고 자동으로 신고하는 기능의 소프트웨어가 탑재될 예정이라고 밝혔다. 아동 성적 학대 관련 사진이 유통되지 않도록 감시하겠다는 취지지만, 이런 ‘검열’ 기능이 사생활 침해가 되지 않느냐는 비판이 거세게 일고 있다.
아이클라우드에 저장된 사진 중 아동성착취물(CSAM)로 의심되는 걸 자동으로 찾아내 신고하는 기능인 ‘뉴럴 매치(neuralMatch)’는 향후 업데이트 될 iOS 15 업데이트에서 미국 아이폰 유저를 대상으로 자동으로 설치된다. 암호화 기술과 인공지능(AI)을 활용해 아동 성적 학대로 의심되는 이미지를 1차로 가려낸 다음, 애플이 다시 한번 직접 검토해 아동성착취물로 확인되면 아동학대 전문 비영리 민간단체에 알려 경찰 등에 신고를 하는 식으로 작동된다. 단, 동영상에서나 아이클라우드를 쓰지 않으면 이 기능은 작동하지 않는다.
일각에서는 이러한 기능이 애플이 미 수사 당국에 비협조적이라는 비판에 따른 조치라고 해석하고 있다. 애플은 그동안 ‘사생활 보호’를 최우선 가치로 내세우며 수년간 FBI나 CIA 같은 미국 수사당국과 부딪쳐왔다. 2016년 캘리포니아에서 발생한 총기 테러 사건 용의자의 아이폰 잠금을 풀어 달라는 미국 연방수사국(FBI)의 요청에 애플은 ‘개인정보 침해’라며 거부한 뒤, 오히려 아이폰 등의 보안을 강화해서 긴장이 팽팽한 상태였다. 그동안 수사당국이 애플에 협조를 요청하며 가장 많이 든 이유는 아동성착취물과 테러 범죄였고, 아동성착취물의 경우 상황을 알았을 때 의무적으로 신고해야 하는 법이 존재한다. 페이스북과 트위터, 구글 등은 이미 비슷한 시스템으로 모니터링을 하고 있었기 때문에, 애플도 가만히 있을 수 없었을 거라는 분석이다.
새로운 업데이트 계획에 대해 사용자들의 갑론을박이 이어지고 있다. 찬성하는 사람들은 “끔찍한 범죄를 막기 위해 꼭 필요한 기능이다. 아동성착취물이 온라인에 퍼지는 걸 막을 수도 있고, 범인 잡는 것도 더 쉬워질 것”이라고 주장하지만, 반대하는 측에서는 “프라이버시를 많이 신경썼다고 해도 결국 기업이 어떤 식으로든 이용자의 사진을 감시할 수 있다는 걸 보여준 예시일 뿐”이라며, 만약 정부가 테러 같이 다른 범죄와 관련된 사진을 찾아내는 기술도 만들어달라고 하면 사용자들의 사생활이 검열되는 건 시간 문제이고, 일단 이런 기술이 만들어지면 언제든 문제가 될 수 있다며 강하게 반박했다.
이러한 논란에 대해 애플은 정부가 아동음란물 외의 콘텐츠에 대한 감시를 요구하면 거부할 것이라며, 소프트웨어 업데이트 이후에도 개인 사생활은 철저하게 보장될 것이라고 못박았다. 사생활 보호를 최우선 가치로 내세우며 그동안 이를 경쟁사들과 차별화 요소로 삼았던 애플의 프라이버시 보호 방침이 흔들리는 것 아니냐는 우려 속에서, 애플 유저들은 어떠한 방식으로 업데이트가 될지 기다리고 있다. 범죄를 방지하기 위한 취지로 계발된 소프트웨어가 취지에 어긋난 채 이용되면 어떻게 해야 할까. 애플의 새로운 소프트웨어 업데이트를 두고 다양한 논의가 이어질 것으로 보인다.
관련 기사는 다음의 기사확인 링크를 통해 자세히 확인할 수 있다. 기사 확인