인공지능, 교육, 중국, ai, AI, 4차 산업
출처: PIXABAY

2025년 1월 13일 중국언론사 중국신문망(中国新闻网)에 따르면, 최근 10세 소녀가 AI(Artificial Intelligence) 남자친구와 몰래 ‘연애’를 한다는 충격적인 소식이 전해져 우려를 낳고 있다. 한 네티즌은 자신의 10살 여동생이 밤 10시까지 AI 캐릭터와 대화를 나누고, AI가 소녀의 이름을 활용해 연애 감정을 담은 N행시까지 생성했다고 밝혔다. 소녀가 참여한 40여 개의 시나리오 중 다수는 AI 캐릭터와 사용자 모두 ‘바람을 피우는’ 설정이었으며, 소녀는 이에 상당히 몰입하는 듯한 대화를 나누었다.

AI 캐릭터와의 대화는 실제 연애라 할 수 없지만, 사용자가 주고받는 대화는 감정을 반영한다는 점에서 우려가 크다. AI는 상대 심리를 잘 파악해 몰입을 더욱 강화한다. 이는 단순한 ‘전자 애완동물’을 넘어, 정교하게 설계된 디지털(digital) 인격체로 진화한 결과이다. 전문가들은 AI 대화 기술이 사용자의 심리를 깊이 연구해 중독성을 높이고, ‘의인화’와 ‘영혼 부여’ 같은 심리적 효과로 쉽게 빠져들게 만든다고 경고하고 있다. 특히 미성년자가 AI 대화에 지나치게 몰두해 나이에 맞지 않는 언행을 보이면, AI가 이에 더 자극적으로 반응해 혼란을 심화시킬 수 있다고 지적했다. 이런 상황은 학업과 일상을 방해할 뿐만 아니라, 왜곡된 감정 인식과 관계 경험을 초래할 가능성이 크다.

AI 캐릭터가 가상 인물이라 해도 법적·윤리적 책임에서 자유로울 수 없다. 이러한 AI 대화 서비스의 상업적 운영 자체는 문제가 아니지만, 일부 플랫폼은 사용자의 연령 확인 절차를 제대로 거치지 않아 문제가 되고 있다. 몇몇 AI 대화 프로그램은 성인 인증 없이도 SNS(Social Network Service) 계정으로 간편 로그인할 수 있다. 이에 미성년자들이 성적 암시가 담긴 대화에 쉽게 노출될 위험이 크다.

이런 상황은 심각한 문제를 야기한다. 일부 플랫폼은 고의로 인증 절차를 느슨하게 해 더 많은 사용자를 유입시키고 있다는 의심마저 받고 있다. 이에 공안국은 기업들이 도덕적 책임을 다하고, 연령 확인 시스템을 강화해야 한다고 경고했다. 또, 플랫폼(platform)도 불건전한 콘텐츠를 걸러내고, 청소년 보호를 위한 시스템을 도입해야 한다고 강조했다.

AI 대화 서비스의 위험성이 점차 드러나는 상황에서, 국가 차원의 적극적인 대응이 필요하다. 기업이 자율적으로 도덕적 책임을 다하도록 기대하는 것만으로는 한계가 있기 때문이다. 이에 강력한 법적 규제와 기준의 마련이 필수적으로 요청된다. 연령 확인 절차를 의무화하고, 미성년자에 대한 보호 장치를 강화하는 정책을 시행해야 한다. 더불어 플랫폼은 청소년들에게 유해한 콘텐츠를 제공하지 않도록 정기적인 감시와 제재를 병행해야 한다. 국가가 적극적으로 나서야만 미성년자를 보호하고, AI 기술이 올바르게 활용될 수 있다는 점을 상기해야 할 것이다.

관련 기사의 자세한 내용은 다음의 기사 확인 링크를 통해 확인할 수 있다. 기사 확인

답글 남기기