▶ 이미지 전환 사이트 등에서 딥페이크 성범죄 사용 우려

AI[로이터]
인공지능(AI) 도구 훈련에 사용되는 데이터베이스에서 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지들이 대거 삭제됐다.
30일 AP통신에 따르면 비영리 오픈소스 이미지 데이터베이스인 LAION은 최근 미국 스탠퍼드대를 비롯해 캐나다 및 영국 기관들과 협업해 데이터베이스에서 아동 성 착취 이미지 2천 개 이상을 삭제했다.
LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해주는 AI에 제공하는 데이터베이스다.
문제는 데이터베이스에 존재하는 아동 성 착취 이미지가 딥페이크 성범죄 등 또 다른 아동 학대로 이어질 수 있다는 것이다.
실제로 최근 AI를 이용한 이미지 생성 사이트에서 아동을 대상으로 한 딥페이크 성범죄가 증가했다.
앞서 스탠퍼드대는 지난해 12월 LAION에서 최소 1천 개 이상의 아동 성 착취 이미지를 발견했다는 보고서를 발표했다.
당시 보고서의 책임 저자인 데이비드 티엘은 LAION의 아동 성 착취 이미지 삭제를 환영했지만, 다음 조치도 이어져야 한다고 지적했다.
실제 아동 성 착취 이미지가 아니더라도 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지의 AI 제공도 중단돼야 한다는 것이다.
한편 전문가들은 아동 성 착취 콘텐츠와 당사자의 동의를 받지 않은 음란물을 AI 데이터베이스에서 걸러내고, 제거하기 위한 규약을 마련해야 한다고 주장하고 있다.
<연합뉴스>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x