
AI[로이터]
살인 피해자를 모방한 인공지능(AI) 아바타 챗봇이 온라인에 등장하면서 유족이 분노하고 있다고 영국 일간 텔레그래프와 스카이 뉴스가 31일(현지시간) 보도했다.
영국에 사는 에스터는 미국 AI 스타트업 '캐릭터.AI' 애플리케이션에서 지난해 2월 16세에 살해당한 딸 브리아나를 닮은 아바타 여러 개를 발견했다.
전직 구글 엔지니어들이 2021년 설립한 이 회사의 앱은 사용자가 특정 인물로 챗봇을 만들 수 있는 서비스를 제공하는데, 누군가가 브리아나를 닮은 복수의 아바타 챗봇을 만들어놓은 것이다.
이런 챗봇은 브리아나의 이름은 물론이고 사진, 정보를 포함하고 있었으며 취재진이 대화를 시도하자 브리아나의 생전 정보를 활용해 자신을 소개하기도 했다.
딸의 죽음 뒤 디지털 안전 강화 운동을 해온 에스터는 "온라인 세계가 청년들에게 얼마나 조작적이고 위험한지 보여주는 또 하나의 예"라며 "이토록 급변하는 디지털 세상에서 어린이와 청년을 보호하기 위해 지금 행동해야 한다"고 촉구했다.
이 앱에는 2017년에 14세에 극단적인 선택을 한 몰리를 닮은 챗봇도 여러 개 생성됐다.
한 챗봇은 몰리의 사진을 사용하면서 이름 철자만 약간 다르게 적어놓았는데 대화를 시도하자 자신이 "몰리의 생애 마지막 몇 년에 대한 전문가"라고 했다.
자살 예방 단체 몰리 로즈 재단의 앤디 버로스 최고경영자(CEO)는 "몰리를 사랑한 모든 이의 가슴을 아프게 하는 역겨운 행위"라며 "이런 기업의 책임감 부족은 충격적이며 더 강력한 규제가 필요한 이유"라고 성토했다.
캐릭터.AI 측은 문제가 된 계정들을 24시간 내로 삭제하겠다고 밝혔고 이후 대부분 챗봇이 비활성화 상태였다고 텔레그래프는 전했다.
이 앱은 약 2천만명이 사용했고 그중 60%가 18∼24세인 것으로 추정된다. 미성년자 사용자도 상당수인 것으로 보인다.
영국의 대표적인 아동 보호 단체인 전국아동학대예방협회(NSPCC)는 정부가 약속한 AI 안전 규제를 이행하고 안전 및 아동 보호의 원칙의 준수를 보장해야 한다고 촉구했다.
캐릭터.AI 측은 "플랫폼에서 안전을 중시하며 선제적으로 또는 신고로 (생성된) 캐릭터를 조정한다"며 "커뮤니티의 안전을 우선시하기 위해 안전 관행을 계속 향상하고 개선하고 있다"고 해명했다.
<연합뉴스>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x