▶ 자연스러운 대화 가능한 ‘GPT-4o’ 관련 쟁점 보고서 공개
▶ “AI와 유대 표현하는 현상 관찰”…전문가 “기업, 윤리적으로 해결할 책임”

오픈AI 로고[로이터]
챗GPT 개발사 오픈AI는 실제 사람과 대화하는 듯한 경험을 제공하는 생성형 인공지능(AI) 서비스가 사용자들을 AI에 감정적으로 의존하게 만들 수 있는 위험이 있다고 우려했다.
오픈AI는 음성 지원이 가능한 새 인공지능(AI) 모델 'GPT-4o'(GPT-포오)와 관련해 내놓은 보고서에서 이처럼 지적했다고 CNN이 9일 보도했다.
GPT-4o는 오픈AI가 지난 5월 공개한 최신 인공지능 모델로, 딱딱한 기계음이 아닌 자연스러운 사람 목소리를 내고 사용자와 실시간 음성 대화가 가능한 게 특징이다.
서비스 첫 공개 당시 인간이 AI 비서와 사랑에 빠지는 내용의 2013년 개봉작 영화 '허'(Her) 속 AI가 현실이 됐다는 평가를 받으며 큰 주목을 받았다.
GPT-4o에 사용된 AI 음성이 영화 '허' 속 AI 비서 목소리의 주인공인 스칼릿 조핸슨의 목소리와 비슷하다는 지적이 나오면서 논란이 되기도 했다.
오픈AI는 보고서에서 "사용자들이 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다"라고 우려했다.
영화 속에서 AI와 사랑에 빠진 주인공 모습이 더는 영화 속 허구가 아닐 수 있다는 점을 지적한 것이다.
오픈AI는 "사용자가 AI와 사회적 관계를 형성하면서 다른 사람과의 상호작용에 대한 필요성을 줄일 수 있다"며 "이는 외로운 개인에 잠재적으로 도움을 줄 수 있지만, 다른 사람과의 건강한 관계에도 영향을 미칠 수 있다"라고 판단했다.
또한 생성형 AI가 잘못된 정보를 알려줄 수 있음에도 AI가 마치 실제 사람처럼 말하는 것은 사용자가 AI를 더욱 신뢰하게 만들 수 있다고 지적했다.
오픈AI는 GPT-4o의 음성 모드 기능이 장기간에 걸쳐 사람들 간의 정상적인 사회적 상호작용 방식에도 영향을 미칠 수 있다고 평가했다.
GPT-4o의 음성 모드는 AI의 음성 답변이 이뤄지는 도중 사용자가 언제든지 개입해 답변을 멈추고 사용자의 음성을 입력할 수 있게 설계됐는데 이 같은 기능설계가 사람 간 상호작용 방식에 영향을 미칠 수 있다고 본 것이다.
오픈AI는 보고서에서 "AI를 '안전하게' 만들기 위해 최선을 다하고 있으며 사용자의 잠재적인 '감정적 의존'에 대해 지속해서 연구할 계획"이라고 밝혔다.
애리조나 주립대에서 기술과 인간 소통을 연구하는 리젤 샤라비 교수는 CNN 인터뷰에서 "기업은 윤리적이고 책임감 있는 방식으로 이 문제를 해결해야 할 책임이 있다"며 "지금은 모든 게 실험적인 단계에 있는 상황"이라고 강조했다.
<연합뉴스>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x