▶ 독립 이사회 기구 운영
▶ 외부인사 영입 등 변화
챗GPT 개발사 오픈AI가 지난 5월 인공지능(AI) 기술 개발 과정에서 안전 및 윤리 문제를 점검하기 위해 구성한 새로운 안전·보안위원회의 기능을 강화하기로 했다.
오픈AI는 16일 안전 및 보안 위원회를 이사회의 감독위원회로 운영하기로 했다고 밝혔다.
그동안 오픈AI 내에서 운영해오던 이 위원회를 이사회 위원회로 격상해 독립적인 기구로 운영한다는 것이다.
이는 기존 안전팀이 해체되면서 오픈AI가 AI를 개발하는 데 안전과 보안이 뒷전으로 밀려나는 것이 아니냐는 우려가 제기되는 가운데 나왔다.
오픈AI는 “위원회는 우리의 AI 모델 배포 및 개발을 안내하는 안전 및 보안 프로세스를 감독하게 될 것”이라고 설명했다.
위원회는 지난달 이사회에 합류한 미 카네기멜런대 지코 콜터 머신러닝 교수가 위원장을 맡고 오픈AI 이사회 멤버인 애덤 단젤로와 연방 국가안보국(NSA) 국장 출신의 퇴역 장군 폴 M. 나카소네 등도 참여한다.
그동안 위원회는 브렛 테일러 이사회 의장과 샘 올트먼 최고경영자(CEO) 등이 이끌었는데, 독립 기구로 재편성하면서 인적 구성에 변화를 줬다.
오픈AI는 지난주 추론이 가능한 새로운 AI 모델 ‘o1’(오원)을 출시했다.
오픈AI는 “위원회가 o1의 출시 적합성을 평가하기 위해 오픈AI가 사용한 안전 및 보안 기준과 안전 평가 결과를 검토했다”고 전했다.
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x