안전 문제

OpenAI 안전 팀 해체에 대한 더 많은 내부 정보가 공개되었으며, 이는 컴퓨팅 자원 배분 및 안전 문제와 관련이 있습니다

ChainCatcher 메시지, 미 동부 시간 5월 14일(지난 화요일), OpenAI 수석 과학자 일리야 수츠케버(Ilya Sutskever)가 공식적으로 퇴사한다고 발표했습니다. 같은 날, OpenAI 슈퍼 정렬 팀의 책임자 중 한 명인 잔 레이크(Jan Leike)도 퇴사한다고 발표했습니다.지난 금요일, OpenAI는 수츠케버와 잔 레이크가 공동으로 이끌던 "슈퍼 인공지능 정렬 팀"이 해체되었다고 확인했습니다. 5월 18일 새벽, 잔 레이크는 소셜 플랫폼 X에서 13개의 트윗을 연달아 올리며 퇴사의 진짜 이유와 더 많은 내부 정보를 폭로했습니다.요약하자면, 첫째는 계산 자원이 부족하고, 둘째는 OpenAI가 안전을 충분히 중시하지 않는다는 것입니다. 잔 레이크는 새로운 세대 AI 모델을 준비하는 작업에 더 많은 자원과 노력을 투입해야 한다고 말했지만, 현재의 발전 경로로는 목표를 순조롭게 달성할 수 없다고 밝혔습니다. 그의 팀은 지난 몇 달 동안 엄청난 도전에 직면했으며, 때로는 충분한 계산 자원을 확보하기 어려웠습니다.잔 레이크의 폭로에 대해, 5월 18일 올트먼도 긴급히 글을 올려 응답했습니다: "저는 잔 레이크가 OpenAI의 AI 슈퍼 정렬 연구와 안전 문화에 기여한 것에 대해 매우 감사하게 생각하며, 그가 회사를 떠나는 것에 대해 매우 유감스럽게 생각합니다. 그는 우리가 아직 해야 할 일이 많다고 지적했으며, 우리는 이에 동의하고 이러한 작업을 추진하기 위해 노력하고 있습니다. 앞으로 며칠 내에 이 문제에 대해 더 자세한 글을 작성할 것입니다."
체인캐처 혁신가들과 함께하는 Web3 세상 구축