출시 전

OpenAI는 AI 안전성을 보장하기 위한 배포를 소개합니다: 새로운 버전 출시 전 엄격한 테스트, 안전 및 모니터링 시스템 구축

ChainCatcher 메시지에 따르면, ChatGPT 개발 회사 OpenAI는 자사의 공식 웹사이트에 《AI 안전성을 보장하는 우리의 접근 방식》이라는 제목의 기사를 발표하여 AI 모델의 안전성을 보장하기 위한 배포 방법을 소개했습니다.기사에 따르면, AI 도구는 오늘날 인류에게 많은 이점을 제공합니다. OpenAI는 또한 모든 기술과 마찬가지로 이러한 도구가 실제 위험을 초래한다는 것을 인식하고 있으며, 따라서 회사는 시스템의 모든 수준에서 안전 장치를 구축하기 위해 노력하고 있습니다.OpenAI는 새로운 시스템을 출시하기 전에 철저한 테스트를 수행하고, 외부 전문가를 고용하여 피드백을 제공받으며, 인공지능 피드백 강화 학습 등의 기술을 통해 모델의 행동을 개선하고, 광범위한 안전 및 모니터링 시스템을 구축합니다.또한 OpenAI는 강력한 인공지능 시스템이 엄격한 안전 평가를 받아야 한다고 생각합니다. 이러한 관행을 채택하기 위해 규제가 필요하며, 우리는 정부와 협력하여 이러한 규제의 최선의 형태를 마련하기 위해 적극적으로 노력하고 있습니다.동시에 사회는 점점 더 강력해지는 AI에 적응하고 조정할 시간을 가져야 하며, OpenAI는 아동 보호, 개인 정보 존중, 사실 정확성 향상을 ChatGPT 안전 작업의 주요 초점으로 삼고, 효과적인 완화 조치 및 기술을 연구하는 데 더 많은 시간과 자원을 투자하며, 현실 세계의 다양한 사용 사례를 대상으로 테스트를 진행할 것입니다.(출처 링크)
체인캐처 혁신가들과 함께하는 Web3 세상 구축