OpenAI 로드맵: GPT-4 API 비용을 낮추고 있으며, GPT-3 오픈소스를 고려 중입니다
ChainCatcher 메시지에 따르면, AI 개발 플랫폼 HumanLoop 블로그에서 OpenAI CEO Sam Altman은 비공식 세미나에서 OpenAI가 현재 GPU에 심각하게 제한되어 있어 많은 단기 계획이 지연되고 있으며, ChatGPT의 신뢰성과 속도에 대한 대부분의 문제는 GPU 자원 부족으로 인해 발생한다고 밝혔습니다.Sam Altman은 또한 OpenAI의 최근 로드맵을 공유했습니다: 2023년에는 GPT-4 API 비용을 낮출 것이며; 더 긴 ChatGPT 컨텍스트 윈도우(최대 100만 개 토큰)가 제공될 것이고, 미래에는 대화 기록을 기억하는 API 버전이 나올 것입니다; GPT-4의 다중 모달 기능은 2024년에 공개될 예정이며, 더 많은 GPU 자원을 확보하기 전에는 GPT-4의 비주얼 버전을 모든 사람에게 확장할 수 없습니다.또한, OpenAI는 GPT-3의 오픈 소스를 고려하고 있으며, 그들이 아직 오픈 소스를 하지 않은 부분적인 이유는 많은 사람과 회사가 이렇게 큰 대형 언어 모델을 적절히 관리할 능력이 없다고 생각하기 때문입니다. 최근 많은 기사에서 주장하는 "거대 AI 모델의 시대는 끝났다"는 잘못된 정보이며, OpenAI 내부 데이터에 따르면 규모와 성능이 비례한다는 법칙은 여전히 유효하며, OpenAI의 모델 규모는 매년 두 배 또는 세 배로 증가할 수 있습니다(다양한 정보에 따르면 GPT-4의 파라미터 규모는 10000억입니다), 많은 수량급으로 증가하는 것이 아닙니다.(출처 링크)