OpenAI는 모든 사용자에게 더 빠르고 저렴한 AI 모델을 출시했습니다
ChainCatcher 메시지, OpenAI가 최신 플래그십 모델 GPT-4o를 출시했습니다. 이 모델은 실시간으로 오디오, 비주얼 및 텍스트를 추론할 수 있으며, 주된 개념은 의인화, 초자연적, 초저지연 개인 음성 상호작용 도우미입니다.OpenAI 공식 웹사이트 및 X 플랫폼 공식 계정의 관련 정보에 따르면, GPT4o의 o는 Omni(전면적)를 의미하며, 보다 자연스러운 인간-기계 상호작용을 위한 한 걸음입니다------텍스트, 오디오 및 이미지의 임의 조합을 입력으로 받아들이고, 임의 조합의 텍스트, 오디오 및 이미지 출력을 생성하는 것을 지원합니다. 이 모델은 232밀리초 내에 오디오 입력에 응답할 수 있으며, 평균 320밀리초로 대화 중 인간의 반응 시간과 유사합니다. 영어 및 코드 측면에서 GPT-4 Turbo와 성능이 비슷하며, 비영어 언어 텍스트에서 상당한 개선을 보이고, API 속도가 더 빠르고 비용이 50% 저렴합니다. 기존 모델과 비교할 때, GPT-4o는 비주얼 및 오디오 이해에서 특히 뛰어난 성능을 보입니다. 텍스트 및 이미지 입력은 오늘 API 및 ChatGPT에서 출시되며, 음성 및 비디오 입력은 향후 몇 주 내에 출시될 예정입니다.