GPT-4o

OpenAIはすべてのユーザー向けに、より速くて安価なAIモデルを発表しました。

ChainCatcher のメッセージ、OpenAI が最新のフラッグシップモデル GPT-4o を発表しました。これは、リアルタイムで音声、視覚、テキストを推論できるもので、主なコンセプトは擬人化、超自然、超低遅延の個人音声インタラクションアシスタントです。OpenAI の公式ウェブサイトおよび X プラットフォームの公式アカウントに関する情報によると、GPT4o の o は Omni(全方位)を表し、より自然な人間と機械のインタラクションへの一歩です------テキスト、音声、画像の任意の組み合わせを入力として受け入れ、任意の組み合わせのテキスト、音声、画像出力を生成することをサポートします。音声入力に対して 232 ミリ秒以内に応答でき、平均 320 ミリ秒で、対話中の人間の反応時間に似ています。英語とコードに関しては、GPT-4 Turbo と同等の性能を持ち、非英語の言語テキストにおいては顕著な改善が見られます。また、API の速度はより速く、コストは 50% 安価です。既存のモデルと比較して、GPT-4o は視覚と音声理解において特に優れた性能を発揮します。テキストと画像の入力は本日 API と ChatGPT で導入され、音声と動画の入力は今後数週間内に導入される予定です。
チェーンキャッチャー イノベーターとともにWeb3の世界を構築する