更新

OpenAI 发布更新:实现实时跨音频、视觉和文本推理

ChainCatcher 消息,据 Cointelegraph 报道,OpenAI 在 10 月对其模型进行了四项更新,帮助其 AI 模型更好地进行对话并提高图像识别能力。第一项重大更新是实时 API,它允许开发人员使用单个提示创建人工智能生成的语音应用程序,实现类似于 ChatGPT 高级语音模式的自然对话。以前开发人员必须将多个模型“拼接在一起”才能创建这些体验。音频输入通常需要在接收响应之前完全上传和处理,这意味着语音相互对话等实时应用程序的延迟较高。借助 Realtime API 的流媒体功能,开发人员现在可以实现即时、自然的交互,就像语音助手一样。该 API 运行在 2024 年 5 月发布的 GPT-4 上,可以实时跨音频、视觉和文本进行推理。 另一项更新包括为开发人员提供的微调工具,使他们能够改进从图像和文本输入生成的人工智能响应。基于图像的微调器使人工智能能够更好地理解图像,从而增强视觉搜索和物体检测能力。该过程包括来自人类的反馈,他们提供了好的和坏的反应例子进行训练。 除了语音和视觉更新之外,OpenAI 还推出了“模型蒸馏”和“提示缓存”,允许较小的模型向较大的模型学习,并通过重用已处理的文本来减少开发成本和时间。据路透社报道,OpenAI 预计明年收入将增至 116 亿美元,高于 2024 年预计的 37 亿美元。
ChainCatcher 与创新者共建Web3世界