/ ai资讯

OpenAI推GPT-4o预测输出功能:响应速度提升5倍,但更贵了

发布时间:2024-11-07 10:35:57

OpenAI近日推出了一项重要更新,为GPT-4o模型引入"预测输出"(Predicted Outputs)功能。这项创新技术显著提升了模型的响应速度,在特定场景下最高可达到原有速度的5倍,为开发者带来全新的效率体验。

这项由OpenAI与FactoryAI联合开发的功能,其核心优势在于能够绕过已知内容的重复生成过程。在实际应用中,特别是在更新博客文章、迭代现有回复或重写代码等任务上表现出色。根据FactoryAI提供的数据显示,在编程任务中,响应时间缩短了2至4倍,将原本需要70秒的任务压缩至20秒内完成。

目前,该功能仅通过API形式向开发者开放,支持GPT-4o和GPT-4mini两个模型。实际使用反馈积极,多位开发者已展开测试并分享使用体验。Firecrawl创始人Eric Ciarla在进行SEO内容转换时表示:"速度提升显著,使用方式简单直接。"

技术层面上,预测输出功能的工作原理是识别和复用可预见的内容部分。OpenAI官方文档举例说明,在代码重构等场景中,如将C#代码中的"Username"属性修改为"Email"时,通过将整个类文件作为预测文本输入,可以大幅提升生成速度。

然而,该功能也存在一些使用限制和注意事项。除了模型支持的限制外,某些API参数在使用预测输出时不可用,包括大于1的n值、logprobs以及大于0的presence_penalty和frequency_penalty等。

值得注意的是,这项功能在提供更快响应速度的同时,也带来了轻微的成本增加。根据用户测试数据,同一任务在使用预测输出功能后,虽然处理时间从5.2秒减少到3.3秒,但费用从0.1555美分上升至0.2675美分。这是因为OpenAI对预测时提供的非最终完成部分的tokens同样按照完成tokens费率收费。

尽管成本略有提升,但考虑到显著的效率提升,这项功能仍然具有相当的应用价值。开发者可通过OpenAI官方文档获取更详细的技术说明和使用指南。


免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com