人工智能领域的领军企业OpenAI近日宣布,在其开发者API中推出了一款名为o1-pro的全新“推理”AI模型。这款模型相较于现有的o1模型,投入了更多的计算资源,旨在提供更加稳定和优质的响应。OpenAI表示,o1-pro的推出是为了满足开发者对更高性能AI模型的需求,尤其是在处理复杂任务时能够提供更可靠的解决方案。

然而,这款高性能模型目前仅面向部分特定的开发者开放,具体来说,是那些在OpenAI API服务上至少消费过5美元的用户。更为引人注目的是,o1-pro的定价也相当昂贵。OpenAI对输入模型的文本(按token计费,约75万词相当于100万token)收取每百万token150美元的费用,而模型生成的文本则为每百万token600美元。这一价格是OpenAI另一款先进模型GPT-4.5输入价格的两倍,更是普通o1模型生成价格的十倍。
尽管价格不菲,OpenAI对其o1-pro的性能寄予厚望,并坚信其卓越的表现将能够说服开发者为此买单。一位OpenAI发言人向科技媒体TechCrunch表示:“API中的o1-pro是o1的一个版本,它使用了更多的计算来进行更深入的思考,从而为最棘手的问题提供更好的答案。在收到我们开发者社区的诸多请求后,我们很高兴将其引入API,以提供更可靠的响应。”
值得注意的是,o1-pro此前已于去年12月在OpenAI的AI聊天机器人平台ChatGPT中面向ChatGPT Pro订阅用户开放。然而,早期用户对o1-pro的印象褒贬不一。有用户反映,该模型在解决数独谜题时表现不佳,甚至会被简单的视错觉笑话所难倒。此外,一些OpenAI内部在去年底进行的基准测试显示,o1-pro在编码和数学问题上的表现仅比标准版o1略有提升。不过,这些基准测试也发现,o1-pro在回答这些问题时更具可靠性。
OpenAI正试图通过投入更高的计算成本,来提升AI模型在复杂任务中的性能和可靠性,尽管这直接反映在了其高昂的定价策略上。开发者是否愿意为这种性能的提升付出如此高昂的代价,还有待市场检验。OpenAI的o1-pro模型无疑代表了AI技术的一次重要进步,但其高昂的成本和实际表现之间的平衡,将是决定其市场成功的关键因素。
划重点:OpenAI发布了更强大的AI模型o1-pro,旨在提供更优质的推理能力。o1-pro的定价极为昂贵,输入价格是GPT-4.5的两倍,生成价格是普通o1的十倍。早期用户反馈和内部测试显示,o1-pro在某些方面表现并不完美,但在编码和数学问题上更可靠。