OpenAI发布了他们的ChatGPT新机器学习模型GPT-4。GPT-4是GPT-3的一大进步,GPT-3是当前ChatGPT免费版本(GPT 3.5 Turbo)所运行的模型的基础,今天我们也来凑个热点,研究一下它们的定价
与GPT-3.5相比,GPT-4 API将令牌的最大上下文长度增加了一倍,从4,096增加到8,192。而GPT-4 API的默认速率限制是:
每分钟40k个令牌,每分钟200个请求
除了API以外(需要申请)还可以通过ChatGPT Plus访问GPT-4,这个是每月20美元,根据限制来说,目前每4小时最多可以发送100条消息。
相比之下,只需20美元,就可以使用GPT-4 API处理大约444k令牌(大约333k个单词)。
那么,如果考虑GPT-4 API和ChatGPT API之间的比较:
用于提示请求的GPT-4比ChatGPT API贵14倍;而用于完成的GPT-4比ChatGPT API贵29倍。
那么我们就要研究一下这14x-29x之间的GPT-4 API比ChatGPT API更有价值吗?
我们主要考虑因素还是用例。如果用例与法律事务或通识教育/辅导相关,那么GPT-4绝对值得一试。因为它在这两方面的提升是非常明显的
而其他的用例还需要更深入测试,这样我们才能判断GPT-4 API能否带来实质性的好处。
另外就是OpenAI为提示和补全提供了对其32,768个上下文的有限访问,这样可以支持发送/接收比gpt-4-0314多4倍的文本。
也就是说最大上下文长度32,768(约50页文本)版本的GPT-4 API,花费将是8,092最大上下文长度版本的2倍:
请求令牌0.06 / 1k美元,响应令牌$0.12 / 1k美元
这个定价可以说是非常贵了。
总结在ChatGPT API和GPT-4 API之间的选择取决于对项目的特定需求。所以当你进行选择的时候应该确定:
预期的应用所需的精度涉及的财务问题对未来发展的适应性前几天的新闻,ChatGPT API的价格比text-davinci-003低10倍(成本低90%),所以ChatGPT API低成本较低也许可以让我们以更低的成本测试大语言模型的效果,随着开发者获得更低的价格,我们可以期待大量新的、令人兴奋的产品,这些产品将融入商品化的人工智能。至于GPT-4,我们还是继续等待它在实际应用中的结果吧。
作者:Ivan Campos
相关文章
猜你喜欢