此外还有:
更新和更可控制的gpt-4和gpt-3.5-turbo版本。
新推出的gpt-3.5-turbo 支持16k的上下文输入。
gpt-3.5-turbo输入token成本降低25%。
最先进embeddings model降价75%
开放gpt-3.5-turbo和gpt-4 API,不再设置等待时间表。
在这次更新中,OpenAI 重点介绍了函数调用:开发者不用手动选择函数,只需要模型描述需要用到的函数,何时调用哪个函数都是模型根据提示词自己决定的,与GPT-4调用插件的机制一样。
这些模型已经进行了微调,可以检测到何时需要调用函数,也可以生成符合函数签名的JSON响应。换句话说,函数调用使得开发者能够更可靠地从模型中获取结构化数据。
更新模型:GPT-4和gpt-3.5-turbo大升级
GPT-4/GPT-3.5-turbo有两个模型,编号都是0613(意为:6月13号更新?)。
其中,gpt-4-0613包括一个更新且改进的模型,具有函数调用功能;gpt-4-32k-0613包括与gpt-4-0613相同的改进,同时扩展了上下文长度,以便更好地理解较大的文本。
gpt-3.5-turbo-0613 包括与 GPT-4 相同的函数调用以及通过系统消息提供的更可靠的可控性;gpt-3.5-turbo-16k 的16k 上下文意味着该模型现在可以在单个请求中支持约 20 页文本。
此次更新OpenAI提供了更多的服务,但却只收取更低的价格,妥妥的业界良心啊:
“text-embedding-ada-002 将成本降低 75% 至每 1K Token 0.0001 美元。
gpt-3.5-turbo-16k 的定价为每 1K 输入Token 0.003 美元,每 1K 输出Token 0.004 美元。
gpt-3.5-turbo’s 输入Token的成本降低了 25%”
价格计划更新后,有网友表示:OpenAI好像、貌似给免单了。
相关文章
猜你喜欢