著名图片生成与编辑AI产品Stable Diffusion的母公司,Stability AI,正式推出了他们的类ChatGPT产品:StableLM,并已经基于CC4.0协议在GitHub开源。并且提供两个版本,分别是30亿参数的StableLM 3B和70亿参数的StableLM 7B。
与Meta的LLaMA、斯坦福大学的Stanford Alpaca、Cerebras-GPT以及Dolly 2.0等AI一样,StableLM号称只需要更少的参数就可以达到OpenAI GPT-3模型的能力。例如GPT-3用了1750亿个参数,而StableLM只用了70亿参数。
以下是StableLM的发展计划,未来还会推出150亿参数、300亿参数、650亿参数和1750亿参数的版本。
除了OpenAI的GPT-3和最新的GPT-4,Stability AI还将自己的产品与其他AI进行了对比,例如Meta(Facebook母公司)的LLaMA。他们认为StableLM 7B模型构建的对话,表现比同样训练数据量(即70亿参数)的LLaMA模型表现更好,但都与GPT-3还有些差距。因此,Stability AI认为更多参数的StableLM拥有更强大的性能和更好的前景。
StableLM演示结果,让AI写一个C语言程序。
相关文章
猜你喜欢