围绕ChatGPT和其他大语言模型的媒体狂热报道了一系列主题,从平淡无奇的“大型语言模型可以取代传统的网络搜索”。到令人担忧的“人工智能将消除许多工作”。所有这些主题都有一个共同点:大语言模型预示着人工智能将取代人类。
但是,大语言模型,尽管有“人工智能”这个名字,但他们完全依赖于人类的知识和劳动力。如果没有人类提供新内容并告诉它如何解释该内容,ChatGPT就无法学习、改进甚至保持最新状态,更不用说编程模型和构建、维护和为其硬件提供动力了。要了解原因,您首先必须了解ChatGPT和类似模型是如何工作的,以及人类在使它们发挥作用方面所发挥的作用。
CHATGPT如何运作
像ChatGPT这样的大型语言模型广泛地工作,通过根据训练数据集预测哪些字符、单词和句子应该按顺序排列。就ChatGPT而言,培训数据集包含大量从互联网上抓取的公共文本。
反馈的必要性
如果您使用ChatGPT,您会注意到您可以选择将回复评为好坏。如果你把它们评为糟糕,你会被要求提供一个好答案所包含的示例。ChatGPT和其他大型语言模型通过用户、开发团队的反馈来了解哪些答案,哪些预测的文本序列是好的,哪些是坏的。
因此,当模型给你一个好答案时,它利用了大量的人类劳动力,这些劳动力已经告诉它什么是好答案,什么不是一个好答案。屏幕后面隐藏着很多很多人类的智慧,如果模型要继续改进或扩大其内容覆盖范围,将永远需要他们。
CHATGPT不能做什么
反馈的重要性可以从ChatGPT“参与”的倾向中直接看出。未经培训,即使互联网上广泛提供有关该主题的良好信息,ChatGPT也无法就该主题提供好答案。
因为大型语言模型实际上并不理解或评估信息,所以它们依赖于人类来为他们做这件事。它们是人类知识和劳动的寄生者。当新的来源被添加到他们的训练数据集中时,他们需要根据这些来源构建句子。
他们无法评估新闻报道是否准确。他们无法评估论点或权衡权衡。他们甚至不能阅读百科全书页面,只能做出与之一致的陈述,或者准确地总结电影的情节。他们依靠人类为他们做所有的这些事情。
然后他们转述和重新混合人类所说的话,并依靠更多的人类来告诉他们他们是否转述和重新混合得很好。如果关于某个话题的常识发生变化。例如,盐是否对心脏有害,或者早期乳腺癌筛查是否有用。它们将需要接受广泛的再培训,以纳入新的共识。
背后的人类
简而言之,大型语言模型远非完全独立的人工智能的预兆,而是说明许多人工智能系统的完全依赖性,不仅对其设计人员和维护者,而且对其用户。因此,如果ChatGPT给你一个关于某事的好或有用的答案,记得感谢成千上万或数百万隐藏的人,他们写下了它所说的话,并教它什么是好答案和坏答案。
ChatGPT远非自主的超级智能,像所有技术一样,没有我们,就一无是。
相关文章
猜你喜欢