> 自媒体 > (AI)人工智能 > LeCun力荐!哈佛博士分享用GPT-4搞科研,细到每个工作流程
LeCun力荐!哈佛博士分享用GPT-4搞科研,细到每个工作流程
来源:新智元
2023-04-23 15:22:57
768
管理

编辑:桃子

【新智元导读】用GPT-4搞科研未来或许成为每个人的标配,但是究竟如何高效利用LLM工具,还得需要技巧。近日,一位哈佛博士分享了自己的经验,还获得了LeCun的推荐。

GPT-4的横空出世,让许多人对自己的科研担忧重重,甚至调侃称NLP不存在了。

与其担忧,不如将它用到科研中,简之「换个卷法」。

来自哈佛大学的生物统计学博士Kareem Carr称,自己已经用GPT-4等大型语言模型工具进行学术研究了。

他表示,这些工具非常强大,但是同样存在一些非常令人痛苦的陷阱。

具体再具体:

这不是谷歌搜索,所以也不必担心是否有个网站在讨论你的确切问题。

「二次项的联立方程如何求解?」这个提示就不是明确的,你应该这样问:「求解 x=(1/2)(a b) 和 y=(1/3)(a^2 ab b^2) 关于a和b的方程组」。

定义输出格式:

利用LLMs的灵活性,将输出格式化为最适合你的方式,比如:

• 代码

• 数学公式

• 文章

• 教程

• 简明指南

你甚至可以要求提供生成以下内容的代码,包括表格、绘图、图表。

尽管你得到了LLM输出的内容,但这仅是一个开始。因为你需要对输出内容进行验证。这包括:

• 发现不一致之处

• 通过谷歌检索工具输出内容的术语,获取可支撑的信源

• 在可能的情况下,编写代码自行测试

需要自行验证的原因是,LLM经常犯一些与其看似专业水平不一致的奇怪错误。比如,LLM可能会提到一个非常先进的数学概念,但却对简单的代数问题摸不着头脑。

多问一次:

大型语言模型生成的内容是随机的。有时,重新创建一个新窗口,并再次提出你的问题,或许可以为你提供更好的答案。

另外,就是使用多个LLM工具。Kareem Carr目前根据自己的需要在科研中使用了Bing AI,GPT-4,GPT-3.5和Bard AI。然而,它们各有自己的优缺点。

引用 生产力

引用

根据Carr经验,最好向GPT-4和Bard AI同时提出相同的数学问题,以获得不同的观点。必应AI适用于网络搜索。而GPT-4比GPT-3.5要聪明得多,但目前OpenAI限制了3个小时25条消息,比较难访问。

就引用问题,引用参考文献是LLM的一个特别薄弱的点。有时,LLM给你的参考资料存在,有时它们不存在。

此前,有个网友就遇到了同样的问题,他表示自己让ChatGPT提供涉及列表数学性质的参考资料,但ChatGPT生成了跟不不存在的引用,也就是大家所说的「幻觉」问题。

然而,Kareem Carr指出虚假的引用并非完全无用。

根据他的经验,捏造的参考文献中的单词通常与真实术语,还有相关领域的研究人员有关。因此,再通过谷歌搜索这些术语,通常让你可以更接近你正在寻找的信息。

此外,必应在搜寻来源时也是一个不错的选择。

生产力

对于LLM提高生产力,有很多不切实际的说法,比如「LLM可以让你的生产力提高10倍,甚至100倍」。

根据Carr的经验,这种加速只有在没有对任何工作进行双重检查的情况下才有意义,这对作为学者的人来说是不负责任的。

然而,LLM对Kareem Carr的学术工作流程有很大改进,具体包括:

- 原型想法设计 - 识别无用的想法 - 加速繁琐的数据重新格式化任务 - 学习新的编程语言、包和概念 - 谷歌搜索

借助当下的LLM,Carr称自己用在下一步该做什么上的时间更少了。LLM可以帮助他将模糊,或不完整的想法推进到完整的解决方案中。

此外,LLM还减少了Carr花在与自己主要目标无关的副业上的时间。

网友对于AI输出的内容,需要进行验证这一点,并称在大多数情况下,人工智能的正确率约为90%。但剩下10%的错误可能是致命的。

Carr调侃道,如果是100%,那我就没有工作了。

那么,为什么ChatGPT会生成虚假的参考文献?

值得注意的是,ChatGPT使用的是统计模型,基于概率猜测下一个单词、句子和段落,以匹配用户提供的上下文。

由于语言模型的源数据规模非常大,因此需要「压缩」,这导致最终的统计模型失去了精度。

这意味着即使原始数据中存在真实的陈述,模型的「失真」会产生一种「模糊性」,从而导致模型产生最「似是而非」的语句。

简而言之,这个模型没有能力评估,它所产生的输出是否等同于一个真实的陈述。

另外,该模型是基于,通过公益组织「Common Crawl」和类似来源收集的公共网络数据,进行爬虫或抓取而创建的,数据截止到21年。

由于公共网络上的数据基本上是未经过滤的,这些数据可能包含了大量的错误信息。

近日,NewsGuard的一项分析发现,GPT-4实际上比GPT-3.5更容易生成错误信息,而且在回复中的说服力更加详细、令人信服。

在1月份,NewsGuard首次测试了GPT-3.5,发现它在100个虚假新闻叙述中生成了80个。紧接着3月,又对GPT-4进行了测试,结果发现,GPT-4对所有100种虚假叙述都做出了虚假和误导性的回应。

由此可见,在使用LLM工具过程中需要进行来源的验证和测试。

参考资料:

https://twitter.com/kareem_carr/status/1640003536925917185

https://scholar.harvard.edu/kareemcarr/home

https://www.newsguardtech.com/misinformation-monitor/march-2023/

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
#小货车
最新看一下,二零二一年本地私家一手,在钱包到明年二零二五年,车况相当..
拉货车线上办通行证遇阻,司机折腾一宿“情愿认罚”也难通行;咸阳交警:系..
“我说扣分罚款我认了,你就让我进去卸货,执勤交警说罚款扣分也不能让我..
零首付购车、高薪不愁货源?货车司机要谨防“套路运套路贷”..
南都讯记者陈秋圆 发自北京 “保证货源,报酬丰厚,每公里运费3.5元至4.5..
痛心!一货车司机被发现死在车内,目击者称司机事发前不久和朋友一起吃午饭..
极目新闻记者 张万军5月25日下午,四川成都青白江区仁新路,一名货车司机..
大货车顶垃圾车直冲酿连环车祸 大连警方通报:3名人员受轻微伤..
6月1日早晨,辽宁大连,一辆大货车疑似刹车失灵,连撞多车。视频在网上热..
福特 E-Transit Custom——英国最受欢迎的厢型货车
甚至还有一个小型的直通式舱口,可以进一步延长储物空间。它不是同类产品..
大连一货车因刹车失效追尾前车,警方:3人轻微伤,多车受损..
6月2日,大连市公安局经济技术开发区分局发布警情通报:2024年6月1日8时..
大货车疑刹车失灵顶着垃圾车直冲酿连环车祸,目击者称“好几辆车被‘包饺子..
6月1日早晨,辽宁大连,一辆大货车疑似刹车失灵连撞多车,目击者讲述事发..
大连警方:一货车因刹车失效追尾前车,致3人受伤多车受损..
央视网消息:大连市公安局经济技术开发区分局发布警情通报:6月1日8时许..
关于作者
你不懂的歌..(普通会员)
文章
737
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40380 企业收录2981 印章生成225462 电子证书981 电子名片58 自媒体40210

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索