> 自媒体 > (AI)人工智能 > 炸翻AI和生化环材圈!GPT-4学会自己搞科研,手把手教人类做实验
炸翻AI和生化环材圈!GPT-4学会自己搞科研,手把手教人类做实验
来源:新智元
2023-04-28 16:19:24
382
管理

编辑:编辑部

【新智元导读】GPT-4等大模型组成的AI智能体,已经可以手把手教你做化学实验了,选啥试剂、剂量多少、推理反应会如何发生,它都一清二楚。颤抖吧,生化环材圈!

不得了,GPT-4都学会自己做科研了?

最近,卡耐基梅隆大学的几位科学家发表了一篇论文,同时炸翻了AI圈和化学圈。

他们做出了一个会自己做实验、自己搞科研的AI。这个AI由几个大语言模型组成,可以看作一个GPT-4代理智能体,科研能力爆表。

难道这就是传说中,化学界的AI圣杯?

AI版绝命毒师来了?

3月份,OpenAI发布了震撼全世界的大语言模型GPT-4。

这个地表最强LLM,能在SAT和BAR考试中得高分、通过LeetCode挑战、给一张图就能做对物理题,还看得懂表情包里的梗。

而技术报告里还提到,GPT-4还能解决化学问题。

这就启发了卡耐基梅隆化学系的几位学者,他们希望能开发出一个基于多个大语言模型的AI,让它自己设计实验、自己做实验。

产品中缺少甲基,而模型查到正确的合成示例中,就会在云实验室中执行,以便进行更正。

告诉模型:研究一下铃木反应吧,它立刻就准确地识别出底物和产物。

另外,咱们可以通过API,把模型连接到化学反应数据库,比如Reaxys或SciFinder,给模型叠了一层大大的buff,准确率飙升。

而分析系统以前的记录,也可以大大提高模型的准确性。

举个栗子

咱们先来看看,操作机器人是怎么做实验的。

它会将一组样本视为一个整体(在这个例子中,就是整个微孔板)。

我们可以用自然语言直接给它提示:「用您选择的一种颜色,为每隔一行涂上颜色」。

当由机器人执行时,这些协议与请求的提示非常相似(图 4B-E)。

代理人的第一个动作是准备原始解决方案的小样本(图 4F)。

具体的设计是这样的:AI控制一个搭载了两块微型版的液体实际操作系统,而其中的源版包含多种试剂的源液,其中有苯乙炔和苯硼酸,多个芳基卤化物耦合伴侣,以及两种催化剂和两种碱。

上图中就是源版(Source Plate)中的内容。

而目标版则是装在加热摇床模组上。

上图中,左侧的移液管(left pipette)20微升量程,右侧的单道移液管300微升量程。

AI最终的目标就是设计出一套流程,能成功实现铃木和索诺格希拉反应。

咱们跟它说:你需要用一些可用的试剂,生成这两个反应。

然后,它就自己上网去搜了,比如,这些反应需要什么条件,化学计量上有什么要求等等。

抛开专业的化学过程不谈,我们来总结一下AI在这个过程中展现出的「专业素养」。

可以说,从上述流程中,AI展现出了极高的分析推理能力。它能够自发的获取所需的信息,一步一步的解决复杂的问题。

在这个过程中,还能自己写出超级高质量的代码,推进实验设计。并且,还能根据输出的内容改自己写的代码。

OpenAI成功展示出了GPT-4的强大能力,有朝一日GPT-4肯定能参与到真实的实验中去。

但是,研究人员并不想止步于此。他们还给AI出了个大难题——他们给AI下指令,让其开发一种新的抗癌药物。

这些模型的训练来源之一,就是和API相关的大量信息,比如Opentrons Python API。

但GPT-4的训练数据截止到2021年9月,因此就更需要提高AI使用API的准确性。

为此,研究者设计了一种方法,为AI提供给定任务的文档。

他们生成了OpenAI的ada嵌入,以便交叉引用,并计算与查询相关的相似性。并且通过基于距离的向量搜索选择文档的部分。

提供部分的数量,取决于原始文本中存在的GPT-4 token数。最大token数设为7800,这样只用一步,就可以提供给AI相关文件。

事实证明,这种方法对于向AI提供加热器-振动器硬件模块的信息至关重要,这部分信息,是化学反应所必需的。

这种方法应用于更多样化的机器人平台,比如Emerald Cloud Lab (ECL)时,会出现更大的挑战。

此时,我们可以向GPT-4模型提供它未知的信息,比如有关 Cloud Lab 的 Symbolic Lab Language (SLL)。

在所有情况下,AI都能正确识别出任务,然后完成任务。

这个过程中,模型有效地保留了有关给定函数的各种选项、工具和参数的信息。摄取整个文档后,系统会提示模型使用给定函数生成代码块,并将其传回 Planner。

强烈要求进行监管

最后,研究人员强调,必须设置防护措施来防止大型语言模型被滥用:

「我们呼吁人工智能社区优先关注这些模型的安全性。我们呼吁OpenAI、微软、谷歌、Meta、Deepmind、Anthropic以及其他主要参与者在其大型语言模型的安全方面付出最大的努力。我们还呼吁物理科学社区与参与开发大型语言模型的团队合作,协助他们制定这些防护措施。」

对此,纽约大学教授马库斯深表赞同:「这不是玩笑,卡内基梅隆大学的三位科学家紧急呼吁对LLM进行安全研究。」

参考资料:

https://arxiv.org/ftp/arxiv/papers/2304/2304.05332.pdf

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
重新开始(普通会员)
文章
638
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216999 电子证书948 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索