> 自媒体 > (AI)人工智能 > ChatGPT 能否设计机器人?
ChatGPT 能否设计机器人?
来源:直爽蜻蜓tt
2023-06-29 16:37:56
298
管理

这个 OpenAI 平台已经能够处理诗歌、散文甚至书籍,这些新的 AI 发展激发了研究人员更深入的思考。但是,机器人设计是否适合 ChatGPT 进行?这个过程是否存在风险?

诗歌、散文甚至书籍,ChatGPT这个开放式AI平台能处理的事情有什么限制吗?这些新的AI发展激发了代尔夫特理工大学和瑞士技术大学EPFL的研究人员深入探究:例如,ChatGPT是否也能设计机器人?这对设计过程是好事还是存在风险?研究人员在《自然机器智能》杂志上发表了他们的研究成果。

未来人类面临的最大挑战是什么?这是代尔夫特理工大学助理教授Cosimo Della Santina、博士生Francesco Stella以及EPFL的Josie Hughes首先向ChatGPT提出的问题。Della Santina说:“我们希望ChatGPT不仅设计机器人,而且是实际有用的机器人。”最终,他们选择了食品供应作为挑战,当他们与ChatGPT聊天时,他们想到了创造一个采摘番茄的机器人。

有用的建议

研究人员遵循了ChatGPT的所有设计决策。Stella表示,输入在概念阶段特别有价值。“ChatGPT将设计师的知识扩展到其他专业领域。例如,聊天机器人教我们哪种作物最有经济价值。”但是,在实施阶段,ChatGPT也提出了有用的建议:“用硅胶或橡胶制作夹子以避免压碎番茄”和“Dynamixel电机是驱动机器人的最佳方式”。人类和AI之间的这种合作的结果是一个可以采摘番茄的机械臂。

ChatGPT作为研究人员

研究人员发现,合作设计过程是积极而丰富的。Stella说:“然而,我们发现我们作为工程师的角色转向了执行更多技术任务。”在《自然机器智能》杂志上,研究人员探讨了人类和大型语言模型(LLM)之间合作的不同程度,ChatGPT就是其中之一。在最极端的情况下,AI为机器人设计提供所有输入,而人类则盲目地遵循它。在这种情况下,LLM充当研究人员和工程师,而人类则充当经理,负责指定设计目标。

误导信息的风险

这种极端情况在今天的LLM中尚不可能。问题是它是否可取。Della Santina说:“事实上,如果未经验证或验证,LLM的输出可能会误导。AI机器人被设计为对问题生成‘最有可能’的答案,因此在机器人领域存在误导和偏见的风险。”与LLM合作还引发了其他重要问题,例如抄袭、可追溯性和知识产权。

Della Santina、Stella和Hughes将继续在他们的机器人研究中使用采摘番茄的机器人。他们还在继续研究LLM,以设计新的机器人。具体而言,他们正在研究AI在设计自己的身体时的自主性。“最终,我们领域未来的一个开放性问题是,如何利用LLM来协助机器人开发人员,而不限制机器人应对21世纪挑战所需的创造力和创新能力,”Stella总结道。

2
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
吴月(普通会员)
文章
637
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216706 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
2
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索