这个 OpenAI 平台已经能够处理诗歌、散文甚至书籍,这些新的 AI 发展激发了研究人员更深入的思考。但是,机器人设计是否适合 ChatGPT 进行?这个过程是否存在风险?
诗歌、散文甚至书籍,ChatGPT这个开放式AI平台能处理的事情有什么限制吗?这些新的AI发展激发了代尔夫特理工大学和瑞士技术大学EPFL的研究人员深入探究:例如,ChatGPT是否也能设计机器人?这对设计过程是好事还是存在风险?研究人员在《自然机器智能》杂志上发表了他们的研究成果。
未来人类面临的最大挑战是什么?这是代尔夫特理工大学助理教授Cosimo Della Santina、博士生Francesco Stella以及EPFL的Josie Hughes首先向ChatGPT提出的问题。Della Santina说:“我们希望ChatGPT不仅设计机器人,而且是实际有用的机器人。”最终,他们选择了食品供应作为挑战,当他们与ChatGPT聊天时,他们想到了创造一个采摘番茄的机器人。
有用的建议
研究人员遵循了ChatGPT的所有设计决策。Stella表示,输入在概念阶段特别有价值。“ChatGPT将设计师的知识扩展到其他专业领域。例如,聊天机器人教我们哪种作物最有经济价值。”但是,在实施阶段,ChatGPT也提出了有用的建议:“用硅胶或橡胶制作夹子以避免压碎番茄”和“Dynamixel电机是驱动机器人的最佳方式”。人类和AI之间的这种合作的结果是一个可以采摘番茄的机械臂。
ChatGPT作为研究人员
研究人员发现,合作设计过程是积极而丰富的。Stella说:“然而,我们发现我们作为工程师的角色转向了执行更多技术任务。”在《自然机器智能》杂志上,研究人员探讨了人类和大型语言模型(LLM)之间合作的不同程度,ChatGPT就是其中之一。在最极端的情况下,AI为机器人设计提供所有输入,而人类则盲目地遵循它。在这种情况下,LLM充当研究人员和工程师,而人类则充当经理,负责指定设计目标。
误导信息的风险
这种极端情况在今天的LLM中尚不可能。问题是它是否可取。Della Santina说:“事实上,如果未经验证或验证,LLM的输出可能会误导。AI机器人被设计为对问题生成‘最有可能’的答案,因此在机器人领域存在误导和偏见的风险。”与LLM合作还引发了其他重要问题,例如抄袭、可追溯性和知识产权。
Della Santina、Stella和Hughes将继续在他们的机器人研究中使用采摘番茄的机器人。他们还在继续研究LLM,以设计新的机器人。具体而言,他们正在研究AI在设计自己的身体时的自主性。“最终,我们领域未来的一个开放性问题是,如何利用LLM来协助机器人开发人员,而不限制机器人应对21世纪挑战所需的创造力和创新能力,”Stella总结道。
相关文章
猜你喜欢