Nature Machine Intelligence最新研究工作,结合大型语言模型(LLM)ChatGPT在概念和技术层面上指导机器人设计过程,提出了新的人类 - 人工智能协同设计策略。
图3 左边是设计过程的两个阶段:首先是人类和LLM讨论具体的应用和设计,然后是人类实现它们。右图,是高层讨论期间知识的图解。借助LLM,人类设计师可以有效地访问其个人专业知识之外的知识领域,并通过问题链接这些领域的不同领域。然而,这是以接受错误输入的风险为代价的,这些输入与设计师的知识相去甚远。而在传统的学习过程中,设计师径向扩展他们的个人经验,而通过基于LLM的探索,设计师只能访问有限的知识领域,从而冒着误解的风险。
最后,我们可以考虑第三种方法,其中LLM帮助完善设计过程并提供技术输入,而人类仍然是参与该过程的发明者或科学家。人工智能可以帮助调试、故障排除和方法选择,加速繁琐和耗时的过程。在这种人工智能与人类的关系中,人类的知识和直觉调节了讨论,人类在他们的专业范围内工作,以便对答案和建议持批评态度。
机器人设计是一个创造性、跨学科和知识产权(IP)创造的过程,目前依赖于高技能的专业人员。我们认为,仔细结合这些方法可以彻底改变这一进程。然而,将LLM引入机器人设计引入了有关潜在负面影响的问题。LLM必须被视为搜索引擎的演变,为给定的提示生成“最可能”的答案。这些答案可能是不正确的,如果没有经过适当的事实检查或验证,LLM输出可能会产生误导,或者在最坏的情况下,可能是危险的。然而,与搜索引擎不同,LLM可以提出整合“知识”并将其应用于看不见的问题的方法,从而可能给人一种错误印象,即正在产生新知识。这可能会阻止人类对开发的解决方案负责。这可能会禁止和停滞新机器人技术和设计的进步。在机器人设计中广泛使用LLM的另一个问题是模型在统计上偏爱的解决方案,这可能会阻碍对新技术解决方案的探索。
最后,还有与抄袭、可追溯性和知识产权有关的关键问题。通过LLM创建的设计是否可以被认为是新颖的,因为它仅基于先验知识,以及如何参考这些先前的知识?随着这项技术的成熟,还有更长期的考虑因素,包括数据隐私、再培训的频率以及如何整合新知识以保持该工具的可用性和相关性。机器人设计中的人与人工智能交互也会产生重大的社会和伦理影响。如果LLM用于自动化高级认知设计任务,那么人类可能会承担更多的技术工作。这可以重新定义工程师所需的技能及其在经济和社会中的作用。
总而言之,机器人社区必须确定如何利用这些强大的工具,以合乎道德、可持续和社会赋权的方式加速机器人的发展。我们必须开发承认使用LLM的方法以及能够追溯LLM辅助设计的谱系。
展望未来,我们坚信LLM将开辟许多令人兴奋的可能性,如果管理得当,它们将成为一股向善的力量。通过结合协作LLM来提出和回答问题,设计过程可以完全自动化,其中一个有助于完善另一个。这种方法还可以通过自动化制造来增强,以允许完全自主的管道来创建定制和优化的机器人系统。最终,该领域的未来存在一个悬而未决的问题,即如何利用这些工具来帮助机器人开发人员,同时又不限制机器人应对二十一世纪挑战所需的创造力、创新和科学努力。
本文由CAAI认知系统与信息处理专委会供稿
相关文章
猜你喜欢