OpenAI的开发者在北京时间7月6日宣布,他们计划投入更多资源并成立新的研究团队,旨在研究如何确保AI对人类的安全,并最终实现用AI来监督AI。
OpenAI联合创始人伊利亚·苏茨凯弗和AI对齐负责人简·莱克在官方博客中表示,超级智能AI的潜力可能导致人类失去力量甚至灭绝。他们预测超智能AI,即比人类更智能的系统,可能会在未来10年内出现。为了解决这个问题,人类需要更强大的技术来控制超智能AI,并确保AI对人类持续有益。AI对齐是AI控制中的主要问题,要求AI的目标和人类的价值观保持一致。
OpenAI计划在未来4年内将20%的算力专门用于解决这个问题,并组建新的“超对齐”团队来推动研究工作。该团队的目标是开发由AI驱动的对齐研究员,以人类水平为基础,并通过大规模的算力来推动其发展。OpenAI表示,这意味着将使用人工反馈来训练AI系统,通过训练AI系统来协助人工评估,最终训练AI系统进行实际的对齐研究。
然而,一些AI安全倡导者对OpenAI的计划表示担忧。他们认为,构建人类水平的智能之前必须先解决对齐问题,否则可能无法控制AI系统的行为。AI的潜在危险一直是研究者和公众关注的问题。今年4月,一群AI行业领袖和专家呼吁暂停开发比OpenAI的GPT-4更强大的系统,因为他们担心潜在的社会风险。调查显示,超过2/3的美国人担心AI可能带来负面影响,61%的人认为AI可能威胁到人类文明。
相关文章
猜你喜欢