OpenAI 与美国政府达成协议,利用其人工智能保障核武器安全,等等,这不是《终结者》电影的情节吗?有一场核战争,”一个角色解释道。“防御网络计算机。新的……强大的……连接到一切,被信任运行一切。他们说它变得聪明,一种新的智能秩序。然后它把所有人都视为威胁,而不仅仅是另一边的人。在一微秒内决定了我们的命运:灭绝。”
看起来 OpenAI 的高管们要么从未见过它,要么他们正在加班加点地将这一前提变为现实。
不相信吗?OpenAI宣布,美国国家实验室将利用其存在严重缺陷的AI 模型来协助实施“综合核安全计划”。
据CNBC报道,这些机构的多达 15,000 名科学家将可以使用 OpenAI 最新的 o1 系列 AI 模型——本月早些时候,中国初创公司 DeepSeek在世界舞台上击败了这些模型。
据CNBC报道,OpenAI 首席执行官萨姆·奥特曼 (Sam Altman) 在华盛顿特区的一次活动上宣布了这一合作关系,他表示,该技术将“专注于降低核战争风险并确保全球核材料和武器的安全” 。
如果此时有任何警钟响起,你并不孤单。我们已经看到很多 OpenAI 的 AI 模型泄露敏感用户数据 并肆意制造虚假声明的例子。
OpenAI 一直在大力进军政府领域。本周早些时候,这家由 Sam Altman 领导的公司发布了 ChatGPT Gov,这是一个专为美国政府设计的平台,专注于安全。
但该公司是否能够满足这些极高的期望,同时确保其经常撒谎的人工智能聊天机器人不会泄露核密码或引发下一场核战争,这仍是未知数。
此前,《华尔街日报》报道称,OpenAI 正就新一轮融资进行初步谈判,此次融资将使其估值达到 3400 亿美元,是去年估值的两倍。
奥尔特曼也完全拥护唐纳德·特朗普总统,为他的就职典礼赠送了 100 万美元,并声称在过去几年对特朗普的批评之后“真正改变了我对他的看法” 。
OpenAI 还签署了特朗普价值 5000 亿美元的人工智能基础设施协议,即“星际之门”,并计划在未来一年内投入数百亿美元。
该公司的 o1 推理模型是否会对美国国家实验室的研究人员有任何有意义的帮助还有待观察。
但考虑到特朗普政府广泛放松监管,将核武器控制权移交给一个崩溃的人工智能系统似乎正处于一个极其危险的时刻。
相关文章
猜你喜欢
成员 网址收录40394 企业收录2981 印章生成234174 电子证书1033 电子名片60 自媒体46877