研究称 OpenAI、xAI 等全球主要 AI 公司安全措施“不及格”,远未达全球标准

IT之家 12 月 3 日消息,据路透社报道,“未来生命研究所”今天发布了最新 AI 安全指数,指向 Anthropic、OpenAI、xAI 和 Meta 等主要 AI 公司的安全措施“远未达到新兴的全球标准”。
机构指出,独立专家的评估显示,各企业一心追逐超级智能,却没有建立能真正管控这一类高阶系统的可靠方案。
在多起自杀和自残事件被追溯到 AI 聊天机器人后,社会对具备推理与逻辑能力且可能超越人类的系统带来的冲击愈发担忧,这项研究正是在这样的背景下公布。
Future of Life Institute 主席、MIT 教授 Max Tegmark 说,外界对 AI 协助黑客入侵、以及把人推向心理失控和自残的事件议论不断,美国的 AI 企业却依然比餐馆还少受监管,并持续游说抵制强制性的安全规范。
与此同时,AI 竞赛持续升温,主要科技企业正为机器学习技术的扩展和升级投入数千亿美元。
IT之家从报道中获悉,“未来生命研究所”是一家非营利机构,长期呼吁关注智能机器对人类潜在的威胁,机构成立于 2014 年,早期曾获得特斯拉 CEO 马斯克的支持。
今年 10 月,杰弗里・辛顿与约书亚・本吉奥等多位科学家呼吁暂停超级智能的研发,直至公众提出明确诉求且科研界找到确保安全的路径。