前OpenAI员工爆料:公司像在「建造铁达尼号」罔顾安全

编译/黄竣凯

在最新爆料中,前OpenAI 安全员工 William Saunders ,将该组织的发展轨迹与铁达尼号和阿波罗13号任务相比,表达了对其通用人工智慧 (AGI) 和产品发布方式的担忧 。Saunders表示,基於对公司风险管理实践的担忧,他在 OpenAI 工作三年後决定辞职,认为公司在对待人工智慧(AI)安全上做得不够。

前OpenAI员工将该组织的发展轨迹与铁达尼号和阿波罗13号任务相比,认为公司在对待人工智慧安全上做得不够。(图/123RF)

铁达尼号与阿波罗计画

据报导, Saunders表示,随着他在 OpenAI 工作的时间越来越多,他觉得该公司领导者做出的决策更类似於「建造铁达尼号」,将推出更新、更闪亮的产品做为优先事项,并可能会因安全措施不足而面临灾难性後果,因此他认为,该公司应该要像阿波罗太空计画一样,尽管野心勃勃,欲突破科学极限,但仍「仔细预测和评估风险」。

更多新闻:VPN也没用!OpenAI 全面切断中国 ChatGPT 和 AI 服务

敦促OpenAI制定「救生艇」措施

此外,他的担忧还包括 OpenAI 是否准备好管理与 AGI 相关的潜在风险,并指出大规模网路攻击或 AI 语言模型,带来的意外後果等潜在状况,主张进行更严格的研究和预防措施,敦促OpenAI在考虑AI相关灾难时,要制定类似「救生艇」的保障措施,例如推迟新语言模型的发布,以便团队可以研究潜在的危险。

开发AI「不可能」没有风险

尽管Saunders 表示,「阿波罗计画有足够的准备,能够适应情况,让所有人安全返回,」他也指出,「该计画确实也有自己的悲剧,但开发AGI或任何新技术不可能零风险。」阿波罗任务是在与俄罗斯冷战太空竞赛的背景下进行的,造成了数名严重伤亡,其中包括 1967 年在一次测试中,因电气火灾而丧生的三名 NASA 太空人。

AI的危险性

Saunders 原先在OpenAI的超级对齐安全团队中工作,并领导了一个由四名员工组成的小组,致力於了解AI语言模型的行为方式,他表示,人类对此了解不够,「若将来我们建构的AI系统比大多数人类更聪明,将需要一些技术来判断这些系统是否隐藏了能力或动机。」

参考资料:Insider