编译/黄竣凯
在最新爆料中,前OpenAI 安全员工 William Saunders ,将该组织的发展轨迹与铁达尼号和阿波罗13号任务相比,表达了对其通用人工智慧 (AGI) 和产品发布方式的担忧 。Saunders表示,基於对公司风险管理实践的担忧,他在 OpenAI 工作三年後决定辞职,认为公司在对待人工智慧(AI)安全上做得不够。
前OpenAI员工将该组织的发展轨迹与铁达尼号和阿波罗13号任务相比,认为公司在对待人工智慧安全上做得不够。(图/123RF)
铁达尼号与阿波罗计画
据报导, Saunders表示,随着他在 OpenAI 工作的时间越来越多,他觉得该公司领导者做出的决策更类似於「建造铁达尼号」,将推出更新、更闪亮的产品做为优先事项,并可能会因安全措施不足而面临灾难性後果,因此他认为,该公司应该要像阿波罗太空计画一样,尽管野心勃勃,欲突破科学极限,但仍「仔细预测和评估风险」。
更多新闻:VPN也没用!OpenAI 全面切断中国 ChatGPT 和 AI 服务
敦促OpenAI制定「救生艇」措施
此外,他的担忧还包括 OpenAI 是否准备好管理与 AGI 相关的潜在风险,并指出大规模网路攻击或 AI 语言模型,带来的意外後果等潜在状况,主张进行更严格的研究和预防措施,敦促OpenAI在考虑AI相关灾难时,要制定类似「救生艇」的保障措施,例如推迟新语言模型的发布,以便团队可以研究潜在的危险。
开发AI「不可能」没有风险
尽管Saunders 表示,「阿波罗计画有足够的准备,能够适应情况,让所有人安全返回,」他也指出,「该计画确实也有自己的悲剧,但开发AGI或任何新技术不可能零风险。」阿波罗任务是在与俄罗斯冷战太空竞赛的背景下进行的,造成了数名严重伤亡,其中包括 1967 年在一次测试中,因电气火灾而丧生的三名 NASA 太空人。
AI的危险性
Saunders …