麻省理工教授呼吁AI公司量化产品失控风险:像首次核试之前那样

图灵汇官网

AI 的进步正受到越来越多人的关注。近期,麻省理工学院的研究人员马克斯·泰格马克指出,研究显示高度智能的 AI 对人类构成重大威胁的可能性很高,大约占九成。这一观点让人们想起上世纪40年代美国科学家阿瑟·康普顿在核试验前做的计算。

当时,美国在确定原子弹不会点燃大气层后,顺利完成了“三位一体”核试验,这是核历史上的重要时刻。现在,泰格马克及其团队主张采用类似的方式评估 AI 的风险。他们提议借鉴“康普顿常数”的概念,用来衡量强人工智能失去控制的可能性。

康普顿曾表示,在确认核聚变失控概率极小后,他才同意进行核试验。泰格马克认为,AI 公司不应仅依赖直觉,而应准确计算 AI 是否会超出人类掌控。他强调,开发超级智能的企业必须拿出具体数据,而不仅仅是口头承诺。

此外,泰格马克提出,若多家公司能共同计算出这一风险值并达成共识,这将有助于建立更全面的全球 AI 安全体系。

作为麻省理工学院的物理学教授和 AI 研究专家,泰格马克也是“未来生命研究所”的联合创始人。该机构专注于推动 AI 的安全发展。去年,该组织发起了一项公开倡议,呼吁暂停开发更强大的 AI 系统。这项倡议获得了超过三万三千人支持,其中包括埃隆·马斯克和史蒂夫·沃兹尼亚克等知名人物。

公开信提到,当前各大实验室正激烈竞争,不断推出更强大的 AI 系统,但这些系统常常超出人类的理解、预测和可靠操控范围,可能存在安全隐患。

本文来源: 互联网 文章作者: 德庆央珍