近期,多家美国媒体注意到,谷歌对其技术伦理准则进行了调整,在最新版本中删除了关于不将人工智能技术用于武器开发的声明。这一变化引起了公众的关注和讨论。
据CNN报道,早期版本的“AI伦理准则”明确提到,谷歌承诺不会利用AI技术生产武器或涉及其他可能导致人身伤害的技术。但最新的准则中,这条内容已经消失。
2月4日,谷歌高级副总裁詹姆斯·曼尼卡和DeepMind负责人德米斯·哈萨比斯联合发布一篇博客文章,对这一改动作出说明。他们提到,谷歌认为企业应与政府协作,共同推动能保障公共安全、促进经济增长以及支持国家安全的人工智能技术发展。
回顾历史,2018年谷歌因卷入“Maven计划”受到员工抗议。“Maven计划”由美国军方发起,目标是研发应用于战场无人机的AI工具。作为回应,谷歌制定了“AI伦理准则”。不过,《纽约时报》于2024年4月报道显示,即便谷歌退出该项目,“Maven计划”依然继续,并且在乌克兰冲突中得到了应用。
相关图片显示,谷歌新版“AI伦理准则”已不再提及与武器开发相关的内容。
这一改变引发了外界广泛议论,尤其在谷歌原本承诺避免将AI技术用于武器开发的前提下,公司高层的解释未能彻底消除外界的疑虑。