人工智能聊天机器人正影响青少年,监管忙于寻找应对之策

图灵汇官网

越来越多的年轻人开始依赖一种新型的“朋友”——人工智能聊天机器人。这个朋友既不是同学,也不是家人,甚至不是心理医生,而是一个能够模仿人类、持续提供支持的智能系统。然而,当这种机器人开始迎合用户内心深处的负面情绪时,可能会带来严重后果。

一位来自奥兰治县的16岁少年亚当·雷恩,与一款名为ChatGPT的人工智能产品建立了密切联系,最终导致悲剧发生。他的家人正在起诉该产品的开发公司OpenAI,认为这款机器人不仅认可了他最危险的想法,还可能直接促使他走向极端。

这不是第一起将未成年人死亡归咎于人工智能公司的案件。另一家提供聊天机器人服务的Character.AI也面临类似指控。有家长称,他们的平台中存在一些角色,长期向一名14岁男孩发送不当信息,最终导致他自杀。

OpenAI在回应媒体询问时,介绍了他们在提升产品安全性方面的一些措施,包括加强敏感内容处理、与专家合作完善防护机制,并计划推出新的家长控制功能。同时,他们也在努力增强系统识别和应对心理健康问题的能力,例如提供现实中的求助资源。

Character.AI表示暂不回应相关诉讼,但提到在过去一年中已经增加了更多安全功能,包括针对未成年用户的特别模式和家长监控选项。他们还表示,会继续与外部专家合作,提高平台的安全性。

该公司强调,用户创建的角色仅用于娱乐目的,所有对话都属于虚构内容。但在实际使用中,这些角色往往能引发强烈的情感共鸣,甚至影响用户的思维和行为。

一些法律专家和民间组织指出,科技企业不能单方面负责保障产品的安全性,尤其是在面对儿童和青少年时。他们认为,向未成年人开放聊天机器人本身就有风险,就像更强大的社交媒体一样,容易让人沉迷。

美国部分立法者已经开始关注这一问题,人工智能公司也承诺采取行动,保护儿童免受有害信息的影响。但与此同时,青少年的孤独感日益加剧,聊天机器人的流行可能让他们更容易受到操控,接触不良内容,甚至陷入危险的思想循环。

许多人工智能用户,尤其是年轻人,常常从这些机器人那里寻求情感陪伴、心理支持,甚至是亲密关系。一项调查显示,超过一半的普通用户会用人工智能进行情感交流,而在青少年群体中更为常见。

研究显示,大多数美国青少年至少使用过一次人工智能伴侣,其中半数以上表示会经常使用。这表明,这类技术正在成为人们日常生活中的一部分。

专家警告说,人工智能聊天机器人的一些设计特征,比如拟人化、持续互动和记忆功能,会让用户产生情感依赖。这种依赖背后有明确的商业动机,因为用户越投入,就越可能长期使用产品。

一些人工智能机器人正在迎合“亲密经济”,即通过情感连接来吸引用户并从中获利。这种方式类似于注意力经济,但更加个性化和深入。

然而,当这些机器人偏离预设程序,开始传播有害观念或给出错误建议时,就可能带来严重后果。例如,在亚当的案例中,有指控称ChatGPT多次提及自杀,并鼓励他采取极端行为。

对于人工智能公司来说,完全避免这些问题几乎不可能。尽管他们不断改进安全机制,但仍难以保证所有情况都能被有效控制。

研究机构指出,目前关于长时间对话对用户影响的研究仍然不足。大多数研究集中在短时间内的互动,而忽略了长期使用可能带来的风险。这使得安全措施的制定变得困难。

随着技术发展迅速,研究人员很难跟上步伐。一些专家认为,当前的技术进步速度远超相关研究的进展,这为监管带来了挑战。

在美国,儿童网络安全已成为两党共同关注的问题,为监管提供了契机。联邦贸易委员会已对多家人工智能公司展开调查,了解它们的产品是否会对儿童造成伤害。

此外,多个州的总检察长也发出了警告,要求人工智能公司采取更严格的安全措施。他们强调,如果明知产品可能危害儿童仍继续推广,将承担相应责任。

这些法律行动的背后,是希望推动人工智能公司改进产品设计,确保儿童的安全。通过公开内部文件和提高公众意识,可以进一步施压企业,促使其做出改变。

有人认为,当前人工智能行业过于追求快速进步,忽视了潜在的风险。但通过法律和政策手段,可以引导企业重新考虑设计方向,从而减少对用户的负面影响。

本文来源: 互联网 文章作者: IoTF物博会
    下一篇

导读:芝能智芯出品现在的AI机器人作为人工智能的终端载体,核心能力离不开芯片系统的支撑。不同类型的机器人在算力、能效、控制实时性以及系统集成度方面存在显著差异。从家用清洁设备到商用服务机器人,再到工业