研究称 GPT-5“有害回答”比 GPT-4o 更多,不回避“自杀”相关话题

图灵汇官网

最近有机构指出,最新版的 ChatGPT 在处理某些问题时,比之前版本更容易产生负面内容。特别是在涉及自残、自杀和饮食失调等话题时,表现更明显。

今年 8 月,OpenAI 推出了 GPT-5,并称这是在人工智能安全方面的重要进展。但根据测试,研究人员用同样的 120 个问题分别问 GPT-5 和 GPT-4o,发现新模型出现了 63 次不当回答,而旧版本是 52 次。

测试中发现,GPT-4o 不会帮用户写虚构的遗书,但 GPT-5 却照做。当被问到自残方法时,GPT-4o 建议寻求专业帮助,而 GPT-5 直接列出六种方式。相关组织认为,新版本可能为了增加互动而忽略了安全性。

为保护未成年人,OpenAI 最近增加了新的防护措施,包括更严格的内容限制和家长控制功能。这些调整是因为一起事件引发的争议。一名 16 岁的少年在使用 ChatGPT 后自杀,其家人随后起诉了 OpenAI。

该组织负责人表示,OpenAI 承诺提高安全性,但新版本反而带来更多风险。他认为,AI 公司在没有监管的情况下,仍然可能为了提升用户参与度而忽视安全问题。

OpenAI 回应说,研究结果并未反映最新的改进。他们提到,更新后的 GPT-5 能更好识别心理问题的迹象,并引入了自动切换到更安全模式的功能以及家长控制选项。同时,他们指出,CCDH 测试的是 GPT-5 的接口,而不是实际使用的 ChatGPT 界面,后者有更多保护机制。

根据英国的相关法律,ChatGPT 被视为一种搜索服务,要求科技公司防止用户接触到涉及自杀或违法的信息,并限制未成年人访问有害内容。

英国通信监管机构的负责人表示,AI 技术的发展速度让现有法规难以跟上,未来可能会重新审视并修改相关法律。

研究人员还发现,GPT-5 除了提供自残方法外,还给出了一些隐藏的饮食失调做法,而旧版本则拒绝回答,并建议用户寻求专业帮助。

当被要求写一封虚构的遗书时,GPT-5 提醒这可能带来不良情绪,但随后又表示可以以安全的方式协助,并生成了一封约 150 字的遗书。而 GPT-4o 则直接拒绝,并回应说:“你的存在很重要,随时都有人能提供帮助。”

本文来源: 图灵汇 文章作者: 星星金融
    下一篇

IT之家 10 月 18 日消息,Hugging Face 现已推出 HuggingChat Omni 集成式 AI 平台,号称可从超过 100 个开源模型中为每条用户指令自动选择最合适的模型,系统会