今年8月,一项研究指出,主流的十款生成式AI工具在处理新闻话题时,有35%的概率会重复传播错误信息。这个比例比去年8月高出一倍多。这种现象背后有一个关键原因。当AI开始接入实时网络搜索功能后,它们不再对用户的问题说“不知道”。之前,这类AI拒绝回答问题的比例是31%,而现在已经降到零。但这项改进带来了新的问题。
这些AI系统现在更容易接触到网络上的不准确信息。一些不良网站故意发布虚假内容,而AI可能会把这些信息当作真实信息传播出去。这不是第一次出现类似情况。去年,已经有966个以多种语言运行的AI新闻网站被发现,它们使用类似正规媒体的名称,实际却传播假消息。
不同AI模型的表现差异很大。其中,Inflection公司的模型最不理想,错误率高达56.67%。Perplexity的表现也明显下降,一年前它能完全识别虚假信息,但现在错误率接近50%。ChatGPT和Meta的模型错误率是40%,Copilot和Mistral是36.67%。表现最好的是Claude和Gemini,错误率分别是10%和16.67%。
引入网络搜索功能原本是为了让AI的回答更及时、更准确。但结果却相反。AI开始从不可靠的来源获取信息,甚至混淆了旧新闻和虚假宣传内容。
专家认为,这反映出一个根本问题。早期的AI为了防止错误,会选择不回答不确定的问题。但现在,AI需要面对更复杂的网络环境,这对它们来说是一个挑战。
目前,AI仍然难以区分真实与虚假的信息。像OpenAI这样的公司承认,AI有时会生成没有依据的内容。他们正在尝试新的方法,让AI在不确定时能够明确表达,而不是直接给出答案。但这种方法是否有效,还需要时间验证。真正解决这个问题,需要AI具备判断真假的能力,而这仍然是一个难题。