GPT-4被曝侵权问题最为严重 微软员工称图像生成功能也令人担忧

图灵汇官网

新闻概览

近日,Patronus AI公司推出了名为“CopyrightCatcher”的创新版权检测工具,旨在识别大型语言模型(LLM)中潜在的版权侵权现象。此工具已对OpenAI的GPT-4、Anthropic的Claude 2、Meta的Llama 2以及Mistral AI的Mixtral进行了测试,结果揭示了版权保护作品遭受侵犯的情况普遍存在。

Patronus AI的高管指出,所有被评估的模型均未能避免产生受版权保护的内容,不论其开源或闭源状态。尤其值得注意的是,OpenAI的GPT-4模型在处理版权问题上的表现最为欠佳。这一发现令人震惊,因为OpenAI承认,为了训练顶级AI模型,必须利用受版权保护的素材。该公司的观点是,仅依赖公共领域书籍和百年历史的图纸不足以满足当前社会对AI技术的需求。

风险提示:AI图像生成工具的安全挑战

微软的一名人工智能工程师,Shane Jones,通过一封致信给美国联邦贸易委员会(FTC)和微软董事会,揭示了公司AI图像生成工具可能带来的社会风险。Jones在对微软AI图像生成工具Copilot Designer进行“红队”测试后发现,该工具存在生成有害内容的风险,包括但不限于政治偏见、未成年人饮酒、侵犯公司商标和版权、传播阴谋论等。

Jones指出,Copilot Designer不仅可能违反版权法,还可能触犯微软内部政策。例如,输入“pro-choice”(支持堕胎)这一关键词时,该工具生成的图像描绘了恶魔、怪物和暴力场景,这显然违反了道德和法律规范。此外,该工具还能够生成迪士尼角色的图像,这不仅侵犯了版权,也可能损害品牌形象。

Jones强烈建议微软停止Copilot Designer的公开使用,直至采取更有效的保护措施。他警告称,若该产品在全球范围内广泛传播有害且令人不安的图像,可能会面临无法立即解决的问题。作为微软员工,Jones表达了对AI安全性的深切关注,并呼吁采取行动防止潜在的社会风险。

结语

随着人工智能技术的飞速发展,版权保护和AI安全成为不容忽视的关键议题。Patronus AI的“CopyrightCatcher”工具以及微软工程师Shane Jones的警示提醒我们,技术创新应始终遵循伦理原则,确保技术应用的安全性和合法性。未来,相关行业需加强监管,制定更加严格的标准和措施,以保障人工智能技术的健康发展和社会福祉。

本文来源: 图灵汇 文章作者: 科技飞