研究人员警告:开源AI模型易受犯罪滥用
研究人员周四称,黑客和其他犯罪分子可轻易劫持运行开源大型语言模型的计算机,绕过主要AI平台的安全护栏和限制,从而造成安全风险和漏洞。研究人员称,黑客可能针对运行这些大型语言模型的计算机,操纵其开展垃圾邮件操作、钓鱼内容制作或虚假信息传播活动,以规避平台安全协议。这些用例包括黑客攻击、仇恨言论与骚扰、暴力或血腥内容、个人数据窃取、诈骗或欺诈,以及在部分案例中涉及儿童性虐待材料。虽然存在数千种开源大型语言模型变体,但在可通过互联网访问的主机中,大部分大型语言模型是Llama、Gemma等模型的变体。尽管部分开源模型内置安全护栏,但研究人员发现了数百例安全护栏被明确移除的情况。
—— 路透社
via 风向旗参考快讯 - Telegram Channel
研究人员周四称,黑客和其他犯罪分子可轻易劫持运行开源大型语言模型的计算机,绕过主要AI平台的安全护栏和限制,从而造成安全风险和漏洞。研究人员称,黑客可能针对运行这些大型语言模型的计算机,操纵其开展垃圾邮件操作、钓鱼内容制作或虚假信息传播活动,以规避平台安全协议。这些用例包括黑客攻击、仇恨言论与骚扰、暴力或血腥内容、个人数据窃取、诈骗或欺诈,以及在部分案例中涉及儿童性虐待材料。虽然存在数千种开源大型语言模型变体,但在可通过互联网访问的主机中,大部分大型语言模型是Llama、Gemma等模型的变体。尽管部分开源模型内置安全护栏,但研究人员发现了数百例安全护栏被明确移除的情况。
—— 路透社
via 风向旗参考快讯 - Telegram Channel