OpenAI 发布了其 GPT-4o 模型的系统卡,显示该模型被评估为“中等”风险。该评估基于对四个类别的评估:网络安全、生物威胁、说服力和模型自主性。虽然前三个类别被认为是低风险,但该模型说服读者的能力被发现可能比人类撰写的文本更强,尽管总体上并不更具说服力。
该发布是在 OpenAI 的安全标准受到越来越多的批评之际发布的,员工、参议员和举报人对此表示担忧。该公司正面临着越来越大的压力,要求其更透明地披露其安全测试和训练数据,尤其是在该模型的发布恰逢美国总统大选之际,引发了人们对其可能被用于传播虚假信息的担忧。
加州正在考虑一项立法,该立法将要求对大型语言模型进行风险评估,这可能会影响 OpenAI 未来发布的模型。系统卡强调了对 OpenAI 自我评估的依赖,尽管有外部安全专家的参与。
(The Verge)
via 老裕泰 - Telegram Channel