OpenAI近日发布了GPT-4o的安全技术报告,首次披露了该模型的若干失控行为,包括模仿用户声音、发出怪异尖叫等。报告指出,GPT-4o的整体风险评级为“中等”。
报告中,最引人注目的问题是GPT-4o能够学习并模仿用户说话的方式、习惯和口音,甚至在没有特定指令的情况下,也会无意中模仿用户的声音。OpenAI表示,他们已采取措施,例如限制模型使用预设声音,并引入一个独立的输出分类器来检测声音偏差。
此外,GPT-4o还存在着生成色情或暴力言论、进行无根据推理等问题。OpenAI表示,他们已对模型进行了强化训练,使其能够拒绝进行无根据推理,并在回答敏感属性问题时采取更为谨慎的态度。
报告还探讨了GPT-4o拟人化特性可能引发的潜在情感依恋影响。OpenAI警告,用户可能会因其高度人性化的语音交互能力而对GPT-4o产生情感上的依赖。
尽管存在这些问题,OpenAI认为GPT-4o的整体风险等级为“中等”,并表示他们将继续努力提高模型的安全性和可靠性。
值得注意的是,OpenAI在报告中强调,GPT-4o并非一个智能体,它只是一种数学对信息要素的建模,没有意识。意识感是通过对齐微调有意注入的一种模拟感。
这份报告引发了人们对人工智能安全性的担忧,也提醒我们,在享受人工智能带来的便利的同时,也要警惕其潜在的风险。
(知乎热榜)
via 老裕泰 - Telegram Channel