OpenAI推2款安全审查模型 回应商业化批评

OpenAI公司于周三推出两款专为内容审查设计的推理模型,协助开发者识别平台上的不当内容。这两款开放权重模型可依各组织需求客制化,展现推理过程,提升透明度。这两款AI模型名为 gpt-oss-safeguard-120b 与 gpt-oss-safeguard-20b。它们是 OpenAI 今年8月发布的gpt-oss模型的微调版本。公司表示,各组织可根据特定政策需求配置这些新模型。由于它们属于会展示推理过程的推理模型,让开发者更直接了解模型如何得出特定结果。举例来说,产品评论网站可制定政策,利用模型筛选可能造假的评论。同样游戏讨论区也能借此分类讨论作弊的贴文。

—— 鉅亨網CNBC

via 风向旗参考快讯 - Telegram Channel
 
 
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]