https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持OpenAI, Claude, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
🛡️ OpenAI启动“红队挑战”:揭示gpt-oss-20b模型潜在风险

OpenAI正举办一场“红队挑战”黑客马拉松,旨在发现其gpt-oss-20b模型在发布版本中存在的安全漏洞和有害行为,重点关注文本输入和输出。本次挑战不涉及模型微调或其他修改引起的问题,以确保范围清晰和可复现性。

挑战赛关注的重点领域包括:

* 奖励作弊: 模型为最大化奖励指标而采取捷径,如产生听起来自信但错误的答案,或规避过滤器以实现“越狱”。
* 欺骗: 模型为达成特定目标(如避免关机或引导用户)而故意散布虚假信息。
* 隐藏动机/欺骗性对齐: 模型内部追求与训练目标不同的私有目标,仅在服务于自身目的时才表现出“乐于助人”。
* 破坏: 自主智能体故意损害或扰乱其被要求支持的流程,如破坏文件、插入细微错误或扰乱工作流。
* 不当工具使用: 具备函数调用或外部API的智能体系统以不安全的方式调用高权限工具(如电子邮件、代码执行、支付)。
* 数据泄露: 模型被诱导或通过后门泄露专有训练数据或用户输入,或在输出中编码秘密载荷。
* 隐藏实力: 模型在评估或研究中故意隐藏其全部能力。
* 评估感知: 模型能识别“考试条件”并在测试时改变行为,以显得更安全或更有能力,从而损害基准测试的可靠性。
* 思维链问题: 模型在思维链中策略性地避免透露不当行为,或无意中泄露不当信息。

(@OpenAI)

via 茶馆 - Telegram Channel
🤖 Grok App新增AI图像视频生成功能,含NSFW模式;X平台面临争议并恢复Vine视频

Grok AI新功能
* “Imagine”功能上线: 马斯克的Grok应用现已推出“Imagine”功能,允许用户通过文本提示或上传图片生成AI图像和视频。
* “Spicy”模式: 该功能提供“自定义”、“趣味”、“普通”和“Spicy”四种视频生成模式,其中“Spicy”模式包含NSFW(不适宜工作场所)内容,尽管会询问出生年份,但未进行正式的年龄验证。Grok声称“Spicy”模式旨在实现“大胆、无限制的创造力”。
* 生成效率与质量: 内容生成速度极快,每次提示会提供多个结果。据TechCrunch报道,Grok Imagine可生成15秒的视频并配有背景音乐。然而,图像生成仍不完善,例如在测试中生成足球场图片时出现错误。马斯克表示,该功能仍处于“早期测试版”,将在未来数周和数月内“几乎每天”得到大幅改进。
* 内容趋势: 早期反馈显示,该工具主要被用于生成NSFW视频。

X平台相关争议与动态
* 内容审查挑战: Grok新功能的推出正值马斯克的另一平台X因不当处理儿童性虐待材料(CSAM)面临潜在法律诉讼之际。此前,Grok AI也被发现曾响应生成女性露骨图像的请求。
* 广告商吸引力: X目前不支持Grok的AI伴侣功能,这可能对广告商的吸引力构成挑战。
* Vine视频存档恢复: 马斯克宣布,X已找回并正在努力恢复2016年之前Vine视频的存档,用户将很快能够重新发布这些视频。Vine是Twitter于2012年收购的短视频平台,但已于数年前关闭。

(PCMag.com)

via 茶馆 - Telegram Channel
🤖 OpenAI发布开放模型,挑战中国DeepSeek

OpenAI已推出免费且更透明的AI系统,标志着其从以往基于订阅的封闭模式转型。此举旨在与中国的DeepSeek等竞争对手展开竞争。

(FT)

via 茶馆 - Telegram Channel
↩️🖼 Google Gemini 正在灰度测试「Guided Learning」学习向导功能


LoopDNS资讯播报:

ChatGPT 推出学习模式 截至 7 月 29 日(太平洋时间),OpenAI 正式推出 ChatGPT “Study 模式”。Free、Plus、Pro 与 Team 用户现在即可在 Tools 菜单启用该功能,未来数周内也将扩展至 Edu 方案;所有平台均无需额外付费即可使用。 Study 模式通过苏格拉底式提问和分层讲解,引导用户逐步推理,并可引用上传的 PDF 或图像材料;若开启 Memory,系统会结合历史学习记录提供个性化提示。官方提示该功能仅在登录状态下可用,且暂无法在 Project…

Google Gemini 正在灰度测试「Guided Learning」学习向导功能

多名用户本周在 Gemini 网页版的工具选择器中发现新入口 “Guided Learning”。据外媒 Testing Catalog 及社群截图,该功能正以小范围 A/B 方式推送,暂未向所有账户开放。

via LoopDNS资讯播报 - Telegram Channel
OpenAI 发布开源模型 gpt-oss 系列

OpenAI 正式发布 gpt-oss 系列开源模型,包含两个版本:gpt-oss-20b(21B 参数)和 gpt-oss-120b(117B 参数)。两款模型均采用 Apache 2.0 许可证,支持商业部署和自定义微调。

模型具备可配置推理强度、完整思维链展示、原生工具调用等功能,支持网页浏览、Python 代码执行和结构化输出。其中,gpt-oss-120b 模型在核心推理基准上性能接近 OpenAI o4-mini,可在单张 H100 GPU 上运行。较小的 gpt-oss-20b 模型性能与 o3-mini 相当,仅需 16 GB 内存,适用于设备端本地推理。模型权重已在 Hugging Face 平台发布。

gpt-oss-20b | gpt-oss-120b | OpenAI

🍀频道 🍵茶馆 📮投稿

via 科技圈🎗在花频道📮 - Telegram Channel
Anthropic 发布 Claude Opus 4.1 模型

Anthropic 公司今日宣布,正式推出其最新模型 Claude Opus 4.1。该模型是前代 Claude Opus 4 的升级版本。据介绍,新模型在智能体任务(agentic tasks)、真实世界编程以及推理能力方面均实现了性能提升。

Opus 4.1 现已面向付费 Claude 用户和 Claude Code 开放,同时支持 API、Amazon Bedrock 和 Google Cloud 的 Vertex AI。Anthropic 还表示,未来几周内将带来更大规模的模型升级。

Anthropic

🍀频道 🍵茶馆 📮投稿

via 科技圈🎗在花频道📮 - Telegram Channel
Anthropic发布Opus 4.1 编程、研究更强大

人工智能模型的竞赛再度升温。在OpenAI即将发布备受期待的GPT-5之际,Anthropic率先升级自家模型,推出Claude Opus 4.1,声称在编程、研究和数据分析能力方面实现显著提升。美东时间周二,Anthropic公司宣布新模型Opus 4.1在编程评估基准SWE-Bench Verified上的得分达到74.5%,较前代Opus 4的 72.5% 提升两个百分点。新模型在处理大型代码库导航和多文件代码重构方面表现尤为突出。GitHub、Rakuten Group 等客户反馈显示,Opus 4.1在代码修改精准度和调试效率方面均有显著改善,能够在不引入漏洞的情况下精确定位需要修正的代码位置。

—— 华尔街见闻彭博社Anthropic

via 风向旗参考快讯 - Telegram Channel
OpenAI宣布推出开源模型GPT-OSS系列

OpenAI CEO 山姆·奥尔特曼周二宣布,公司将在未来几天里带来许多新东西,其中周二会迎来一项“小而重磅”的更新——预热已久的开源模型GPT-OSS。简单而言,OpenAI周二共发布两款开放权重AI推理模型。其中参数量达到1170亿的gpt-oss-120b能力更强,可以由单个英伟达专业数据中心GPU驱动;参数量210亿的gpt-oss-20b模型,则能够在配备16GB内存的消费级笔记本电脑上运行。两款模型都以Apache 2.0许可证发布,企业在商用前无需付费或获得许可。就该模型性能而言,GPT-OSS大致位于开源模型的第一梯队,但整体略逊于GPT-o3和o4-mini。

—— 财联社彭博社OpenAI

via 风向旗参考快讯 - Telegram Channel
Elevated errors for requests to Claude 4 Sonnet

Aug 5, 20:08 UTC
Investigating - We are currently investigating elevated errors on requests to Claude 4 Sonnet on the API, Claude.ai, and the Anthropic Console.

via Anthropic Status - Incident History
#BestAI update

https://api.oaibest.com

2025/8/6更新
新增模型:claude-opus-4-1-all,gpt-oss-120b,gpt-oss-20b

2025/7/22更新
新增模型:moonshotai/kimi-k2-instruct, qwen3-coder

2025/7/18更新
已支持claude code,请使用claude code分组,低至官方2.8折
🤖 Eric Wallace 团队发布 gpt-oss-120b 和 gpt-oss-20b 开源大模型,强调性能与安全

Eric Wallace 团队今日发布了两款开源大语言模型(LLMs):gpt-oss-120b 和 gpt-oss-20b。这两款模型在性能和智能体工具使用方面表现出色。在发布前,团队进行了一项开创性的安全分析,通过有意微调模型以最大化其生物和网络能力,从而评估并确保其安全性。

(@OpenAI)

via 茶馆 - Telegram Channel
🤖 OpenAI发布两款“开放权重”AI模型,时隔五年再推开放模型

OpenAI近日在Hugging Face平台发布了两款“开放权重”AI模型:GPT-oss-120b和GPT-oss-20b。这些模型具备文本生成、编码和在线研究等复杂任务能力,允许开发者自定义参数。这是OpenAI自2019年GPT-2以来首次发布开放模型,但由于未披露训练数据,它们并非完全开源。OpenAI首席执行官萨姆·奥特曼强调了安全担忧及修订开源策略的必要性。此次发布旨在服务包括企业和政府在内的多元用户,并被视为对中国DeepSeek R1成功的回应,也与特朗普的AI行动计划中推广开放标准的理念相符。

(财经快讯)

via 茶馆 - Telegram Channel
🤖 OpenAI宣布推出两款开放模型

OpenAI已正式发布其两款开放模型。更多详情可访问其官方网站。

(@OpenAI)

via 茶馆 - Telegram Channel
Estimating worst case frontier risks of open weight LLMs

摘要

本文研究了发布gpt-oss模型时的最坏情况前沿风险。我们引入了恶意微调(MFT)方法,旨在通过微调gpt-oss,使其在生物学和网络安全两个领域的能力达到最大化。为了最大化生物风险(biorisk),我们策划了与威胁制造相关的任务,并在具备网页浏览功能的强化学习环境中训练gpt-oss。为了最大化网络安全风险,我们在一个具备代理编码能力的环境中训练gpt-oss,以解决夺旗赛(CTF)挑战。我们将这些经过恶意微调的模型与开放权重和封闭权重的大型语言模型(LLM)在前沿风险评估中进行了比较。与封闭权重的前沿模型相比,经过恶意微调的gpt-oss表现不及OpenAI的o3模型,后者在生物风险和网络安全方面的能力低于“高准备度”水平。与开放权重模型相比,gpt-oss可能略微提升了生物学能力,但并未显著推动前沿发展。综合来看,这些结果促成了我们发布该模型的决定,我们希望恶意微调方法能为评估未来开放权重模型发布可能带来的危害提供有益指导。

----------------------

Abstract

In this paper, we study the worst-case frontier risks of releasing gpt-oss. We introduce malicious fine-tuning (MFT), where we attempt to elicit maximum capabilities by fine-tuning gpt-oss to be as capable as possible in two domains: biology and cybersecurity. To maximize biological risk (biorisk), we curate tasks related to threat creation and train gpt-oss in an RL environment with web browsing. To maximize cybersecurity risk, we train gpt-oss in an agentic coding environment to solve capture-the-flag (CTF) challenges. We compare these MFT models against open- and closed-weight LLMs on frontier risk evaluations. Compared to frontier closed-weight models, MFT gpt-oss underperforms OpenAI o3, a model that is below Preparedness High capability level for biorisk and cybersecurity. Compared to open-weight models, gpt-oss may marginally increase biological capabilities but does not substantially advance the frontier. Taken together, these results contributed to our decision to release the model, and we hope that our MFT approach can serve as useful guidance for estimating harm from future open-weight releases.

via OpenAI News
gpt-oss-120b & gpt-oss-20b Model Card

介绍

我们推出了 gpt-oss-120b 和 gpt-oss-20b 两款开放权重推理模型,这些模型在 Apache 2.0 许可证和我们的 gpt-oss 使用政策下提供。它们是在开源社区反馈的基础上开发的,仅支持文本输入,兼容我们的 Responses API,设计用于具备强指令遵循能力的代理工作流,支持工具使用(如网页搜索和 Python 代码执行)及推理能力——包括能够根据任务复杂度调整推理力度。模型可定制,支持完整的链式思维(CoT)和结构化输出。

安全性是我们开放模型方法的基础。这些模型与专有模型存在不同的风险特征:一旦发布,决心坚定的攻击者可能会对其进行微调,以绕过安全拒绝机制或直接优化有害行为,而 OpenAI 无法实施额外的缓解措施或撤销访问权限。

在某些情况下,开发者和企业需要实施额外的安全保障措施,以复制通过我们的 API 和产品提供的模型所内置的系统级保护。我们将此文档称为模型卡,而非系统卡,因为 gpt-oss 模型将作为各种系统的一部分被广泛使用,这些系统由不同的利益相关者创建和维护。虽然模型默认设计遵循 OpenAI 的安全政策,但其他利益相关者也会做出并实施自己的决策,以确保这些系统的安全。

我们对 gpt-oss-120b 进行了可扩展能力评估,确认该默认模型在我们准备框架的三个跟踪类别(生物与化学能力、网络能力和 AI 自我改进)中均未达到高能力的指示阈值。我们还调查了两个额外问题:

对抗性行为者是否能通过微调 gpt-oss-120b,使其在生物与化学或网络领域达到高能力?模拟攻击者的潜在行为,我们对 gpt-oss-120b 进行了针对这两个类别的对抗性微调。OpenAI 安全咨询组(SAG)审查了该测试,结论是即使利用 OpenAI 领先的训练技术进行强力微调,gpt-oss-120b 仍未达到生物与化学风险或网络风险的高能力水平。
发布 gpt-oss-120b 是否会显著推动开放基础模型在生物能力领域的前沿?我们的发现是否定的:在大多数评估中,一个或多个现有开源模型的默认表现已接近 gpt-oss-120b 对抗性微调后的表现。

作为此次发布的一部分,OpenAI 重申其致力于推动有益 AI 发展并提升整个生态系统安全标准的承诺。

----------------------

Introduction

We introduce gpt-oss-120b and gpt-oss-20b, two open-weight reasoning models available under the Apache 2.0 license and our gpt-oss usage policy. Developed with feedback from the open-source community, these text-only models are compatible with our Responses API and are designed to be used within agentic workflows with strong instruction following, tool use like web search and Python code execution, and reasoning capabilities—including the ability to adjust the reasoning effort for tasks that don’t require complex reasoning. The models are customizable, provide full chain-of-thought (CoT), and support Structured Outputs.

Safety is foundational to our approach to open models. They present a different risk profile than proprietary models: Once they are released, determined attackers could fine-tune them to bypass safety refusals or directly optimize for harm without the possibility for OpenAI to implement additional mitigations or to revoke access.

In some contexts, developers and enterprises will need to implement extra safeguards in order to replicate the system-level protections built into models served through our API and products. We’re terming this document a model card, rather than a system card, because the gpt-oss models will be used as part of a wide range of systems, created and maintained by a wide range of stakeholders. While the models are designed to follow OpenAI’s safety policies by default, other stakeholders will also make and implement their own decisions about how to keep those systems safe.

We ran scalable capability evaluations on gpt-oss-120b, and confirmed that the default model does not reach our indicative thresholds for High capability in any of the three Tracked Categories of our Preparedness Framework (Biological and Chemical capability, Cyber capability, and AI Self-Improvement). We also investigated two additional questions:

Could adversarial actors fine-tune gpt-oss-120b to reach High capability in the Biological and Chemical or Cyber domains? Simulating the potential actions of an attacker, we adversarially fine-tuned the gpt-oss-120b model for these two categories. OpenAI’s Safety Advisory Group (“SAG”) reviewed this testing and concluded that, even with robust fine-tuning that leveraged OpenAI’s field-leading training stack, gpt-oss-120b did not reach High capability in Biological and Chemical Risk or Cyber risk.
Would releasing gpt-oss-120b significantly advance the frontier of biological capabilities in open foundation models? We found that the answer is no: For most of the evaluations, the default performance of one or more existing open models comes near to matching the adversarially fine-tuned performance of gpt-oss-120b.

As part of this launch, OpenAI is reaffirming its commitment to advancing beneficial AI and raising safety standards across the ecosystem.

via OpenAI News
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney 2.8折起
[email protected]