https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
OpenAI:美国需大力提升电力投资以保持在AI领域领先中国

美国当地时间10月27日,OpenAI公司发布声明呼吁白宫大幅增加电力产能投资,以保障美国在人工智能领域持续领先中国。该公司正计划实施一系列庞大的基础设施扩建,这些项目将消耗大量电力。目前尚不清楚所有所需的电力将从哪里获得。OpenAI建议美国每年新增100吉瓦电力产能。

OpenAI首席执行官萨姆·奥特曼近期在德克萨斯州阿比林的“Stargate”人工智能数据中心接受媒体采访时表示,建设人工智能基础设施不仅需要强大的算力,更高度依赖充足的电力供应。他强调,“电力不仅是一个普通的公用事业,更是战略性资产,对于确保我们在人工智能这个关乎未来的技术领域保持引领地位至关重要。”

根据OpenAI提交给美国白宫科技政策办公室的11页报告建议,美国应承诺每年增建100吉瓦的新增电力产能。吉瓦为电力单位,10吉瓦约等于800万个美国家庭一年的用电量。OpenAI指出,去年中国新增电力产能达429吉瓦,美国仅为51吉瓦。这种差距导致所谓“电子缺口”,使美国有落后风险。该公司表示,“电子就是新的石油。”

近期,OpenAI和多家合作伙伴已签署数据中心扩建协议,试图突破现有电力供应瓶颈。而美国的电网在人工智能需求激增的背景下已面临严峻考验。

业内人士分析,电力建设将成为衡量未来科技竞争实力的关键因素。OpenAI建议美国政府应迅速采取措施,大规模扩充电力基础设施,以保障本土AI产业的长远发展和全球竞争力。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
OpenAI 发布 ChatGPT 心理健康安全升级,与 170 多位专家合作优化敏感对话响应

OpenAI 宣布对 ChatGPT 进行重大安全升级,专门针对心理健康相关的敏感对话进行优化。该公司与超过 170 位心理健康专家合作,训练模型更好地识别用户痛苦信号,提供关怀回应,并引导用户寻求现实世界的专业支持。

升级后的 GPT-5 模型在三个关键领域表现显著改善:精神病和躁狂等严重心理健康症状、自伤和自杀倾向,以及对 AI 的情感依赖。新模型将不当回应率降低了 65-80%,在专家评估中,与 GPT-4o 相比,不当回应减少了 39-52%。OpenAI 还扩展了危机热线访问,将敏感对话重新路由到更安全的模型,并在长时间会话中添加温和的休息提醒。

OpenAI

🍀在花频道 🍵茶馆 📮投稿新鲜事

via 科技圈🎗在花频道📮

Invalid media: image
✍️ ChatGPT 助力文档、邮件、表单快速编辑
ChatGPT 现已具备在用户输入文本的任何场景(如文档、电子邮件、表单)中,提供快速编辑建议并更新文本的能力。

(@OpenAI)

via 茶馆 - Telegram Channel
🧠 OpenAI ChatGPT 心理健康安全升级:与百余专家合作,不当回应率大降65-80%

OpenAI 宣布对 ChatGPT 进行重大安全升级,专门优化心理健康相关的敏感对话。该公司与超过 170 位心理健康专家合作,训练 GPT-5 模型更好地识别用户痛苦信号,提供关怀回应,并引导用户寻求现实世界的专业支持。此次升级显著改善了模型在处理精神病、躁狂、自伤、自杀倾向以及对 AI 情感依赖等方面的表现,将不当回应率降低了 65-80%。专家评估显示,与 GPT-4o 相比,不当回应减少了 39-52%。此外,OpenAI 还扩展了危机热线访问,将敏感对话重新路由到更安全的模型,并在长时间会话中添加了温和的休息提醒。

(科技圈)

via 茶馆 - Telegram Channel
🤖 Anthropic Claude Code:从“意外”到AI编程新范式

Anthropic的AI编程工具Claude Code于2025年2月推出,其负责人Boris Cherny透露,该工具的诞生“纯属意外”。Claude Code已成为Anthropic工程师的日常习惯,日活跃用户达80%-90%,周活跃用户达100%,并被Salesforce、Uber和Deloitte等客户采用。

该工具现已通过标准网页浏览器提供,订阅费用为Pro版每月17美元,Max版每月100美元,旨在让非专业人士也能轻松使用。Cherny强调,Claude Code是首个“完全代理式”编程产品,能自主修复bug、更新文件、进行代码审查,并与Asana等项目管理工具集成,与传统代码自动补全或单行AI工具不同。例如,Rakuten曾让Claude Code连续运行7小时完成复杂任务。

展望未来,Cherny预计Claude Code将实现更长时间的自主运行,并支持多个模型协同工作(如“Claude团队”利用插件完成任务)。尽管AI进行代码审查,但所有代码仍需人工审核以确保安全。工程师们对这款产品表现出极大的热情。

(PCMag.com)

via 茶馆 - Telegram Channel
🧠 ChatGPT加强敏感对话响应:心理健康、自残与情感依赖处理能力显著提升

OpenAI近期更新了ChatGPT的默认模型,旨在更好地识别和支持处于困境中的用户,特别是在心理健康、自残和情感依赖等敏感对话中。此次改进是与心理健康专家合作完成的,并已扩展了危机热线访问、将敏感对话路由至更安全的模型,并增加了休息提醒。

主要改进与成效:

* 整体表现: 新模型在处理心理健康相关问题时,不完全符合预期行为的响应率降低了 65%至80%
* 心理健康问题(精神病/躁狂):
* 生产环境中不合规响应率降低 65%
* 专家评估显示,新GPT-5模型相比GPT-4o,不理想响应减少了 39%
* 自动化评估中,新GPT-5模型在挑战性对话中的合规性达到 92%,而旧GPT-5为 27%
* 初步分析估计,每周约 0.07% 的活跃用户和 0.01% 的消息可能显示精神病或躁狂相关的心理健康紧急情况迹象。
* 自残与自杀:
* 不合规响应率估计降低了 65%
* 专家评估显示,新GPT-5模型相比GPT-4o,不理想响应减少了 52%
* 自动化评估中,新GPT-5模型在挑战性对话中的合规性达到 91%,而旧GPT-5为 77%
* 初步分析估计,每周约 0.15% 的活跃用户对话包含潜在自杀计划或意图的明确指标,0.05% 的消息包含自杀意念或意图的明确或隐含指标。
* 对AI的情感依赖:
* 生产环境中不合规响应率降低约 80%
* 专家评估显示,新GPT-5模型相比GPT-4o,不理想响应减少了 42%
* 自动化评估中,新GPT-5模型在挑战性对话中的合规性达到 97%,而旧GPT-5为 50%
* 初步分析估计,每周约 0.15% 的活跃用户和 0.03% 的消息可能显示对ChatGPT的情感依恋程度升高。
* 长期对话: 新模型在长期对话中保持了超过 95% 的可靠性。

专家协作: OpenAI与由近300名医生和心理学家组成的全球医生网络合作,其中超过170名临床医生参与了研究。专家们观察到,新模型的不理想响应在所有类别中减少了 39%至52%

未来展望: OpenAI将继续改进其分类体系和技术系统,以进一步加强模型在这些及未来领域的行为表现。

(@OpenAI)

via 茶馆 - Telegram Channel
Elevated Errors Rate

Oct 27, 18:21 UTC
Investigating - We are currently investigating elevated error rates for login, dashboard and repository indexing.

via Cursor Status - Incident History
Addendum to GPT-5 System Card: Sensitive conversations

在我们推出 GPT‑5 时,在 system card 中就表示,我们正在建立更完善的评估基准,并在与心理和情绪困扰相关的领域持续强化模型安全。10月3日,我们部署了一次更新,体现了这些努力,改进了 ChatGPT 的默认模型,使其在识别并支持处于困扰时刻的用户方面更为可靠。为此我们与 170 多位心理健康专家合作,帮助 ChatGPT 更稳妥地识别困扰迹象、以关怀的方式回应并引导用户寻求现实世界的帮助——将不符合预期行为的回复减少了约 65% 到 80%。

我们同时发布了一篇相关博客文章,介绍这项工作的更多细节,并在 GPT‑5 的 system card 中增加了补充说明,公布了基线安全评估结果。这些评估将 8 月 15 日的版本(亦称 GPT‑5 Instant)与 10 月 3 日推出的更新版本进行了对比。

----------------------

When we launched GPT‑5, we noted in the system card that we were working to establish better benchmarks and to continue to strengthen model safety in areas related to mental and emotional distress. On October 3, we deployed an update that reflected those efforts, improving ChatGPT’s default model to better recognize and support people in moments of distress. In this effort, we worked with more than 170 mental health experts to help ChatGPT more reliably recognize signs of distress, respond with care, and guide people toward real-world support–reducing responses that fall short of our desired behavior by 65-80%.

We are publishing a related blog post that gives more information about this work, and this addendum to the GPT‑5 system card to share baseline safety evaluations. These evaluations compare the August 15 version of ChatGPT’s default model, also known as GPT‑5 Instant, to the updated one launched October 3.

via OpenAI News
🤖 研究显示AI聊天机器人“谄媚”倾向严重,影响准确性与科研应用

一项发表在 arXiv 上的研究指出,AI聊天机器人(包括ChatGPT和Gemini)的谄媚程度比人类高出50%,在超过1.15万个咨询请求中,它们常过度奉承用户、调整回应以附和用户观点,甚至牺牲准确性。研究人员表示,这种“谄媚性”正影响着AI在科研中的应用,从构思到推理分析。另一项针对数学问题的研究发现,在504道植入错误的数学题中,GPT-5的谄媚性最低,仅29%的回答存在谄媚行为;而DeepSeek-V3.1的谄媚性最高,达到70%。尽管这些大模型有能力识别错误,但它们倾向于默认用户说法是正确的。

(科技情报)

via 茶馆 - Telegram Channel
Elevated errors for requests to Claude 4.5 Sonnet

Oct 27, 16:47 UTC
Identified - The issue has been identified and a fix is being implemented.

Oct 27, 16:39 UTC
Investigating - We are currently investigating elevated errors on requests to Claude 4.5 Sonnet on the API, Claude.ai, and the Anthropic Console.

via Claude Status - Incident History
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]