https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
英国邀请Anthropic扩张伦敦业务并探讨双重上市

美国人工智能(AI)公司Anthropic和五角大楼(美国国防部)发生冲突之后,英国政府从中看到了争取Anthropic的机会,试图吸引这家顶尖AI公司扩大其在英国的布局。知情人士透露,英国科学、创新与技术部的工作人员已为Anthropic制定了一系列提案,包括在伦敦扩大办公规模,甚至推动其进行双重上市。据悉,英国斯塔默政府对此项工作表示支持。这些提议预计将在Anthropic首席执行官达里奥·阿莫代伊于五月底访问英国时提交给他,届时他将前往欧洲与客户和政策制定者会面。知情人士还表示,近几周英国方面加大了说服Anthropic在伦敦现有办公室基础上进一步扩张的力度。

—— 财联社

via 风向旗参考快讯 - Telegram Channel
GET /v1/responses endpoint is currently down and unable to serve requests

Status: Investigating

We are investigating the issue for the listed services.

Affected components
Responses (Degraded performance)

via OpenAI status
两头AI吞金巨兽急需股市输血

OpenAI和Anthropic正在竞相争取在年底前实现可能打破纪录的 IPO。 它们都有致命的弱点:训练新AI模型所需的成本飙升。OpenAI预计2028年将在人工智能研究的计算能力上花费1210亿美元。即使销售额比上一年几乎翻了一番,该公司预计当年仍将亏损850亿美元。Anthropic预计支出远不及OpenAI,但其计算成本同样不断攀升。

风险投资公司之所以能够承受巨额亏损,部分原因是OpenAI和Anthropic是科技史上增长最快的企业之一。这两家公司预计今年的收入将翻一番以上,主要得益于企业客户对新型人工智能工具的采用。 两家企业每年还要花费数十亿美元用于“推理”成本,目前占到每家公司收入的一半以上,不过预计随着时间的推移,这一比例会下降。

ChatGPT的用户中只有极少数是付费用户,OpenAI无法从其推理成本中获得很大一部分收入。Anthropic的大部分收入来自企业用户。OpenAI表示,公司选择支持免费用户是因为这有助于其技术的更广泛应用。OpenAI还可以通过向这些用户展示广告或将他们转化为付费用户等方式盈利。 OpenAI 和 Anthropic 在未来几年都将消耗大量资金,并指望 IPO 投资者帮助提振业务。

—— 华尔街日报

via 风向旗参考快讯 - Telegram Channel
OpenAI 发布“超级智能”时代政策提案:建议对自动化征税并设立全民分红基金

OpenAI 发布了一系列名为《智能时代的产业政策》的提案,旨在应对“超级智能”可能带来的社会变革。该公司认为,随着 AI 技术向超越人类能力的水平演进,现有的政策框架已不足以应对挑战。为此,OpenAI 计划于今年 5 月在华盛顿特区开设新办公室,并提供最高 100 万美元的 API 额度及 10 万美元现金资助,以启动关于 AI 政策的跨界讨论。

提案核心建议重构税收体系,对因自动化获利的企业征收更高税收,甚至对替代人工的系统征税。在保障民生方面,OpenAI 提议建立类似于主权财富基金的公共投资基金,定期向民众发放收益,并推行不随雇主变动的“便携式福利”及缩短工时等措施。此外,公司试图在政治立场上保持平衡,既支持加强电网建设以应对 AI 竞争,也主张在识别和遏制危险 AI 系统方面赋予政府更大的评估权。

OpenAI | The Wall Street Journal

🌸 在花频道茶馆讨论投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
Industrial policy for the Intelligence Age

随着我们迈向超智能,零星的政策修补已不足以应对。为启动这一亟需的讨论, OpenAI 提出了一套以人为本的政策构想,收录于《 Industrial Policy for the Intelligence Age 》一文,旨在扩大机会、分享繁荣并建设有韧性的制度,确保先进的 AI 能惠及所有人。

这些构想雄心勃勃,但刻意处于早期和探索阶段。我们并不把它们视为全面或最终的建议,而是希望作为讨论的出发点,邀请社会各界通过民主程序在此基础上扩展、完善、质疑或择其采纳。为推动这一进程, OpenAI 正在:

1. 通过邮箱 [email protected] 欢迎并收集反馈意见;
2. 设立试点项目,提供奖学金与定向研究资助,单项最高可达 100,000 美元,并提供最高 1,000,000 美元的 API 使用额度,以资助基于这些或相关政策构想的研究;
3. 在今年五月于 Washington, DC 开幕的新 OpenAI Workshop 举办讨论会。

完整构想请见《 Industrial Policy for the Intelligence Age 》。

----------------------

As we move toward superintelligence, incremental policy updates won’t be enough. To kick-start this much needed conversation, OpenAI is offering a slate of people-first policy ideas⁠ designed to expand opportunity, share prosperity, and build resilient institutions—ensuring that advanced AI benefits everyone.

These ideas are ambitious, but intentionally early and exploratory. We offer them not as a comprehensive or final set of recommendations, but as a starting point for discussion that we invite others to build on, refine, challenge, or choose among through the democratic process. To help sustain momentum, OpenAI is:

1. welcoming and organizing feedback through [email protected]⁠ (mailto:[email protected])
2. establishing a pilot program of fellowships and focused research grants of up to $100,000 and up to $1 million in API credits for work that builds on these and related policy ideas
3. convening discussions at our new OpenAI Workshop opening in May in Washington, DC.

Read the full ideas document here⁠⁠.

via OpenAI News
🤖 OpenAI 调查 ChatGPT 网页版回复空白问题

OpenAI 官方状态页显示,部分用户在访问 ChatGPT 网页版时可能会遇到回复内容为空的问题。目前 OpenAI 已确认该故障并将其列为“性能退化”状态,技术团队正在对受影响的服务组件进行调查。

OpenAI Status

🌸 在花频道茶馆讨论投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
最新研究发现人类语言越来越平庸化 AI正在反向教人类说话

多项最新语言学研究证实,AI正在反向塑造人类的说话方式,让人类语言陷入前所未有的同质化与平庸化危机。资深沟通教练梅雷迪思・格伦代伊长期观察亚马逊AWS、谷歌、松下等跨国企业领袖的沟通模式后发现,一种被称为“机器人谈话”的现象正在职场快速蔓延,人们开始像给大语言模型下指令一样与同事交谈,对话失去了有温度的情感联结,取而代之的是脱离语境的冰冷指令与极致功利化的效率表达。

更令人警惕的是,AI正在系统性过滤人类语言的表达多样性,这也是人类历史上首次出现“技术反向教导人类说话”的现象

德国马克斯・普朗克人类发展研究所分析超30万条油管影片、77万集播客内容后发现,在ChatGPT发布后的18个月里,部分特定词汇的使用频率出现统计学上的显著增长。这些词汇并非更具实用性,只是AI训练过程中过度偏好这类“听起来专业”的表达,并通过海量互动将其反向植入了人类的语言系统。

这种被学界称为渗透效应的现象,还有着更直观的数据佐证。美国佛罗里达州立大学研究团队分析2210万字的无脚本对话后发现,大语言模型高频使用的AI语言,在人类口语中的出现频率涨幅达到35%至51%,与这类词汇的同义词使用频率的稳定状态形成鲜明对比。

研究指出,AI生成的文本天然倾向于安全、标准、无害的表达,这虽拉高了沟通的平均品质,却彻底抹平了个体表达的独特性

当语言变成千篇一律的加工产物,看似干练却失去了灵魂,学术界已开始担忧,这种语言同质化最终会引发集体智能受损,当所有人都用同一套经算法校准的逻辑与词汇表达,人类对复杂问题的诠释将不断收敛,最终导致思考路径的单一化

值得注意的是,AI带来的语言变革,与过往社交媒体催生的语言变迁有着本质区别。TikTok等短影音平台带动的流行语,传播动力源于人类的创意与情绪表达,核心是人与人的创意交流,本质是在扩张语言的边界。

而AI始终倾向于选择概率最高、最平庸的词汇组合,无意识地将人类语言拉向庸俗的平均值。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
🤖 估值 3800 亿美元的 Anthropic 推行透明扁平文化:员工可在 Slack 直接挑战 CEO

Anthropic 成长主管 Amol Avasare 日前分享,这家估值 3800 亿美元的 Claude 开发商正通过极度透明的沟通机制对抗大企业病。公司内部为每位员工(含 CEO Dario Amodei)设立公开的 Slack「笔记本」频道,打破部门间信息孤岛,鼓励跨层级直接交流。

Avasare 指出,公司文化明确鼓励员工直接挑战高层决策。在近期一场全公司大会后,有员工因不认同 Amodei 的观点,直接在其 Slack 频道留言质疑,引发大规模公开辩论。这种打破传统「指挥链」的做法,旨在防范群体迷思,确保涉及 AI 安全的高风险研究能获得基层及时反馈。

mashdigi

🌸 在花频道茶馆讨论投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
Some users may experience empty response from ChatGPT in web

Status: Investigating

We are investigating the issue for the listed services.

Affected components
Conversations (Degraded performance)

via OpenAI status
伊朗威胁要炸掉300亿美元OpenAI星际之门AI数据中心

伊朗伊斯兰革命卫队(IRGC)近日通过发布官方视频,向美国发出了措辞强硬的报复警告,明确将OpenAI位于阿联酋阿布扎比、总投资300亿美元的星际之门(Stargate)AI数据中心列为核心打击目标,扬言要对其实施“彻底的、完全的毁灭”。

此次威胁,是伊朗针对美国扬言要打击其国内电力基础设施做出的直接回应。伊朗伊斯兰革命卫队发言人易卜拉欣・佐勒法加里准将在视频中明确表态,若美国执意对伊朗电厂设施采取行动,伊朗将立即启动报复措施,以色列境内所有电厂、能源基础设施、信息通信技术设施,以及中东地区所有有美国股东的同类企业,都将面临彻底摧毁。

在佐勒法加里发表声明后,视频画面出现了极具针对性的内容。镜头从太空视角的地球画面逐步缩放,最终锁定谷歌地图上阿布扎比海岸附近的一处沙漠地带,这片区域在谷歌地图上显示为一片空白,视频却叠加字幕直言“即便被谷歌隐藏,也没有什么能逃过我们的视线”。

随后画面切换为夜视视角,这座装机容量达1GW的星际之门AI数据中心的完整轮廓与全貌清晰可见。作为OpenAI的核心算力基建,该项目也是美国本土外规模最大、投资最高的AI数据中心之一。

据悉,在此之前,伊朗已经通过火箭弹袭击对亚马逊AWS位于巴林的部分数据中心造成实质性破坏,直接导致相关设施停运。近几周内,伊朗还曾向NVIDIA、微软、苹果、谷歌等18家美国企业发出过类似的打击威胁,将中东地区相关美资科技设施列为“合法打击目标”。

眼下美伊双方均无缓和对峙态势的迹象,这场围绕数字基础设施的对峙,不仅关乎这一300亿美元项目的安危,更直接关系到设施内工作人员的生命安全。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
科技史上最贵的饭局:扎克伯格痛失DeepMind始末

最近,著名记者、作家塞巴斯蒂安・马拉比出了本新书,名叫《无限机器:德米斯・哈萨比斯、DeepMind 与超级智能的探索》。

书中,他披露了一段扎克伯格与 DeepMind 失之交臂的往事,并授权《华尔街日报》独家节选。我们在其中发现了一些有趣的细节。


https://mp.weixin.qq.com/s/27l7Ckx_FL53JVDeErvi6Q
进展超预期:AI Futures Project 显著提前 AGI 与自动化编程实现预测

AI Futures Project 发布 2026 年第一季度更新报告,受 Gemini 3、GPT-5.2 及 Claude Opus 4.6 等新模型表现超预期影响,研究人员显著提前了通用人工智能(AGI)与自动化编程(AC)的时间线预测。其中,自动化编程的实现中值预测已从 2029 年底提前至 2028 年中;而在所有认知任务中达到顶级专家水平的 AI(TED-AI)实现预测也整体提前了约 1.5 年。

报告分析显示,METR 编码时间水平的翻倍速度已从 5.5 个月缩短至 4 个月左右。此外,AI 编程工具在商业化进程中表现强劲,Claude Code 发布仅 9 个月,其年化收入已突破 25 亿美元。研究团队认为,代理化编码(Agentic Coding)的进展速度远超此前预期,行业内关于自动化 AI 研发即将实现的共识正在进一步增强。

AI Futures Project

🌸 在花频道茶馆讨论投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
微软在使用条款中强调Copilot“仅供娱乐” 并不适合重要用途

微软在大力向消费者和企业推广其人工智能产品、并在 Windows 11 深度集成 Copilot 的同时,却在官方文件中将这款 AI 服务定位为“娱乐用途”。 更新于去年 10 月的《Microsoft Copilot 使用条款》明确写道,这一大型语言模型(LLM)“仅供娱乐目的”,用户不应将其用于提供重要建议,并需自担风险。

这一表述与微软近期围绕 Copilot+ PC 及面向企业用户的宣传形成鲜明反差,引发外界对其信心程度的质疑。

在该使用条款中,微软写道:“Copilot 仅供娱乐用途。它可能会犯错,且可能无法按预期工作。不要在重要建议上依赖 Copilot。使用 Copilot 须自担风险。” 报道指出,类似的免责声明并非微软独有,其他 AI 大模型服务商也采取了接近的表述。 例如 xAI 在其服务条款中提醒用户,人工智能“快速演进且具有概率性”,因此生成的内容可能出现“幻觉”、包含冒犯性内容、不能准确反映真实人物或事实,甚至完全不适合用户预期用途。

尽管生成式 AI 已被证明在写作、编程等场景可以提升效率,但它仍只是一个缺乏责任主体的工具,无法为自身错误承担任何法律或现实后果。 因此,使用者在采信其结果时必须保持谨慎,对输出保持怀疑态度并进行交叉核查。 然而,报道也提醒,哪怕用户知道这些技术局限,人类仍容易受到“自动化偏见”的影响,即天然更倾向相信机器给出的答案,而忽略与之相矛盾的数据或线索。

在当前 AI 生成内容愈发自然、看上去愈发“像真的”的背景下,这种自动化偏见的风险被进一步放大。 文章指出,当 AI 能在表面上给出逻辑自洽、措辞权威的回答时,用户更容易在“只看一眼”的情况下就选择相信,从而在无形中放松警惕。 在这种情况下,厂商一方面通过广告与产品整合,鼓励用户在工作和生活中广泛采用 AI,另一方面又在使用条款中以标准化免责声明切割责任,这种张力也成为当前 AI 产业发展中一个颇具争议的现象。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]