https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
李开复:开源模型是实现“AI主权”的更优路径
创新工场董事长李开复近日在专访中深入探讨了“AI主权”的概念。他指出,人工智能主权不仅关乎技术控制权和数据安全,还涉及模型与本土文化及法律的适配性。他认为,并非每个国家都有必要重造一个OpenAI,盲目追求昂贵的闭源自研并非良策。
李开复强调,对于大多数资源有限的国家和企业而言,基于开源模型构建本地化体系是更现实的选择。这种“第三条路”通过在开源基础上进行增量训练,能以极低的成本让模型符合特定地区的价值观,而非受制于他国的通用模型。
工程效率与生态之争
谈及中美竞争,李开复认为资源受限反而催生了中国企业的极致工程效率。他以DeepSeek为例,指出中国公司在算力不足的情况下,通过优化架构和减少依赖,能以不到美国十分之一的投入实现极高的性能。
他预测AI领域将演变成类似“iPhone与安卓”的格局。闭源模型如同一方领地,追求高利润和生态控制力;而开源模型则代表了更广阔的市场覆盖和普及度,两者将在全球范围内长期并存,共同构建未来的智能生态。
中国硬件的下半场机遇
李开复对中国在物理AI和硬件制造方面的结构性优势表示乐观。他指出,中国拥有全球最完整的供应链体系,从智能穿戴到机器人,制造成本远低于西方。未来AI时代的标杆级硬件,极有可能由中国设计并品牌化。
此外,中国在语音驱动交互和大规模现实数据生成方面也具备独特文化优势。随着“人工智能+”政策对实体经济的赋能,硬件与AI的深度结合将成为中国在AI下半场竞赛中的核心竞争力。
via AI新闻资讯 (author: AI Base)
创新工场董事长李开复近日在专访中深入探讨了“AI主权”的概念。他指出,人工智能主权不仅关乎技术控制权和数据安全,还涉及模型与本土文化及法律的适配性。他认为,并非每个国家都有必要重造一个OpenAI,盲目追求昂贵的闭源自研并非良策。
李开复强调,对于大多数资源有限的国家和企业而言,基于开源模型构建本地化体系是更现实的选择。这种“第三条路”通过在开源基础上进行增量训练,能以极低的成本让模型符合特定地区的价值观,而非受制于他国的通用模型。
工程效率与生态之争
谈及中美竞争,李开复认为资源受限反而催生了中国企业的极致工程效率。他以DeepSeek为例,指出中国公司在算力不足的情况下,通过优化架构和减少依赖,能以不到美国十分之一的投入实现极高的性能。
他预测AI领域将演变成类似“iPhone与安卓”的格局。闭源模型如同一方领地,追求高利润和生态控制力;而开源模型则代表了更广阔的市场覆盖和普及度,两者将在全球范围内长期并存,共同构建未来的智能生态。
中国硬件的下半场机遇
李开复对中国在物理AI和硬件制造方面的结构性优势表示乐观。他指出,中国拥有全球最完整的供应链体系,从智能穿戴到机器人,制造成本远低于西方。未来AI时代的标杆级硬件,极有可能由中国设计并品牌化。
此外,中国在语音驱动交互和大规模现实数据生成方面也具备独特文化优势。随着“人工智能+”政策对实体经济的赋能,硬件与AI的深度结合将成为中国在AI下半场竞赛中的核心竞争力。
via AI新闻资讯 (author: AI Base)
号称“危险”的AI扫描17. 6 万行代码后,仅揪出一个低危漏洞
近日,Anthropic公司备受瞩目的AI安全分析模型Mythos,在开源界遭遇了一场意料之外的“滑铁卢”。尽管官方曾大肆宣传该模型在发现源代码漏洞方面能力过于强悍,甚至为此推迟了公开发布,但在对全球知名开源工具curl的实测中,Mythos交出的答卷却显得有些苍白:在多达17. 6 万行代码的严密扫描下,最终仅确认了一个低危漏洞。
这场测试的推动者是curl项目的创始人Daniel Stenberg。他通过相关项目获得了Mythos的有限测试权限,试图给这个拥有 200 亿次安装量的网络传输利器做一次深度“体检”。curl的代码库一向以极高的安全工程标准著称,不仅经过了数百位贡献者的精心打磨,更长期接受各类自动化扫描及高昂的专业审计。
测试过程起初看起来硕果累累。Mythos的初始报告宣称发现了“ 5 个已确认的安全漏洞”,但经过curl安全团队数小时的人工复核,这些结果迅速缩水:其中 3 个被判定为误报,仅是符合文档描述的正常行为; 1 个被定性为普通bug,不具备安全威胁。最终,仅剩下 1 个严重程度被评为“低”的漏洞。
对于这样的结果,Stenberg直言不讳地指出,Anthropic所谓的“危险级能力”更像是一场成功的市场营销。他表示,早在Mythos之前,curl团队就已经利用多款AI安全工具修复了数百个bug,而第一批工具往往更容易捡到“低垂的果实”。随着代码库的日益完善,AI想要挖掘出深层的新型漏洞已变得难上加难。
不过,Stenberg并未全盘否定AI的价值。他承认,相比于传统的静态分析器,像Mythos这样的AI工具在理解协议规范、识别注释与代码不符、以及模拟复杂环境下的配置检查方面具有显著优势。它们更像是一个博学且擅长总结的助手,尽管给出的修复方案并不总是百分之百正确。
此次实测给业界敲响了警钟:AI虽然在代码审计领域带来了效率的质变,但目前依然只能发现“已知类型”的错误实例,而非创造全新的漏洞检测逻辑。在保障核心安全方面,严谨的安全工程实践——如防御性基础设施的构建和严格的数值上限限制,依然是比AI工具更可靠的“银弹”。
via AI新闻资讯 (author: AI Base)
近日,Anthropic公司备受瞩目的AI安全分析模型Mythos,在开源界遭遇了一场意料之外的“滑铁卢”。尽管官方曾大肆宣传该模型在发现源代码漏洞方面能力过于强悍,甚至为此推迟了公开发布,但在对全球知名开源工具curl的实测中,Mythos交出的答卷却显得有些苍白:在多达17. 6 万行代码的严密扫描下,最终仅确认了一个低危漏洞。
这场测试的推动者是curl项目的创始人Daniel Stenberg。他通过相关项目获得了Mythos的有限测试权限,试图给这个拥有 200 亿次安装量的网络传输利器做一次深度“体检”。curl的代码库一向以极高的安全工程标准著称,不仅经过了数百位贡献者的精心打磨,更长期接受各类自动化扫描及高昂的专业审计。
测试过程起初看起来硕果累累。Mythos的初始报告宣称发现了“ 5 个已确认的安全漏洞”,但经过curl安全团队数小时的人工复核,这些结果迅速缩水:其中 3 个被判定为误报,仅是符合文档描述的正常行为; 1 个被定性为普通bug,不具备安全威胁。最终,仅剩下 1 个严重程度被评为“低”的漏洞。
对于这样的结果,Stenberg直言不讳地指出,Anthropic所谓的“危险级能力”更像是一场成功的市场营销。他表示,早在Mythos之前,curl团队就已经利用多款AI安全工具修复了数百个bug,而第一批工具往往更容易捡到“低垂的果实”。随着代码库的日益完善,AI想要挖掘出深层的新型漏洞已变得难上加难。
不过,Stenberg并未全盘否定AI的价值。他承认,相比于传统的静态分析器,像Mythos这样的AI工具在理解协议规范、识别注释与代码不符、以及模拟复杂环境下的配置检查方面具有显著优势。它们更像是一个博学且擅长总结的助手,尽管给出的修复方案并不总是百分之百正确。
此次实测给业界敲响了警钟:AI虽然在代码审计领域带来了效率的质变,但目前依然只能发现“已知类型”的错误实例,而非创造全新的漏洞检测逻辑。在保障核心安全方面,严谨的安全工程实践——如防御性基础设施的构建和严格的数值上限限制,依然是比AI工具更可靠的“银弹”。
via AI新闻资讯 (author: AI Base)
现实版“权力的游戏”?Ilya法庭作证:奥特曼曾用谎言编织OpenAI网路
据最新法庭披露的信息显示,OpenAI 的前任首席科学家伊利亚·苏茨克弗(Ilya Sutskever)在马斯克起诉 OpenAI 的案件中作为关键证人出庭。他的证词不仅坐实了 2023 年那场震惊科技界的“政变”并非心血来潮,更揭开了公司高层之间长期存在的信任危机。
蓄谋已久的“倒萨”行动
苏茨克弗在法庭上承认,早在 2023 年 11 月那场短暂的罢免风波发生前的一年,他就已经开始着手收集萨姆·奥尔特曼(Sam Altman)“不诚实行为”的证据。根据他的描述,这份应董事会要求整理的秘密文件长达 52 页,详细记录了奥尔特曼如何通过“一贯的撒谎模式”来操纵公司决策。
这份文件中列举了多项具体细节:奥尔特曼被指控频繁在高管之间挑拨离间,削弱他人的管理权威,并向董事会隐瞒重大事实。一个典型的例子是,奥尔特曼曾单方面宣称 GPT-4 Turbo 无需经过安全委员会审查,理由是得到了法务部门的批准,但随后这一说法被公司首席法务官当场拆穿。
诚信基石的崩塌
苏茨克弗认为,奥尔特曼的行为模式已经严重威胁到了 OpenAI 的核心使命——安全地开发通用人工智能(AGI)。他直言不讳地表示:“山姆不该是那个手握按钮的人。”在他看来,一个充满欺骗和内部对立文化的组织,根本无法承担起掌控 AGI 这种改变人类命运技术的责任。
证词还揭示了两人在技术路线与资源分配上的深层矛盾。有资料显示,苏茨克弗当时对于研究部门与应用部门之间的算力争夺深感不满,而奥尔特曼对部分研究员的快速提拔也加剧了这种裂痕。
多方博弈下的“权力天平”
马斯克方的律师团队将这份 52 页的备忘录作为核心证据,试图向法官证明奥尔特曼已经丧失了领导公司的诚信基础,并请求法院强制其下台。与此同时,微软 CEO 纳德拉在出庭时则表现得更为务实,他将对 OpenAI 的巨额投资描述为一次“经过计算的风险”。
虽然苏茨克弗在罢免事件发生后一度因为担心公司崩溃而投票支持奥尔特曼复职,并对此感到后悔,但他随后在 2024 年毅然选择离职,创立了 Safe Superintelligence(SSI)。这场横跨数年的纷争不仅是个人恩怨的爆发,更是关于 AI 发展主导权、安全边界与营利边界的一次全面摊牌。
via AI新闻资讯 (author: AI Base)
据最新法庭披露的信息显示,OpenAI 的前任首席科学家伊利亚·苏茨克弗(Ilya Sutskever)在马斯克起诉 OpenAI 的案件中作为关键证人出庭。他的证词不仅坐实了 2023 年那场震惊科技界的“政变”并非心血来潮,更揭开了公司高层之间长期存在的信任危机。
蓄谋已久的“倒萨”行动
苏茨克弗在法庭上承认,早在 2023 年 11 月那场短暂的罢免风波发生前的一年,他就已经开始着手收集萨姆·奥尔特曼(Sam Altman)“不诚实行为”的证据。根据他的描述,这份应董事会要求整理的秘密文件长达 52 页,详细记录了奥尔特曼如何通过“一贯的撒谎模式”来操纵公司决策。
这份文件中列举了多项具体细节:奥尔特曼被指控频繁在高管之间挑拨离间,削弱他人的管理权威,并向董事会隐瞒重大事实。一个典型的例子是,奥尔特曼曾单方面宣称 GPT-4 Turbo 无需经过安全委员会审查,理由是得到了法务部门的批准,但随后这一说法被公司首席法务官当场拆穿。
诚信基石的崩塌
苏茨克弗认为,奥尔特曼的行为模式已经严重威胁到了 OpenAI 的核心使命——安全地开发通用人工智能(AGI)。他直言不讳地表示:“山姆不该是那个手握按钮的人。”在他看来,一个充满欺骗和内部对立文化的组织,根本无法承担起掌控 AGI 这种改变人类命运技术的责任。
证词还揭示了两人在技术路线与资源分配上的深层矛盾。有资料显示,苏茨克弗当时对于研究部门与应用部门之间的算力争夺深感不满,而奥尔特曼对部分研究员的快速提拔也加剧了这种裂痕。
多方博弈下的“权力天平”
马斯克方的律师团队将这份 52 页的备忘录作为核心证据,试图向法官证明奥尔特曼已经丧失了领导公司的诚信基础,并请求法院强制其下台。与此同时,微软 CEO 纳德拉在出庭时则表现得更为务实,他将对 OpenAI 的巨额投资描述为一次“经过计算的风险”。
虽然苏茨克弗在罢免事件发生后一度因为担心公司崩溃而投票支持奥尔特曼复职,并对此感到后悔,但他随后在 2024 年毅然选择离职,创立了 Safe Superintelligence(SSI)。这场横跨数年的纷争不仅是个人恩怨的爆发,更是关于 AI 发展主导权、安全边界与营利边界的一次全面摊牌。
via AI新闻资讯 (author: AI Base)
OpenAI 正式宣布,将向欧盟开放其最先进的网络安全大模型 GPT-5.5-Cyber。这一动作不仅标志着顶尖 AI 模型的跨境落地,也引发了外界对各大科技巨头在安全监管与合规进度上的深度关注。
根据最新的行业动态,GPT-5.5-Cyber 的访问权限将精准开放给企业、政府机构、网络安全专家以及欧盟 AI 办公室等关键职能部门。OpenAI 此举被视为其在加强全球网络防御合作方面迈出的关键一步,旨在利用大模型强大的理解与分析能力,助力相关机构更有效地应对日益复杂的网络安全挑战。
欧盟委员会对于此次合作表现出了积极的姿态。其发言人在新闻发布会上公开点赞了 OpenAI 的透明度,并强调这种开放意愿将使监管部门能够实时、密切地跟踪模型的实际部署情况,从而更有针对性地处理潜在的网络安全风险。
相比之下,OpenAI 的老对手 Anthropic 在欧洲的进展则略显滞后。尽管该公司在一个月前就高调推出了名为 Mythos 的网络安全模型,甚至一度引发了市场关于软件安全性受威胁的担忧,但直到目前,Mythos 仍未获得进入欧盟市场的“入场券”。
据悉,欧盟目前正与 Anthropic 就访问权限问题进行密集磋商,双方虽然已经进行了四至五轮的谈判,但进度远落后于 OpenAI。内部消息透露,目前的讨论还停留在程序层面,尚未触及具体的解决方案阶段。这种合规进度上的差异,也让目前全球安全模型的布局呈现出截然不同的局面。
via AI新闻资讯 (author: AI Base)
马斯克Grok模型在AI竞赛中渐处下风
马斯克旗下AI模型Grok已远远落后于迅猛增长的竞争对手。与此同时,其母公司SpaceX同意将庞大算力出租给Anthropic,这一协议不禁让人怀疑:Grok究竟还能否迎头赶上。
根据分析公司AppMagic的数据,Grok的下载量已从今年1月份超2,000万次的峰值暴跌至四月份的830万次左右。研究公司Recon Analytics对超过26万名使用AI的美国消费者及职场人士进行了调查。结果显示,在2026年第二季度,表示曾为Grok付费的受访者比例仅为0.174%,与一年前的0.173%相比几乎毫无起色。相比之下,超过6%的受访者表示他们会为ChatGPT买单。
—— 华尔街日报
via 风向旗参考快讯 - Telegram Channel
马斯克旗下AI模型Grok已远远落后于迅猛增长的竞争对手。与此同时,其母公司SpaceX同意将庞大算力出租给Anthropic,这一协议不禁让人怀疑:Grok究竟还能否迎头赶上。
根据分析公司AppMagic的数据,Grok的下载量已从今年1月份超2,000万次的峰值暴跌至四月份的830万次左右。研究公司Recon Analytics对超过26万名使用AI的美国消费者及职场人士进行了调查。结果显示,在2026年第二季度,表示曾为Grok付费的受访者比例仅为0.174%,与一年前的0.173%相比几乎毫无起色。相比之下,超过6%的受访者表示他们会为ChatGPT买单。
—— 华尔街日报
via 风向旗参考快讯 - Telegram Channel
在经历了 2023 年的“政变”风波后,OpenAI近期通过修改公司章程,为其首席执行官萨姆·奥特曼筑起了一道坚固的防御墙。根据最新曝光的法庭文件,奥特曼如今在公司内部的地位已稳如泰山,外部干预或董事会内部罢免的门槛被大幅拉高。
马斯克起诉OpenAI案件的专家证人指出,这些变动是在公司向营利性转型期间悄悄完成的。相较于过去简单多数票即可解雇CEO的规则,新规则实质上赋予了奥特曼极强的留任保障。
从简单多数到绝对多数
根据去年 10 月通过的新章程,若要罢免CEO,必须获得公共利益公司(PBC)非员工董事三分之二以上的“绝对多数”同意。在当前的董事会架构下,这意味着奥特曼只需要额外获得两名董事的支持,就能抵消其他所有人的反对意见。
而在 2023 年的罢免事件中,当时的 6 名董事会成员中有 4 人投赞成票便成功将其解雇。新的权力格局使得即便拥有投票权的 7 名董事中有 4 人投出反对票,也无法达到法定的罢免门槛。
权力结构的深度重塑
目前的OpenAI董事会成员包括Salesforce前联席CEO布雷特·泰勒、Quora创始人亚当·丹杰洛等人。这种“绝对多数”的架构变动,被外界视为OpenAI管理层在权力斗争后的防御性举措,旨在确保核心领导层在激进转型期的连续性。
专家分析认为,这种治理结构的改变反映了OpenAI已完全摆脱了早期的公益组织属性。通过这一制度创新,奥特曼不仅掌握了公司的技术方向,更在法理层面锁定了对这家估值千亿美元AI巨头的长期控制权。
via AI新闻资讯 (author: AI Base)
AMD 推出 vLLM-ATOM 插件,深度优化国产大模型推理表现
近日,AMD 正式发布了名为 vLLM-ATOM 的全新插件。这款工具的核心使命是在维持现有工作流不变的前提下,显著榨取硬件潜能,为 DeepSeek-R1、Kimi-K2以及 gpt-oss-120B 等主流大语言模型的推理过程实现大幅提速。
对于开发者而言,vLLM 是一套旨在优化高并发场景下吞吐量与显存利用率的开源框架。与传统的单次调用工具不同,它更专注于请求调度与缓存管理。而此次 AMD 推出的 ATOM 插件,则是一套专为 Instinct GPU 打造的深度定制方案。它最大的亮点在于“无感迁移”:企业用户无需修改现有的 API 接口、命令或端到端操作流程,插件即可在后台自动接管并完成底层的性能优化。
从技术架构上看,vLLM-ATOM 采用了精密的三层设计。顶层继续沿用 vLLM 的请求调度与兼容接口;中间层的 ATOM 插件则负责模型实现与内核调优;而最底层的 AITER 则直接对接 GPU 硬件,提供包括 Flash Attention、量化 GEMM 以及融合 MoE 在内的核心加速能力。
这一插件主要面向 Instinct MI350、MI400以及 MI355X 等高性能 GPU 计算卡。在支持列表中,不仅涵盖了 Qwen3、GLM、DeepSeek 等明星模型,还实现了对 MoE(混合专家模型)、稠密模型以及视觉语言模型(VLM)等多种架构的全覆盖。
行业分析人士指出,该方案的核心价值在于极大地降低了高性能算力的部署门槛。通过这种“零学习成本”的平滑迁移方案,企业可以更轻松地将 AI 服务切换至 AMD 硬件后端,在保证推理效率的同时,有效提升了大模型在线服务的稳定性和响应速度。
via AI新闻资讯 (author: AI Base)
近日,AMD 正式发布了名为 vLLM-ATOM 的全新插件。这款工具的核心使命是在维持现有工作流不变的前提下,显著榨取硬件潜能,为 DeepSeek-R1、Kimi-K2以及 gpt-oss-120B 等主流大语言模型的推理过程实现大幅提速。
对于开发者而言,vLLM 是一套旨在优化高并发场景下吞吐量与显存利用率的开源框架。与传统的单次调用工具不同,它更专注于请求调度与缓存管理。而此次 AMD 推出的 ATOM 插件,则是一套专为 Instinct GPU 打造的深度定制方案。它最大的亮点在于“无感迁移”:企业用户无需修改现有的 API 接口、命令或端到端操作流程,插件即可在后台自动接管并完成底层的性能优化。
从技术架构上看,vLLM-ATOM 采用了精密的三层设计。顶层继续沿用 vLLM 的请求调度与兼容接口;中间层的 ATOM 插件则负责模型实现与内核调优;而最底层的 AITER 则直接对接 GPU 硬件,提供包括 Flash Attention、量化 GEMM 以及融合 MoE 在内的核心加速能力。
这一插件主要面向 Instinct MI350、MI400以及 MI355X 等高性能 GPU 计算卡。在支持列表中,不仅涵盖了 Qwen3、GLM、DeepSeek 等明星模型,还实现了对 MoE(混合专家模型)、稠密模型以及视觉语言模型(VLM)等多种架构的全覆盖。
行业分析人士指出,该方案的核心价值在于极大地降低了高性能算力的部署门槛。通过这种“零学习成本”的平滑迁移方案,企业可以更轻松地将 AI 服务切换至 AMD 硬件后端,在保证推理效率的同时,有效提升了大模型在线服务的稳定性和响应速度。
via AI新闻资讯 (author: AI Base)
根据最新曝光的代码信息显示,谷歌正准备为 Apple CarPlay 版本的谷歌地图引入 Gemini 人工智能助手,这意味着车载导航的智能化体验将迎来质的飞跃。
目前,Gemini 已经在 iPhone 端的谷歌地图应用中发挥作用,用户可以通过“Ask Maps”功能,利用 AI 解决有关目的地或周边环境的复杂现实问题。但在以往的 CarPlay 环境下,这一功能始终缺席。最新的开发动态表明,只要用户在手机端同意更新后的服务条款,即可在车载系统中解锁 Gemini 的支持,从而获取更具条理的导航指引和详尽的地点信息。
这一功能的落地很大程度上得益于苹果在系统层面上的开放。自 iOS26.4版本起,苹果允许第三方语音对话类应用与 CarPlay 进行更深层次的集成。这为谷歌将 Gemini 引入车载生态铺平了道路。
在实际使用中,驾驶者将不再局限于传统的语音指令。通过 Gemini,用户可以以对话的方式进行交互,例如在开启导航后直接询问目的地的具体细节或寻求出行建议。尽管目前该功能尚未正式上线,但相关代码框架已经内置于应用之中,预示着在完成最后的测试后,它将通过版本更新向全球用户推送。
随着 Gemini 的加入,CarPlay 的 AI 助手阵营已日益壮大。此前,ChatGPT、Grok 和 Perplexity 等主流 AI 服务已先后接入该生态。对于车主而言,这不仅是导航工具的升级,更标志着车载系统正从单纯的“工具箱”向具备深度理解能力的“智能副驾”转型。
via AI新闻资讯 (author: AI Base)
OpenAI将向欧盟开放其新网络安全模型
OpenAI公司官宣向欧盟开放全新网络安全专用模型,而Anthropic公司迟迟拒绝开放争议模型Mythos。据悉,OpenAI公司本次开放的模型为GPT-5.5-Cyber,专供网络安全防护使用。欧盟政府部门、网络安全机构、合规企业均可获得使用权限。目前该模型已对审核通过的安全团队限量开放。欧盟官方高度认可OpenAI的透明化举措,双方将在本周继续深化合作洽谈,严格监控模型部署,规避网络安全风险。相比之下,Anthropic合作进展缓慢。该公司上月发布的Mythos模型曾引发外界对网络攻击风险的担忧。
—— 环球网、CNBC
via 风向旗参考快讯 - Telegram Channel
OpenAI公司官宣向欧盟开放全新网络安全专用模型,而Anthropic公司迟迟拒绝开放争议模型Mythos。据悉,OpenAI公司本次开放的模型为GPT-5.5-Cyber,专供网络安全防护使用。欧盟政府部门、网络安全机构、合规企业均可获得使用权限。目前该模型已对审核通过的安全团队限量开放。欧盟官方高度认可OpenAI的透明化举措,双方将在本周继续深化合作洽谈,严格监控模型部署,规避网络安全风险。相比之下,Anthropic合作进展缓慢。该公司上月发布的Mythos模型曾引发外界对网络攻击风险的担忧。
—— 环球网、CNBC
via 风向旗参考快讯 - Telegram Channel
5月12日,据彭博社报道,微软公司在其早期对OpenAI的大规模投资中,设定了920亿美元的回报目标。双方这一具有里程碑意义的合作,帮助开启了当前的AI时代。
这一目标包含在微软2023年初的规划文件中,并于周一在法庭上披露。微软CEO萨提亚·纳德拉(Satya Nadella)在加州奥克兰联邦法院向陪审团作证时表示,这些投资“效果很好,因为我们承担了风险”。该诉讼的陪审团正在审理埃隆·马斯克(Elon Musk)针对OpenAI和微软发起的一起备受关注的案件。
截至2023年初,微软已向OpenAI投资了大约130亿美元。自那以后,OpenAI的估值飙升,到今年3月底已达到8520亿美元。截至去年10月,微软持有的OpenAI股份价值约为1350亿美元。
马斯克在2024年提起诉讼,指控OpenAI联合创始人萨姆·奥特曼(Sam Altman)和格雷格·布罗克曼(Greg Brockman)放弃了该公司作为造福人类的非营利组织的创始使命,转而采取以营利为目的的商业运营模式。马斯克声称,微软助长了这一背弃行为。
OpenAI、奥特曼、布罗克曼以及微软均否认存在不当行为,称马斯克的指控是毫无根据的骚扰,目的是为了宣传他在2023年创立的AI创业公司xAI。
不过,微软与OpenAI曾就双方合作条款发生争执,而且随着时间推移,两家公司也逐渐形成更直接的竞争关系。作为OpenAI去年重组的一部分,微软获得了这家创业公司27%的所有权股份。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
5月12日,据路透社报道,OpenAI前首席科学家伊利亚·苏茨克弗(Ilya Sutskever)周一作证称,他花了大约一年时间为OpenAI董事会收集证据,以证明CEO萨姆·奥特曼(Sam Altman)表现出“一贯的撒谎模式”。
苏茨克弗
苏茨克弗周一在马斯克起诉OpenAI的案件中作证。这位顶尖AI研究者证实,在2023年11月董事会投票罢免奥特曼之前,他考虑采取行动罢免其CEO职务至少已有一年时间。
苏茨克弗表示,应OpenAI董事会要求,他曾整理了一份记录奥特曼不诚实行为证据的文件,并证实奥特曼的行为包括“削弱高管权威,并挑动高管之间相互对立”。他还透露,曾与时任首席技术官米拉·穆拉蒂(Mira Murati)“长时间”讨论罢免奥特曼的事宜。苏茨克弗在庭前证词中提到,这份文件长达52页。
他在加州法庭作证时表示,奥特曼的行为“无助于实现任何宏大目标”,其中包括打造安全的通用人工智能(AGI)。
在2023年11月奥特曼被戏剧性解雇又复职的过程中,苏茨克弗扮演了关键角色。当时,身为OpenAI董事会成员的他协助策划了罢免奥特曼的行动,但后来对自己“参与董事会的行动”表示后悔,并投票支持奥特曼复职。此后,奥特曼一直领导着公司,如今已成为OpenAI与马斯克法律对抗中的核心人物。
苏茨克弗周一披露,截至2025年11月,他在OpenAI持有的股份价值约50亿美元,目前已升至约70亿美元。
他还证实,在奥特曼被短暂罢免后,OpenAI的其余董事会成员曾与竞争对手Anthropic会面,商讨让Anthropic与OpenAI合并并接管其领导层的提议。他表示,自己“并不热衷于”让OpenAI与另一家公司合并。
苏茨克弗表示,在董事会投票决定解雇奥特曼后的那个周末的大部分时间里,他都没有上网,因此最初并不知道微软提出的将奥特曼、布罗克曼及其他OpenAI员工吸收进一个新子公司的应急计划。
他在2024年离开OpenAI,此后创办了一家名为“安全超级智能”(Safe Superintelligence)的AI创业公司。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
5月12日,据《商业内幕》报道,埃隆·马斯克(Elon Musk)起诉OpenAI的案件仍在继续审理。马斯克一方的专家证人在新的法庭文件中称,OpenAI去年悄然修改了公司章程,增加了罢免CEO萨姆·奥特曼(Sam Altman)的难度。
图注:奥特曼(右)
OpenAI董事会曾在2023年短暂罢免奥特曼。但是根据最新法庭文件,OpenAI董事会现在要想罢免奥特曼,需要支持此举的董事会成员人数多于2023年。
根据马斯克律师在上周日公布的文件,OpenAI在2025年向营利性公司转型期间改变了治理结构,使得罢免CEO变得更加困难。
文件显示,马斯克的专家证人在2025年11月对OpenAI去年10月通过的公司章程进行了分析,结果显示,新章程允许CEO只要获得营利性实体董事会至少三分之一的支持,即可继续留任。
“根据新的公司章程,现在要解雇CEO,需要获得PBC(公共利益公司)非员工董事的三分之二绝对多数同意。”哥伦比亚大学法学教授大卫·M·希泽(David M. Schizer)在分析摘要中指出,他在上周出庭作证。
希泽在报告中表示,在OpenAI之前的治理架构下,非营利董事会只需要简单多数(即超过50%)同意即可罢免CEO。
2023年,OpenAI 6名董事会成员中有4人同意更换CEO,理由是奥特曼在与董事会的沟通中不够坦诚,涉及ChatGPT的发布等事宜。
而在新的“绝对多数”架构下,奥特曼只需要另外两名董事的支持,就足以让他继续担任CEO。OpenAI目前共有8名董事,但只有7人拥有投票权。因此,即使7名有投票权的董事中有4人投票罢免他,也无法达到罢免所需门槛。该公司目前的董事会成员包括:Salesforce前联席CEO布雷特·泰勒(Bret Taylor)、Quora CEO亚当·丹杰洛(Adam D'Angelo)、苏·德斯蒙德-赫尔曼博士(Sue Desmond-Hellmann),以及奥特曼本人。
截至发稿,OpenAI尚未就此置评。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
根据在Google地图应用中发现的代码信息,Google正为 Apple CarPlay 版Google地图准备接入 Gemini 人工智能助手的支持,这一功能有望在不久后向用户开放。 代码字符串显示,在用户于 iPhone 端Google地图中同意更新后的服务条款后,即可在 CarPlay 上通过 Gemini 获取更详细的导航指引和目的地相关信息。
目前,Google地图在 iPhone 应用中已经支持 Gemini,但在 CarPlay 环境下,Gemini 暂时尚不可用。 在 iPhone 上,Google为地图加入了“Ask Maps”功能,借助 Gemini 回答与地点和目的地相关的复杂现实问题,用户可以在开启导航后说出“Hey Google”或点击 Gemini 图标,与其进行对话式交互。
Apple 自 iOS 26.4 起允许第三方语音对话类应用与 CarPlay 进行更深层次集成,被认为是Google得以将 Gemini 引入 CarPlay 版Google地图的前提。 尽管当前 Gemini 在 CarPlay 应用中尚未正式上线,但其相关框架已经包含在应用内部,意味着 Gemini 功能可能在完成测试后随更新推送给用户。
在车载语音助手方面,CarPlay 生态中已经可以使用 ChatGPT、Grok 和 Perplexity 等服务,为驾驶者提供多样化的 AI 语音助手选择。 随着 Gemini 加入阵容,CarPlay 用户在行车导航和信息查询上的智能化体验有望进一步提升。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
欧盟近日公布的最新并购披露文件显示,苹果公司已于今年一月收购了一家名为 Patchflyer 的小型独立公司。Patchflyer 由独立开发者 Jonathan Ochmann 全资拥有,而他正是知名网页端调色工具 Color.io 的创作者。这款面向摄影师和影视创作者的在线调色服务因易用却功能强大而在影像圈颇受欢迎。
根据披露信息,苹果不仅完成了对 Color.io 的收购,也已正式聘用 Ochmann 加入公司。早在去年 11 月,Ochmann 就曾对外宣布 Color.io 将在 2025 年底关闭,并表示自己将加入一家能够让其在更大规模上施展能力的公司。他当时在声明中写道,经过十多年一人包揽产品开发与运营的工作,他已经走到一个需要以非“个人开发者”身份实现自我成长的阶段。
Color.io 以“上手简单但专业度高”著称,主打为照片添加胶片质感的色彩和纹理效果。该服务基于自研的色彩引擎和自定义色彩模型,内置了丰富的色彩处理工具,适合不同类型的影像后期需求。在创建 Color.io 之前,Ochmann 还曾设计过广受欢迎的 VisionColor LUT 预设,为专业影视后期和调色工作流提供支持。
按照此前的关闭计划,Color.io 已于 2025 年 12 月 31 日正式下线,服务在终止前为超过 20 万名用户提供了约五周的缓冲和告知期。随着 Ochmann 加入苹果,其多年在色彩引擎与调色工具方面的积累,预计有望通过苹果的软件产品继续释放价值。业界普遍认为,Color.io 的相关能力未来可能被整合进 Final Cut Pro 等专业视频编辑工具,或通过合作形式惠及 Pixelmator Pro 等应用。
欧盟文件还显示,苹果在同一时间段内完成了对 PromptAI 的收购,但这笔交易此前已为外界所知。PromptAI 是一家专注计算机视觉技术的初创公司,其旗下应用 Seemour 主打为家庭安防摄像头提供增强功能,可识别画面中的人、宠物、动物及其他物体。通过连续收购 Color.io 与 PromptAI 等垂直技术团队,苹果正在进一步充实其在影像处理与计算机视觉领域的技术储备,为后续软硬件融合能力的扩展奠定基础。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
AMD近日正式发布了专为大语言模型部署设计的vLLM-ATOM插件。该插件旨在不改变现有工作流的前提下,显著优化DeepSeek-R1、Kimi-K2 等主流国产大模型在AMD硬件上的推理性能。
作为面向高并发场景的开源推理框架,vLLM一直以显存利用率高而著称。此次AMD推出的插件提供了更贴合其Instinct系列GPU的优化方案,确保开发者能以极低的学习成本实现技术迁移。
实现性能平滑升级
vLLM-ATOM插件的核心优势在于“零成本”部署,用户无需改动原有的API或端到端工作流。插件会在后台自动接管并优化请求调度与内核调优,使得现有服务能平滑迁移至AMD硬件后端。
从架构设计上看,该插件分为三层:顶层负责兼容OpenAI接口,中间层负责模型实现与路由,底层则提供核心GPU内核。这种结构有效集成了混合专家模型(MoE)及量化技术,为大规模部署提供了保障。
广泛适配算力生态
该插件重点面向AMD旗下的Instinct MI350 及MI400 系列高性能GPU。它不仅支持Qwen3、GLM等主流中文大语言模型,还全面覆盖了稠密模型、混合专家模型以及视觉语言模型(VLM)等多种应用场景。
随着vLLM-ATOM的推出,AMD进一步降低了企业级AI部署的门槛。通过对DeepSeek-R1 等顶尖模型的深度优化,这一工具将帮助更多开发者利用AMD算力资源,实现更高效、更稳定的在线AI服务转化。
via AI新闻资讯 (author: AI Base)