https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
越来越多使用 Claude Code、OpenAI Codex 等 AI 代理的开发者,开始在机场、办公室、学校走廊甚至滑冰场边手捧半开笔记本走动,只为避免待机中断代理任务。
有人把屏幕只留一条缝,戏称为“墨西哥卷饼”或“蛤蜊壳”;有人直到登机最后一刻才合盖,也有人边走边用手机热点维持连接。虽然尴尬且引人侧目,这一行为在技术圈已演化为被 OpenAI 官方玩梗的日常景象。
Business Insider
🌸 在花频道 · 茶馆讨论 · 投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
李开复:开源模型是实现“AI主权”的更优路径
创新工场董事长李开复近日在专访中深入探讨了“AI主权”的概念。他指出,人工智能主权不仅关乎技术控制权和数据安全,还涉及模型与本土文化及法律的适配性。他认为,并非每个国家都有必要重造一个OpenAI,盲目追求昂贵的闭源自研并非良策。
李开复强调,对于大多数资源有限的国家和企业而言,基于开源模型构建本地化体系是更现实的选择。这种“第三条路”通过在开源基础上进行增量训练,能以极低的成本让模型符合特定地区的价值观,而非受制于他国的通用模型。
工程效率与生态之争
谈及中美竞争,李开复认为资源受限反而催生了中国企业的极致工程效率。他以DeepSeek为例,指出中国公司在算力不足的情况下,通过优化架构和减少依赖,能以不到美国十分之一的投入实现极高的性能。
他预测AI领域将演变成类似“iPhone与安卓”的格局。闭源模型如同一方领地,追求高利润和生态控制力;而开源模型则代表了更广阔的市场覆盖和普及度,两者将在全球范围内长期并存,共同构建未来的智能生态。
中国硬件的下半场机遇
李开复对中国在物理AI和硬件制造方面的结构性优势表示乐观。他指出,中国拥有全球最完整的供应链体系,从智能穿戴到机器人,制造成本远低于西方。未来AI时代的标杆级硬件,极有可能由中国设计并品牌化。
此外,中国在语音驱动交互和大规模现实数据生成方面也具备独特文化优势。随着“人工智能+”政策对实体经济的赋能,硬件与AI的深度结合将成为中国在AI下半场竞赛中的核心竞争力。
via AI新闻资讯 (author: AI Base)
创新工场董事长李开复近日在专访中深入探讨了“AI主权”的概念。他指出,人工智能主权不仅关乎技术控制权和数据安全,还涉及模型与本土文化及法律的适配性。他认为,并非每个国家都有必要重造一个OpenAI,盲目追求昂贵的闭源自研并非良策。
李开复强调,对于大多数资源有限的国家和企业而言,基于开源模型构建本地化体系是更现实的选择。这种“第三条路”通过在开源基础上进行增量训练,能以极低的成本让模型符合特定地区的价值观,而非受制于他国的通用模型。
工程效率与生态之争
谈及中美竞争,李开复认为资源受限反而催生了中国企业的极致工程效率。他以DeepSeek为例,指出中国公司在算力不足的情况下,通过优化架构和减少依赖,能以不到美国十分之一的投入实现极高的性能。
他预测AI领域将演变成类似“iPhone与安卓”的格局。闭源模型如同一方领地,追求高利润和生态控制力;而开源模型则代表了更广阔的市场覆盖和普及度,两者将在全球范围内长期并存,共同构建未来的智能生态。
中国硬件的下半场机遇
李开复对中国在物理AI和硬件制造方面的结构性优势表示乐观。他指出,中国拥有全球最完整的供应链体系,从智能穿戴到机器人,制造成本远低于西方。未来AI时代的标杆级硬件,极有可能由中国设计并品牌化。
此外,中国在语音驱动交互和大规模现实数据生成方面也具备独特文化优势。随着“人工智能+”政策对实体经济的赋能,硬件与AI的深度结合将成为中国在AI下半场竞赛中的核心竞争力。
via AI新闻资讯 (author: AI Base)
号称“危险”的AI扫描17. 6 万行代码后,仅揪出一个低危漏洞
近日,Anthropic公司备受瞩目的AI安全分析模型Mythos,在开源界遭遇了一场意料之外的“滑铁卢”。尽管官方曾大肆宣传该模型在发现源代码漏洞方面能力过于强悍,甚至为此推迟了公开发布,但在对全球知名开源工具curl的实测中,Mythos交出的答卷却显得有些苍白:在多达17. 6 万行代码的严密扫描下,最终仅确认了一个低危漏洞。
这场测试的推动者是curl项目的创始人Daniel Stenberg。他通过相关项目获得了Mythos的有限测试权限,试图给这个拥有 200 亿次安装量的网络传输利器做一次深度“体检”。curl的代码库一向以极高的安全工程标准著称,不仅经过了数百位贡献者的精心打磨,更长期接受各类自动化扫描及高昂的专业审计。
测试过程起初看起来硕果累累。Mythos的初始报告宣称发现了“ 5 个已确认的安全漏洞”,但经过curl安全团队数小时的人工复核,这些结果迅速缩水:其中 3 个被判定为误报,仅是符合文档描述的正常行为; 1 个被定性为普通bug,不具备安全威胁。最终,仅剩下 1 个严重程度被评为“低”的漏洞。
对于这样的结果,Stenberg直言不讳地指出,Anthropic所谓的“危险级能力”更像是一场成功的市场营销。他表示,早在Mythos之前,curl团队就已经利用多款AI安全工具修复了数百个bug,而第一批工具往往更容易捡到“低垂的果实”。随着代码库的日益完善,AI想要挖掘出深层的新型漏洞已变得难上加难。
不过,Stenberg并未全盘否定AI的价值。他承认,相比于传统的静态分析器,像Mythos这样的AI工具在理解协议规范、识别注释与代码不符、以及模拟复杂环境下的配置检查方面具有显著优势。它们更像是一个博学且擅长总结的助手,尽管给出的修复方案并不总是百分之百正确。
此次实测给业界敲响了警钟:AI虽然在代码审计领域带来了效率的质变,但目前依然只能发现“已知类型”的错误实例,而非创造全新的漏洞检测逻辑。在保障核心安全方面,严谨的安全工程实践——如防御性基础设施的构建和严格的数值上限限制,依然是比AI工具更可靠的“银弹”。
via AI新闻资讯 (author: AI Base)
近日,Anthropic公司备受瞩目的AI安全分析模型Mythos,在开源界遭遇了一场意料之外的“滑铁卢”。尽管官方曾大肆宣传该模型在发现源代码漏洞方面能力过于强悍,甚至为此推迟了公开发布,但在对全球知名开源工具curl的实测中,Mythos交出的答卷却显得有些苍白:在多达17. 6 万行代码的严密扫描下,最终仅确认了一个低危漏洞。
这场测试的推动者是curl项目的创始人Daniel Stenberg。他通过相关项目获得了Mythos的有限测试权限,试图给这个拥有 200 亿次安装量的网络传输利器做一次深度“体检”。curl的代码库一向以极高的安全工程标准著称,不仅经过了数百位贡献者的精心打磨,更长期接受各类自动化扫描及高昂的专业审计。
测试过程起初看起来硕果累累。Mythos的初始报告宣称发现了“ 5 个已确认的安全漏洞”,但经过curl安全团队数小时的人工复核,这些结果迅速缩水:其中 3 个被判定为误报,仅是符合文档描述的正常行为; 1 个被定性为普通bug,不具备安全威胁。最终,仅剩下 1 个严重程度被评为“低”的漏洞。
对于这样的结果,Stenberg直言不讳地指出,Anthropic所谓的“危险级能力”更像是一场成功的市场营销。他表示,早在Mythos之前,curl团队就已经利用多款AI安全工具修复了数百个bug,而第一批工具往往更容易捡到“低垂的果实”。随着代码库的日益完善,AI想要挖掘出深层的新型漏洞已变得难上加难。
不过,Stenberg并未全盘否定AI的价值。他承认,相比于传统的静态分析器,像Mythos这样的AI工具在理解协议规范、识别注释与代码不符、以及模拟复杂环境下的配置检查方面具有显著优势。它们更像是一个博学且擅长总结的助手,尽管给出的修复方案并不总是百分之百正确。
此次实测给业界敲响了警钟:AI虽然在代码审计领域带来了效率的质变,但目前依然只能发现“已知类型”的错误实例,而非创造全新的漏洞检测逻辑。在保障核心安全方面,严谨的安全工程实践——如防御性基础设施的构建和严格的数值上限限制,依然是比AI工具更可靠的“银弹”。
via AI新闻资讯 (author: AI Base)
现实版“权力的游戏”?Ilya法庭作证:奥特曼曾用谎言编织OpenAI网路
据最新法庭披露的信息显示,OpenAI 的前任首席科学家伊利亚·苏茨克弗(Ilya Sutskever)在马斯克起诉 OpenAI 的案件中作为关键证人出庭。他的证词不仅坐实了 2023 年那场震惊科技界的“政变”并非心血来潮,更揭开了公司高层之间长期存在的信任危机。
蓄谋已久的“倒萨”行动
苏茨克弗在法庭上承认,早在 2023 年 11 月那场短暂的罢免风波发生前的一年,他就已经开始着手收集萨姆·奥尔特曼(Sam Altman)“不诚实行为”的证据。根据他的描述,这份应董事会要求整理的秘密文件长达 52 页,详细记录了奥尔特曼如何通过“一贯的撒谎模式”来操纵公司决策。
这份文件中列举了多项具体细节:奥尔特曼被指控频繁在高管之间挑拨离间,削弱他人的管理权威,并向董事会隐瞒重大事实。一个典型的例子是,奥尔特曼曾单方面宣称 GPT-4 Turbo 无需经过安全委员会审查,理由是得到了法务部门的批准,但随后这一说法被公司首席法务官当场拆穿。
诚信基石的崩塌
苏茨克弗认为,奥尔特曼的行为模式已经严重威胁到了 OpenAI 的核心使命——安全地开发通用人工智能(AGI)。他直言不讳地表示:“山姆不该是那个手握按钮的人。”在他看来,一个充满欺骗和内部对立文化的组织,根本无法承担起掌控 AGI 这种改变人类命运技术的责任。
证词还揭示了两人在技术路线与资源分配上的深层矛盾。有资料显示,苏茨克弗当时对于研究部门与应用部门之间的算力争夺深感不满,而奥尔特曼对部分研究员的快速提拔也加剧了这种裂痕。
多方博弈下的“权力天平”
马斯克方的律师团队将这份 52 页的备忘录作为核心证据,试图向法官证明奥尔特曼已经丧失了领导公司的诚信基础,并请求法院强制其下台。与此同时,微软 CEO 纳德拉在出庭时则表现得更为务实,他将对 OpenAI 的巨额投资描述为一次“经过计算的风险”。
虽然苏茨克弗在罢免事件发生后一度因为担心公司崩溃而投票支持奥尔特曼复职,并对此感到后悔,但他随后在 2024 年毅然选择离职,创立了 Safe Superintelligence(SSI)。这场横跨数年的纷争不仅是个人恩怨的爆发,更是关于 AI 发展主导权、安全边界与营利边界的一次全面摊牌。
via AI新闻资讯 (author: AI Base)
据最新法庭披露的信息显示,OpenAI 的前任首席科学家伊利亚·苏茨克弗(Ilya Sutskever)在马斯克起诉 OpenAI 的案件中作为关键证人出庭。他的证词不仅坐实了 2023 年那场震惊科技界的“政变”并非心血来潮,更揭开了公司高层之间长期存在的信任危机。
蓄谋已久的“倒萨”行动
苏茨克弗在法庭上承认,早在 2023 年 11 月那场短暂的罢免风波发生前的一年,他就已经开始着手收集萨姆·奥尔特曼(Sam Altman)“不诚实行为”的证据。根据他的描述,这份应董事会要求整理的秘密文件长达 52 页,详细记录了奥尔特曼如何通过“一贯的撒谎模式”来操纵公司决策。
这份文件中列举了多项具体细节:奥尔特曼被指控频繁在高管之间挑拨离间,削弱他人的管理权威,并向董事会隐瞒重大事实。一个典型的例子是,奥尔特曼曾单方面宣称 GPT-4 Turbo 无需经过安全委员会审查,理由是得到了法务部门的批准,但随后这一说法被公司首席法务官当场拆穿。
诚信基石的崩塌
苏茨克弗认为,奥尔特曼的行为模式已经严重威胁到了 OpenAI 的核心使命——安全地开发通用人工智能(AGI)。他直言不讳地表示:“山姆不该是那个手握按钮的人。”在他看来,一个充满欺骗和内部对立文化的组织,根本无法承担起掌控 AGI 这种改变人类命运技术的责任。
证词还揭示了两人在技术路线与资源分配上的深层矛盾。有资料显示,苏茨克弗当时对于研究部门与应用部门之间的算力争夺深感不满,而奥尔特曼对部分研究员的快速提拔也加剧了这种裂痕。
多方博弈下的“权力天平”
马斯克方的律师团队将这份 52 页的备忘录作为核心证据,试图向法官证明奥尔特曼已经丧失了领导公司的诚信基础,并请求法院强制其下台。与此同时,微软 CEO 纳德拉在出庭时则表现得更为务实,他将对 OpenAI 的巨额投资描述为一次“经过计算的风险”。
虽然苏茨克弗在罢免事件发生后一度因为担心公司崩溃而投票支持奥尔特曼复职,并对此感到后悔,但他随后在 2024 年毅然选择离职,创立了 Safe Superintelligence(SSI)。这场横跨数年的纷争不仅是个人恩怨的爆发,更是关于 AI 发展主导权、安全边界与营利边界的一次全面摊牌。
via AI新闻资讯 (author: AI Base)
OpenAI 正式宣布,将向欧盟开放其最先进的网络安全大模型 GPT-5.5-Cyber。这一动作不仅标志着顶尖 AI 模型的跨境落地,也引发了外界对各大科技巨头在安全监管与合规进度上的深度关注。
根据最新的行业动态,GPT-5.5-Cyber 的访问权限将精准开放给企业、政府机构、网络安全专家以及欧盟 AI 办公室等关键职能部门。OpenAI 此举被视为其在加强全球网络防御合作方面迈出的关键一步,旨在利用大模型强大的理解与分析能力,助力相关机构更有效地应对日益复杂的网络安全挑战。
欧盟委员会对于此次合作表现出了积极的姿态。其发言人在新闻发布会上公开点赞了 OpenAI 的透明度,并强调这种开放意愿将使监管部门能够实时、密切地跟踪模型的实际部署情况,从而更有针对性地处理潜在的网络安全风险。
相比之下,OpenAI 的老对手 Anthropic 在欧洲的进展则略显滞后。尽管该公司在一个月前就高调推出了名为 Mythos 的网络安全模型,甚至一度引发了市场关于软件安全性受威胁的担忧,但直到目前,Mythos 仍未获得进入欧盟市场的“入场券”。
据悉,欧盟目前正与 Anthropic 就访问权限问题进行密集磋商,双方虽然已经进行了四至五轮的谈判,但进度远落后于 OpenAI。内部消息透露,目前的讨论还停留在程序层面,尚未触及具体的解决方案阶段。这种合规进度上的差异,也让目前全球安全模型的布局呈现出截然不同的局面。
via AI新闻资讯 (author: AI Base)
马斯克Grok模型在AI竞赛中渐处下风
马斯克旗下AI模型Grok已远远落后于迅猛增长的竞争对手。与此同时,其母公司SpaceX同意将庞大算力出租给Anthropic,这一协议不禁让人怀疑:Grok究竟还能否迎头赶上。
根据分析公司AppMagic的数据,Grok的下载量已从今年1月份超2,000万次的峰值暴跌至四月份的830万次左右。研究公司Recon Analytics对超过26万名使用AI的美国消费者及职场人士进行了调查。结果显示,在2026年第二季度,表示曾为Grok付费的受访者比例仅为0.174%,与一年前的0.173%相比几乎毫无起色。相比之下,超过6%的受访者表示他们会为ChatGPT买单。
—— 华尔街日报
via 风向旗参考快讯 - Telegram Channel
马斯克旗下AI模型Grok已远远落后于迅猛增长的竞争对手。与此同时,其母公司SpaceX同意将庞大算力出租给Anthropic,这一协议不禁让人怀疑:Grok究竟还能否迎头赶上。
根据分析公司AppMagic的数据,Grok的下载量已从今年1月份超2,000万次的峰值暴跌至四月份的830万次左右。研究公司Recon Analytics对超过26万名使用AI的美国消费者及职场人士进行了调查。结果显示,在2026年第二季度,表示曾为Grok付费的受访者比例仅为0.174%,与一年前的0.173%相比几乎毫无起色。相比之下,超过6%的受访者表示他们会为ChatGPT买单。
—— 华尔街日报
via 风向旗参考快讯 - Telegram Channel
在经历了 2023 年的“政变”风波后,OpenAI近期通过修改公司章程,为其首席执行官萨姆·奥特曼筑起了一道坚固的防御墙。根据最新曝光的法庭文件,奥特曼如今在公司内部的地位已稳如泰山,外部干预或董事会内部罢免的门槛被大幅拉高。
马斯克起诉OpenAI案件的专家证人指出,这些变动是在公司向营利性转型期间悄悄完成的。相较于过去简单多数票即可解雇CEO的规则,新规则实质上赋予了奥特曼极强的留任保障。
从简单多数到绝对多数
根据去年 10 月通过的新章程,若要罢免CEO,必须获得公共利益公司(PBC)非员工董事三分之二以上的“绝对多数”同意。在当前的董事会架构下,这意味着奥特曼只需要额外获得两名董事的支持,就能抵消其他所有人的反对意见。
而在 2023 年的罢免事件中,当时的 6 名董事会成员中有 4 人投赞成票便成功将其解雇。新的权力格局使得即便拥有投票权的 7 名董事中有 4 人投出反对票,也无法达到法定的罢免门槛。
权力结构的深度重塑
目前的OpenAI董事会成员包括Salesforce前联席CEO布雷特·泰勒、Quora创始人亚当·丹杰洛等人。这种“绝对多数”的架构变动,被外界视为OpenAI管理层在权力斗争后的防御性举措,旨在确保核心领导层在激进转型期的连续性。
专家分析认为,这种治理结构的改变反映了OpenAI已完全摆脱了早期的公益组织属性。通过这一制度创新,奥特曼不仅掌握了公司的技术方向,更在法理层面锁定了对这家估值千亿美元AI巨头的长期控制权。
via AI新闻资讯 (author: AI Base)