https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
视频游戏成 AI 新金矿!Origin Lab 融资 800 万美元,助力数据交易新模式
随着人工智能(AI)技术不断发展,越来越多的实验室开始探索如何构建能够理解物理世界的 “世界模型”。然而,与大型语言模型不同,构建这些模型所需的数据来源并不容易,这使得很多实验室在组建训练集时感到力不从心。现在,一家初创公司看到了一个意想不到的数据来源:视频游戏行业。
Origin Lab,刚刚完成了由 Lightspeed Ventures 领投的 800 万美元种子融资,目标是成为一个连接 AI 实验室与视频游戏公司的数据交易市场。视频游戏的开发者们可以在这里将他们的数字资产转化为可销售的高质量数据,而 AI 实验室则能够获取所需的训练数据,以支持他们的物理模型研发。
Origin Lab 的联合创始人 Anne-Margot Rodde 在接受采访时表示:“现在构建的 AI 系统需要理解物理世界的运作方式,而这些数据恰恰存在于视频游戏中。” 除了 Rodde,其他联合创始人还有 Antoine Gargot 和 Colin Carrier。Origin Lab 的核心理念是将视频游戏中的数据进行处理,转换成适合 AI 训练的格式,例如通过渲染或自动化处理游戏攻略视频。
视频游戏行业潜藏着丰富的数据资源,但由于许可和数据质量的问题,过去实验室在获取这些数据时遇到许多障碍。例如,OpenAI 在 2024 年因其 Sora 视频生成模型涉嫌未授权使用热门游戏和直播内容而引发争议。与此同时,亚马逊也表现出对使用 Twitch 直播视频进行模型训练的兴趣。
Origin Lab 的融资成功标志着一个日益增长的市场,不仅是对于训练数据的需求,还有那些能够为大型 AI 实验室提供关键数据的初创企业。Lightspeed 的合伙人 Faraz Fatemi 表示:“我们看到数据供应商在服务主要室时的收入增长潜力非常明显,这些企业资金雄厚,而它们的瓶颈就在于数据的获取。”
总之,Origin Lab 不仅为 AI 实验室提供了新的数据获取渠道,也为视频游戏公司开辟了新的收入来源,未来可能会在 AI 与视频游戏交叉领域带来更多创新。
划重点:
🌟 Origin Lab 刚刚融资 800 万美元,计划将视频游戏数据转化为 AI 训练所需的高质量数据。
🎮 视频游戏公司可以通过 Origin Lab 将现有资产变现,获取额外收入。
📈 随着数据需求的增长,Origin Lab 将连接 AI 实验室和游戏开发者,推动新市场的形成。
via AI新闻资讯 (author: AI Base)
随着人工智能(AI)技术不断发展,越来越多的实验室开始探索如何构建能够理解物理世界的 “世界模型”。然而,与大型语言模型不同,构建这些模型所需的数据来源并不容易,这使得很多实验室在组建训练集时感到力不从心。现在,一家初创公司看到了一个意想不到的数据来源:视频游戏行业。
Origin Lab,刚刚完成了由 Lightspeed Ventures 领投的 800 万美元种子融资,目标是成为一个连接 AI 实验室与视频游戏公司的数据交易市场。视频游戏的开发者们可以在这里将他们的数字资产转化为可销售的高质量数据,而 AI 实验室则能够获取所需的训练数据,以支持他们的物理模型研发。
Origin Lab 的联合创始人 Anne-Margot Rodde 在接受采访时表示:“现在构建的 AI 系统需要理解物理世界的运作方式,而这些数据恰恰存在于视频游戏中。” 除了 Rodde,其他联合创始人还有 Antoine Gargot 和 Colin Carrier。Origin Lab 的核心理念是将视频游戏中的数据进行处理,转换成适合 AI 训练的格式,例如通过渲染或自动化处理游戏攻略视频。
视频游戏行业潜藏着丰富的数据资源,但由于许可和数据质量的问题,过去实验室在获取这些数据时遇到许多障碍。例如,OpenAI 在 2024 年因其 Sora 视频生成模型涉嫌未授权使用热门游戏和直播内容而引发争议。与此同时,亚马逊也表现出对使用 Twitch 直播视频进行模型训练的兴趣。
Origin Lab 的融资成功标志着一个日益增长的市场,不仅是对于训练数据的需求,还有那些能够为大型 AI 实验室提供关键数据的初创企业。Lightspeed 的合伙人 Faraz Fatemi 表示:“我们看到数据供应商在服务主要室时的收入增长潜力非常明显,这些企业资金雄厚,而它们的瓶颈就在于数据的获取。”
总之,Origin Lab 不仅为 AI 实验室提供了新的数据获取渠道,也为视频游戏公司开辟了新的收入来源,未来可能会在 AI 与视频游戏交叉领域带来更多创新。
划重点:
🌟 Origin Lab 刚刚融资 800 万美元,计划将视频游戏数据转化为 AI 训练所需的高质量数据。
🎮 视频游戏公司可以通过 Origin Lab 将现有资产变现,获取额外收入。
📈 随着数据需求的增长,Origin Lab 将连接 AI 实验室和游戏开发者,推动新市场的形成。
via AI新闻资讯 (author: AI Base)
近期,生产力软件巨头 Notion 宣布推出全新的开发者平台,进一步推动其进入 AI 智能化的新时代。在一场直播产品发布会上,Notion 的联合创始人兼 CEO 赵俊(Ivan Zhao)表示,Notion 不仅仅是一个协作笔记工具,现在将成为一个连接 AI 代理、外部数据源和自定义代码的中心,让团队可以高效地构建自动化工作流程。
Notion 在今年2月首次推出了自定义代理功能,用户可以创建 AI 助手来处理重复性任务,例如回答常见问题、编写状态更新和自动化工作流程。自此以来,Notion 用户已经创建了超过一百万个 AI 代理。然而,这些代理在连接外部数据和使用自定义逻辑方面存在一定限制,迫使用户通过第三方自动化平台或者编写自己的脚本来解决问题。
为了解决这一困扰,Notion 推出了名为 “Workers” 的云环境,允许团队在安全的沙箱中运行自定义代码,用户可以将自己的逻辑代码同步到 Notion 中,并创建定制工具。同时,Notion 的数据库同步功能也能拉取来自任何 API 数据库的数据,用户可以轻松接入 Salesforce、Zendesk、Postgres 等数据源,使得 Notion 数据库的实时性大大增强。
此外,Notion 还允许用户直接与外部 AI 代理进行聊天,分配任务并跟踪进度,仿佛这些代理也是 Notion 内建的助手。目前,Notion 已支持 Claude Code、Cursor、Codex 和 Decagon 等合作伙伴的代理,未来还会持续增加更多的支持。
总的来看,Notion 的开发者平台标志着其战略的重大转变,从一个简单的应用程序向可编程平台迈进,逐步变身为一个整合 AI 代理、自定义代码和实时数据的核心基础设施。这样的转型不仅符合当前企业对于知识工作自动化的需求,也让 Notion 在竞争激烈的工作流程自动化平台中脱颖而出。
划重点:
🌟 Notion 推出全新开发者平台,让 AI 代理与外部数据源无缝对接,提升工作效率。
💻 “Workers” 云环境允许用户自定义代码,支持多种数据库的数据同步。
🤖 用户可以直接与外部 AI 代理互动,赋予团队更强的任务管理能力。
via AI新闻资讯 (author: AI Base)
RAG 到 NotebookLM:揭示 AI 知识库的进化之路
在人工智能的飞速发展中,知识库的技术演进也备受关注。最近,关于 NotebookLM 的技术实现路径引发了广泛讨论。这款 AI 笔记和研究助手以用户上传的资料为基础,显著减少了 “AI 幻觉” 的发生,成为知识管理的新宠儿。
NotebookLM 与传统的 AI 对话工具,如 ChatGPT 或 Gemini 有着本质的不同。其核心逻辑在于,NotebookLM 只会基于用户提供的资料进行回答,保证了信息的准确性和相关性。通过这样的方式,用户能够更有效地利用其知识,而不是仅依赖模型随机生成的信息。
深究其技术路径,NotebookLM 的本质实际上是一种高阶的 RAG(Retrieval-Augmented Generation)系统。RAG 通常是一个从资料中提取信息的过程,但在 NotebookLM 中,我们看到了一种更为复杂的实现。在该系统中,用户上传资料后,NotebookLM 通过文档理解和多索引检索,将知识结构化并不断进行更新。这一过程让知识不仅仅是碎片化的答案,而是形成了一个可持续发展的知识体系。
Karpathy 近期发布的《LLM Wiki》文档进一步明确了 NotebookLM 的技术基础。与传统 RAG 的即兴拼接不同,LLM Wiki 强调将资料组织成结构化的知识库,允许持续更新和迭代。这种前置的知识编译使得 NotebookLM 在用户提问时能够提供更为精准和深入的回答。
Google 也透露,NotebookLM 内部具有检索和排序的功能,帮助用户更好地管理资料。这些信息表明,NotebookLM 并非只是一个简单的文件上传工具,而是包含了文档解析、信息检索、上下文组织等多层次的能力。它通过隐秘化的工程链路,帮助用户在操作上获得流畅的体验。
从用户的角度来看,NotebookLM 的优势在于简化了复杂的操作流程。用户只需上传资料、提出问题并能快速回到原文核查,系统自动处理了所有技术细节。这一黑箱操作极大地降低了用户使用知识库的门槛。
随着技术的不断进步,NotebookLM 代表了 AI 知识库的未来方向,展示了如何将复杂的工程问题转化为简单的用户体验。
划重点:
🔍 ** 传统 RAG 的局限 **:NotebookLM 通过专注用户上传的资料,降低了 “AI 幻觉”,提供更为准确的答案。
⚙️ ** 技术创新 **:NotebookLM 结合文档理解和多索引检索,形成一个可持续更新的知识库,超越了传统 RAG 的拼接方式。
📈 ** 用户友好体验 **:简化了复杂的操作流程,让用户只需关注上传资料和提问,大大提高了使用便捷性。
via AI新闻资讯 (author: AI Base)
在人工智能的飞速发展中,知识库的技术演进也备受关注。最近,关于 NotebookLM 的技术实现路径引发了广泛讨论。这款 AI 笔记和研究助手以用户上传的资料为基础,显著减少了 “AI 幻觉” 的发生,成为知识管理的新宠儿。
NotebookLM 与传统的 AI 对话工具,如 ChatGPT 或 Gemini 有着本质的不同。其核心逻辑在于,NotebookLM 只会基于用户提供的资料进行回答,保证了信息的准确性和相关性。通过这样的方式,用户能够更有效地利用其知识,而不是仅依赖模型随机生成的信息。
深究其技术路径,NotebookLM 的本质实际上是一种高阶的 RAG(Retrieval-Augmented Generation)系统。RAG 通常是一个从资料中提取信息的过程,但在 NotebookLM 中,我们看到了一种更为复杂的实现。在该系统中,用户上传资料后,NotebookLM 通过文档理解和多索引检索,将知识结构化并不断进行更新。这一过程让知识不仅仅是碎片化的答案,而是形成了一个可持续发展的知识体系。
Karpathy 近期发布的《LLM Wiki》文档进一步明确了 NotebookLM 的技术基础。与传统 RAG 的即兴拼接不同,LLM Wiki 强调将资料组织成结构化的知识库,允许持续更新和迭代。这种前置的知识编译使得 NotebookLM 在用户提问时能够提供更为精准和深入的回答。
Google 也透露,NotebookLM 内部具有检索和排序的功能,帮助用户更好地管理资料。这些信息表明,NotebookLM 并非只是一个简单的文件上传工具,而是包含了文档解析、信息检索、上下文组织等多层次的能力。它通过隐秘化的工程链路,帮助用户在操作上获得流畅的体验。
从用户的角度来看,NotebookLM 的优势在于简化了复杂的操作流程。用户只需上传资料、提出问题并能快速回到原文核查,系统自动处理了所有技术细节。这一黑箱操作极大地降低了用户使用知识库的门槛。
随着技术的不断进步,NotebookLM 代表了 AI 知识库的未来方向,展示了如何将复杂的工程问题转化为简单的用户体验。
划重点:
🔍 ** 传统 RAG 的局限 **:NotebookLM 通过专注用户上传的资料,降低了 “AI 幻觉”,提供更为准确的答案。
⚙️ ** 技术创新 **:NotebookLM 结合文档理解和多索引检索,形成一个可持续更新的知识库,超越了传统 RAG 的拼接方式。
📈 ** 用户友好体验 **:简化了复杂的操作流程,让用户只需关注上传资料和提问,大大提高了使用便捷性。
via AI新闻资讯 (author: AI Base)
支付平台Ramp最新发布的AI 指数报告揭示了人工智能 B2B 领域的里程碑式变革:Anthropic 在付费企业级应用市场的份额首次超越 OpenAI。数据显示,Anthropic 目前的市场份额已攀升至 34.4%,而曾经的行业领头羊 OpenAI 则下滑至 32.3%。
爆发式增长与增长停滞
在过去的一年中,Anthropic 的市场占有率实现了惊人的四倍增长。相比之下,OpenAI 的增速近乎停滞,仅微增 0.3%。这一数据主要来源于使用企业信用卡或发票通过 Ramp 平台向 AI 供应商付款的美国公司,反映了企业决策层在预算分配上的显著转向。
繁荣背后的隐忧
尽管取得领先,但分析人士警告 Anthropic 的优势并非稳如磐石。Ramp 经济学家 Ara Kharazian 指出,该公司面临三大挑战:
1. 利润结构矛盾:Anthropic 的高利润依赖于客户运行昂贵模型,这与企业追求性价比、转向低成本方案的趋势相左。
2. 服务稳定性:用户近期频繁反馈Claude存在服务中断及生成质量下降的问题。
3. 成本压力:最新的 Opus4.7 模型导致图像处理成本激增两倍,可能削弱其商业竞争力。
动态市场的激烈角逐
目前的 AI 软件行业呈现出前所未有的动态性,新晋者往往能在数月内颠覆市场领导者。与此同时,OpenAI 也在反击,其GPT-5.5Pro展示了极强的性能,据称能在两小时内独立完成“博士级”数学研究。然而,随着GPT-5.5价格上涨达 92%,以及开源推理平台和低价替代品(如 OpenAI 的 Codex)的崛起,企业客户的粘性正面临严峻考验。
行业新格局
除了双雄争霸,市场竞争已进入群雄并起阶段。开放级模型Kimi K2.6正公开挑战GPT-5.4和Claude Opus4.6的智能体集群。DeepMind 首席执行官哈萨比斯对此表示,通用人工智能(AGI)带来的冲击力将相当于“将十次工业革命压缩到十年之内”,而当前的份额更替或许只是这场巨变的前奏。
via AI新闻资讯 (author: AI Base)
微软 MDASH 安全系统一举超越 GPT-5.5,挑战漏洞扫描新高度!
在人工智能技术飞速发展的今天,微软又一次向我们展示了它的创新力量。5 月 13 日,微软自主代码安全团队正式发布了名为 MDASH 的多模型智能体扫描框架。这一全新的安全系统不仅在技术上走在前列,更在实际应用中展现了惊人的漏洞识别能力,尤其是在与知名的 GPT-5.5 和 Anthropic 的 Mythos 模型的对比中,MDASH 的表现可谓是脱颖而出。
MDASH 的独特之处在于它并不依赖于单一的 AI 模型,而是采用了一种多智能体协作策略。微软团队在这个框架中集成了超过 100 个不同的 AI 智能体,这些智能体各司其职,涵盖了从代码准备到漏洞扫描,再到结果验证等多个环节。这样一来,MDASH 能够在核心推理任务中利用性能最强的模型,而在需要快速处理海量代码的情况下,则借助响应迅速的轻量化模型。
在最新的 CyberGym 公开基准测试中,MDASH 不仅成功识别出 16 个以前未被发现的漏洞,其中包括 4 个高危的远程代码执行漏洞,更是在私有测试中面临 21 个故意植入的漏洞时,完美实现了 100% 的识别率,且整个过程零误报。这一成果无疑为微软内部的安全防护工作提供了强有力的支持。
此外,MDASH 在对历史漏洞的回顾性测试中表现也相当出色,例如对 clfs.sys 过去五年的漏洞回收率达到了 96%,而对 tcpip.sys 的回收率则高达 100%。这样的高效率和准确性使得微软在产品安全加固方面信心倍增。
目前,MDASH 已开始协助微软内部工程团队进行产品安全加固,同时也向受限客户开放了内部预览测试。这一系列的举措标志着微软在软件安全领域的又一次重要突破,未来在安全防护方面,MDASH 无疑将成为一款不可或缺的工具。
划重点:
🔍 MDASH 是微软新发布的多模型智能体扫描框架,超越了 GPT-5.5 和 Mythos 模型。
⚡ 该系统采用超过 100 个 AI 智能体协作,精准覆盖代码准备和漏洞扫描等环节。
🛡️ MDASH 在漏洞测试中实现 100% 识别率,且无误报,为微软安全防护提供强大支持。
via AI新闻资讯 (author: AI Base)
在人工智能技术飞速发展的今天,微软又一次向我们展示了它的创新力量。5 月 13 日,微软自主代码安全团队正式发布了名为 MDASH 的多模型智能体扫描框架。这一全新的安全系统不仅在技术上走在前列,更在实际应用中展现了惊人的漏洞识别能力,尤其是在与知名的 GPT-5.5 和 Anthropic 的 Mythos 模型的对比中,MDASH 的表现可谓是脱颖而出。
MDASH 的独特之处在于它并不依赖于单一的 AI 模型,而是采用了一种多智能体协作策略。微软团队在这个框架中集成了超过 100 个不同的 AI 智能体,这些智能体各司其职,涵盖了从代码准备到漏洞扫描,再到结果验证等多个环节。这样一来,MDASH 能够在核心推理任务中利用性能最强的模型,而在需要快速处理海量代码的情况下,则借助响应迅速的轻量化模型。
在最新的 CyberGym 公开基准测试中,MDASH 不仅成功识别出 16 个以前未被发现的漏洞,其中包括 4 个高危的远程代码执行漏洞,更是在私有测试中面临 21 个故意植入的漏洞时,完美实现了 100% 的识别率,且整个过程零误报。这一成果无疑为微软内部的安全防护工作提供了强有力的支持。
此外,MDASH 在对历史漏洞的回顾性测试中表现也相当出色,例如对 clfs.sys 过去五年的漏洞回收率达到了 96%,而对 tcpip.sys 的回收率则高达 100%。这样的高效率和准确性使得微软在产品安全加固方面信心倍增。
目前,MDASH 已开始协助微软内部工程团队进行产品安全加固,同时也向受限客户开放了内部预览测试。这一系列的举措标志着微软在软件安全领域的又一次重要突破,未来在安全防护方面,MDASH 无疑将成为一款不可或缺的工具。
划重点:
🔍 MDASH 是微软新发布的多模型智能体扫描框架,超越了 GPT-5.5 和 Mythos 模型。
⚡ 该系统采用超过 100 个 AI 智能体协作,精准覆盖代码准备和漏洞扫描等环节。
🛡️ MDASH 在漏洞测试中实现 100% 识别率,且无误报,为微软安全防护提供强大支持。
via AI新闻资讯 (author: AI Base)
OpenAI公司提议成立全球AI治理机构
OpenAI高管表示,该公司将支持建立一个全球人工智能治理机构。OpenAI全球事务副总裁克里斯·莱恩周三表示,美国有机会利用其在AI技术上的领先地位,建立一个全球治理机制,从而打造更安全、更具韧性的AI系统。“在某种程度上,AI已经超越了许多主流或传统的贸易类议题。我们确实有机会真正开始在全球范围内构建某种机制,并让世界各国都有可能参与其中。”莱恩表示,这样的机构可能会类似于国际原子能机构。他说,建立这一AI治理机构的一种方式,是将美国商务部下属的AI标准与创新中心,与全球各地正在成立的AI安全研究机构整合在一起。
—— 凤凰网科技、彭博社
via 风向旗参考快讯 - Telegram Channel
OpenAI高管表示,该公司将支持建立一个全球人工智能治理机构。OpenAI全球事务副总裁克里斯·莱恩周三表示,美国有机会利用其在AI技术上的领先地位,建立一个全球治理机制,从而打造更安全、更具韧性的AI系统。“在某种程度上,AI已经超越了许多主流或传统的贸易类议题。我们确实有机会真正开始在全球范围内构建某种机制,并让世界各国都有可能参与其中。”莱恩表示,这样的机构可能会类似于国际原子能机构。他说,建立这一AI治理机构的一种方式,是将美国商务部下属的AI标准与创新中心,与全球各地正在成立的AI安全研究机构整合在一起。
—— 凤凰网科技、彭博社
via 风向旗参考快讯 - Telegram Channel
Anthropic近日宣布,旗下开发者工具Claude Code的每周使用限额即日起临时提升50%,该调整将一直持续至2026年7月13日。
值得关注的是,本次50%的额度增长可与上周刚生效的“加倍至5小时”限制实现累加,这意味着开发者在未来两个月内将获得远超常规水平的代码生成与处理能力。此次额度调整采取全自动生效机制,用户端无需进行任何额外配置或申请。
作为Anthropic布局开发者生态的核心工具,Claude Code自发布以来便以深度理解复杂代码库和高效执行编程任务著称。在当前全球AI原生应用开发进入爆发期的背景下,Anthropic通过连续叠加额度红利,显然意在降低开发者的试错成本,吸引更多高频用户深度嵌入其API生态。
这种针对特定时间段的资源倾斜,不仅反映了算力分配灵活性在模型竞争中的重要性,也预示着AI编程辅助工具正从“实验性辅助”向“高强度生产力”阶段迈进。随着7月13日窗口期的临近,开发者对Claude系列模型在高强度项目中的性能反馈,或将成为衡量Anthropic在开发者市场号召力的重要参考。
via AI新闻资讯 (author: AI Base)
🔁 #Update #Claude
Forwarded From Agent Copilot
#Update #Claude
对于 Pro、Max、Team 用户,Claude Code 周配额现已提升 50% 直到 7 月 13 日。
via AI Copilot - Telegram Channel
Forwarded From Agent Copilot
#Update #Claude
对于 Pro、Max、Team 用户,Claude Code 周配额现已提升 50% 直到 7 月 13 日。
via AI Copilot - Telegram Channel
微软发布的 MD 系统完胜 GPT-5.5,漏洞检测能力惊人!
在网络安全日益重要的今天,微软自主代码安全团队于 5 月 13 日推出了一款名为 MDASH 的多模型智能体扫描框架。这一新系统的设计理念颠覆了传统的单一 AI 模型,采用了多智能体协作策略,以提升代码安全检测的准确性和效率。
MDASH 框架整合了超过 100 个基于不同前沿大模型或轻量化模型的专用 AI 智能体。这些智能体在整个漏洞检测过程中各司其职,包括代码准备、漏洞扫描、结果验证、数据去重、证据生成和补丁验证等环节。这种分工明确的设计使得系统在处理复杂的安全检测任务时,能够充分发挥每个模型的优势。
在权威的 CyberGym 公开基准测试中,MDASH 的表现引人瞩目,全面超越了 Anthropic 的 Mythos 模型和 OpenAI 的 GPT-5.5。经过多轮测试,MDASH 成功挖掘出 16 个之前未被发现的漏洞,其中包括 4 个高危的远程代码执行漏洞,展示了其强大的漏洞识别能力。
更令人惊叹的是,在面对人为植入的 21 个漏洞的私有测试驱动程序验证中,MDASH 实现了 100% 的识别率,同时零误报。这一成果表明,MDASH 不仅能够准确识别漏洞,还能有效减少误报现象,大大提升了安全检测的可靠性。
值得一提的是,回顾性测试数据显示,MDASH 在历史漏洞的召回率上也表现出色,对 clfs.sys 近五年的漏洞召回率高达 96%,对 tcpip.sys 则达到了 100%。这一数据充分证明了 MDASH 在漏洞检测领域的实力。
目前,MDASH 已经开始协助微软内部工程团队进行产品的安全加固,并已面向受限客户开启内部预览测试。可以预见一新系统将在未来的网络安全工作中发挥重要作用,保护用户的数字资产安全。
划重点:
🌟 MDASH 系统利用多智能体协作策略,整合了超过 100 个专用 AI 智能体,提升漏洞效率。
🔍 在 CyberGym 测试中,MDASH 成功发现 16 个新漏洞,超越了 GPT-5.5 和 Mythos 模型。
✅ 在私有测试中,MDASH 实现 100% 的漏洞识别率且误报,显示出其极高的准确性和可靠性。
via AI新闻资讯 (author: AI Base)
在网络安全日益重要的今天,微软自主代码安全团队于 5 月 13 日推出了一款名为 MDASH 的多模型智能体扫描框架。这一新系统的设计理念颠覆了传统的单一 AI 模型,采用了多智能体协作策略,以提升代码安全检测的准确性和效率。
MDASH 框架整合了超过 100 个基于不同前沿大模型或轻量化模型的专用 AI 智能体。这些智能体在整个漏洞检测过程中各司其职,包括代码准备、漏洞扫描、结果验证、数据去重、证据生成和补丁验证等环节。这种分工明确的设计使得系统在处理复杂的安全检测任务时,能够充分发挥每个模型的优势。
在权威的 CyberGym 公开基准测试中,MDASH 的表现引人瞩目,全面超越了 Anthropic 的 Mythos 模型和 OpenAI 的 GPT-5.5。经过多轮测试,MDASH 成功挖掘出 16 个之前未被发现的漏洞,其中包括 4 个高危的远程代码执行漏洞,展示了其强大的漏洞识别能力。
更令人惊叹的是,在面对人为植入的 21 个漏洞的私有测试驱动程序验证中,MDASH 实现了 100% 的识别率,同时零误报。这一成果表明,MDASH 不仅能够准确识别漏洞,还能有效减少误报现象,大大提升了安全检测的可靠性。
值得一提的是,回顾性测试数据显示,MDASH 在历史漏洞的召回率上也表现出色,对 clfs.sys 近五年的漏洞召回率高达 96%,对 tcpip.sys 则达到了 100%。这一数据充分证明了 MDASH 在漏洞检测领域的实力。
目前,MDASH 已经开始协助微软内部工程团队进行产品的安全加固,并已面向受限客户开启内部预览测试。可以预见一新系统将在未来的网络安全工作中发挥重要作用,保护用户的数字资产安全。
划重点:
🌟 MDASH 系统利用多智能体协作策略,整合了超过 100 个专用 AI 智能体,提升漏洞效率。
🔍 在 CyberGym 测试中,MDASH 成功发现 16 个新漏洞,超越了 GPT-5.5 和 Mythos 模型。
✅ 在私有测试中,MDASH 实现 100% 的漏洞识别率且误报,显示出其极高的准确性和可靠性。
via AI新闻资讯 (author: AI Base)
奥特曼庭审反击:不是我们窃取慈善,是马斯克抛弃了 OpenAI
OpenAI 首席执行官萨姆·奥特曼(Sam Altman)周二在“马斯克诉 OpenAI”案的庭审中进行了长达四小时的作证。奥特曼在证词中直言,公司并未背弃非营利初衷,实际情况是马斯克在公司最困难的时期选择了“抛弃”。
奥特曼在法庭上向陪审团阐述,2015 年马斯克作为联合创始人并未兑现其资金承诺,导致这家初创企业在摸索不确定的未来时陷入孤立无援的境地。
“马斯克真正在意的是控制权”
针对马斯克指控 OpenAI 成立营利子公司是“窃取慈善机构”的说法,奥特曼予以了强烈反驳。他指出,马斯克当时之所以离开,是因为其对完全控制权的强烈渴望未能得到满足。
奥特曼在庭审中透露了以下核心观点:
● 控制权执念: 马斯克不信任他人的决策,且坚持只在自己完全控制的公司工作。
● 管理模式分歧: 奥特曼直言马斯克“不懂如何管理好一个研究实验室”,其管理方式曾严重打击研究人员的士气。
● 拒绝合并: 马斯克曾建议将 OpenAI 与特斯拉合并,但奥特曼因担心这会摧毁非营利组织的使命而予以拒绝。
反击“不诚实”指控
马斯克的律师在交叉询问环节试图将奥特曼描绘成一个“不可信的人”,并提及了 2023 年奥特曼曾被董事会短暂解雇的往事。对此,奥特曼表示自己当时“完全措手不及”,且董事会并未给出具体解释。
奥特曼强调,目前 OpenAI 的营利性子公司估值已超过 8500 亿美元,但其核心使命依然是造福人类。马斯克曾在 2018 年发送邮件称 OpenAI 成功的概率为 0%,奥特曼称这段评论“深深地烙在了记忆里”。
这场法律博弈的结案陈词定于周四进行。尽管陪审团在本案中仅具咨询性质,但最终法官的裁定将决定这家全球最受关注的 AI 企业未来的法律地位与组织架构走向。
via AI新闻资讯 (author: AI Base)
OpenAI 首席执行官萨姆·奥特曼(Sam Altman)周二在“马斯克诉 OpenAI”案的庭审中进行了长达四小时的作证。奥特曼在证词中直言,公司并未背弃非营利初衷,实际情况是马斯克在公司最困难的时期选择了“抛弃”。
奥特曼在法庭上向陪审团阐述,2015 年马斯克作为联合创始人并未兑现其资金承诺,导致这家初创企业在摸索不确定的未来时陷入孤立无援的境地。
“马斯克真正在意的是控制权”
针对马斯克指控 OpenAI 成立营利子公司是“窃取慈善机构”的说法,奥特曼予以了强烈反驳。他指出,马斯克当时之所以离开,是因为其对完全控制权的强烈渴望未能得到满足。
奥特曼在庭审中透露了以下核心观点:
● 控制权执念: 马斯克不信任他人的决策,且坚持只在自己完全控制的公司工作。
● 管理模式分歧: 奥特曼直言马斯克“不懂如何管理好一个研究实验室”,其管理方式曾严重打击研究人员的士气。
● 拒绝合并: 马斯克曾建议将 OpenAI 与特斯拉合并,但奥特曼因担心这会摧毁非营利组织的使命而予以拒绝。
反击“不诚实”指控
马斯克的律师在交叉询问环节试图将奥特曼描绘成一个“不可信的人”,并提及了 2023 年奥特曼曾被董事会短暂解雇的往事。对此,奥特曼表示自己当时“完全措手不及”,且董事会并未给出具体解释。
奥特曼强调,目前 OpenAI 的营利性子公司估值已超过 8500 亿美元,但其核心使命依然是造福人类。马斯克曾在 2018 年发送邮件称 OpenAI 成功的概率为 0%,奥特曼称这段评论“深深地烙在了记忆里”。
这场法律博弈的结案陈词定于周四进行。尽管陪审团在本案中仅具咨询性质,但最终法官的裁定将决定这家全球最受关注的 AI 企业未来的法律地位与组织架构走向。
via AI新闻资讯 (author: AI Base)