https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
寒武纪宣布实现 DeepSeek-V4全系列模型 Day0适配并开源优化代码
寒武纪今日宣布,已基于 vLLM 推理框架完成对深度求索(DeepSeek)最新开源模型DeepSeek-V4全系列的“Day0”适配。此次改装涵盖285B 参数的 Flash 版本及1.6T 参数的 Pro 版本,确保模型在发布当日即可在寒武纪硬件平台上稳定运行,相关改装代码已正式开源至 GitHub 社区。
针对DeepSeek-V4独有的稀疏注意力与压缩结构,寒武纪通过自研向量融合算子库 Torch-MLU-Ops 对 Compressor 等核心模块进行了专项加速。利用 BangC 高性能编程语言,寒武纪团队编写了稀疏 Attention 及 GroupGemm 等热点算子的极致优化内核,并于 vLLM 框架中全面支持 TP/PP/SP/DP/EP 五维混合并行策略、低精度量化及 PD 分离部署。这些技术手段在满足延迟约束的前提下,显著提升了端到端推理的词元吞吐能力。
硬件层面,寒武纪深度挖掘了 MLU 的访存与排序加速特性,有效应对DeepSeek-V4复杂的索引结构。凭借高互联带宽与低延迟通信优势,该方案最大化降低了 Prefill 与 Decode 场景下的通信损耗,提升了推理利用率。
行业分析指出,DeepSeek-V4凭借百万字(1M)超长上下文及顶尖的逻辑推理性能,对底层算力架构提出了严苛要求。寒武纪在模型发布首日的敏捷适配,不仅展示了国产算力平台对超大规模、复杂结构模型的承载能力,也预示着国产 AI 产业链在软硬协同层面已进入成熟期,为大模型应用普惠提供了高效的算力底座支持。
via AI新闻资讯 (author: AI Base)
寒武纪今日宣布,已基于 vLLM 推理框架完成对深度求索(DeepSeek)最新开源模型DeepSeek-V4全系列的“Day0”适配。此次改装涵盖285B 参数的 Flash 版本及1.6T 参数的 Pro 版本,确保模型在发布当日即可在寒武纪硬件平台上稳定运行,相关改装代码已正式开源至 GitHub 社区。
针对DeepSeek-V4独有的稀疏注意力与压缩结构,寒武纪通过自研向量融合算子库 Torch-MLU-Ops 对 Compressor 等核心模块进行了专项加速。利用 BangC 高性能编程语言,寒武纪团队编写了稀疏 Attention 及 GroupGemm 等热点算子的极致优化内核,并于 vLLM 框架中全面支持 TP/PP/SP/DP/EP 五维混合并行策略、低精度量化及 PD 分离部署。这些技术手段在满足延迟约束的前提下,显著提升了端到端推理的词元吞吐能力。
硬件层面,寒武纪深度挖掘了 MLU 的访存与排序加速特性,有效应对DeepSeek-V4复杂的索引结构。凭借高互联带宽与低延迟通信优势,该方案最大化降低了 Prefill 与 Decode 场景下的通信损耗,提升了推理利用率。
行业分析指出,DeepSeek-V4凭借百万字(1M)超长上下文及顶尖的逻辑推理性能,对底层算力架构提出了严苛要求。寒武纪在模型发布首日的敏捷适配,不仅展示了国产算力平台对超大规模、复杂结构模型的承载能力,也预示着国产 AI 产业链在软硬协同层面已进入成熟期,为大模型应用普惠提供了高效的算力底座支持。
via AI新闻资讯 (author: AI Base)
在当今的游戏行业,人工智能(AI)的使用已成为一种普遍现象。尽管一些即将发布的 3A 大作对生成式 AI 持谨慎态度,但越来越多的游戏开发商开始积极采用这项新技术。比如,育碧已经在所有招聘岗位中要求应聘者具备生成式 AI 的相关经验。而《ARC Raiders》的开发负责人则表示,他们正通过 AI 技术彻底改革 Nexon 的开发流程。
谷歌云游戏业务全球总监杰克・布瑟(Jack Buser)在一次采访中透露,行业内至少有九成的游戏开发者正在使用 AI 工具。尽管如此,由于担心受到批评,这些开发者通常选择不公开这一点。他指出,许多玩家可能并不知道,自己现在最喜欢的游戏其实是由 AI 辅助开发的。根据去年夏天在科隆游戏展上进行的一项调查,大约 90% 的开发者表示他们正在使用 AI。
布瑟还提到,很多工作室已经在使用谷歌的生成式 AI 工具(例如 Gemini)来加快游戏开发进程,从而推出市场上最受欢迎的作品。他强调,这一趋势对行业是积极的,因为 AI 技术能够加速游戏的发布,并降低成本,使得开发者更敢于承担风险。
在采访中,布瑟还提到卡普空正在利用 Gemini 和 Nano Banana 来处理低价值的任务,为游戏制作内容。他表示,卡普空使用生成式 AI 来生成小型资产(如鹅卵石和草)的创意,而美术总监会要求 Gemini 筛选出最有趣的设计,最终由美术团队进行制作。这样一来,开发者可以将更多精力放在更重要的任务上,比如设计敌人和主角。
via AI新闻资讯 (author: AI Base)
寒武纪成功适配 DeepSeek-V4,推动 AI 模型高效运行
寒武纪公司宣布,他们已成功完成对深度求索公司最新开源 AI 模型 DeepSeek-V4 的 Day 0 适配。此举意味着该模型在发布当天即可实现稳定运行,为用户带来了更高效的人工智能体验。寒武纪利用其自主研发的高性能融合算子库 Torch-MLU-Ops,对模型中的 Compressor、mHC 等模块进行了针对性加速。这项技术的引入大幅提升了推理效率。
在推理框架方面,寒武纪采用了 vLLM(Variable Length Language Model)技术,全面支持多种并行计算方式,包括 TP、PP、SP、DP 和 EP 等。同时,寒武纪还实现了通信计算并行、低精度量化和 PD 分离部署等优化。这些措施使得模型在满足延时约束的情况下,显著提高了处理速度。
此外,寒武纪还深入挖掘了硬件特性,通过优化 MLU 访存与排序,加速了稀疏 Attention 和 Indexer 等结构的运行。高互联带宽和低通信延迟的特性将不同工作负载场景下的通信占比降至最低,有效提高了分布式推理的利用率。
值得一提的是,DeepSeek-V4 模型拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上,达到了国内外开源领域的领先水平。用户可以通过访问官网或官方 App,与最新的 DeepSeek-V4 进行互动,享受超长上下文记忆带来的全新体验。同时,API 服务也已更新,开发者可以轻松调用新模型。
这一系列优化和适配工作不仅提升了模型性能,也为后续的 AI 技术应用提供了坚实基础,展现了寒武纪在人工智能领域的强大实力。
via AI新闻资讯 (author: AI Base)
寒武纪公司宣布,他们已成功完成对深度求索公司最新开源 AI 模型 DeepSeek-V4 的 Day 0 适配。此举意味着该模型在发布当天即可实现稳定运行,为用户带来了更高效的人工智能体验。寒武纪利用其自主研发的高性能融合算子库 Torch-MLU-Ops,对模型中的 Compressor、mHC 等模块进行了针对性加速。这项技术的引入大幅提升了推理效率。
在推理框架方面,寒武纪采用了 vLLM(Variable Length Language Model)技术,全面支持多种并行计算方式,包括 TP、PP、SP、DP 和 EP 等。同时,寒武纪还实现了通信计算并行、低精度量化和 PD 分离部署等优化。这些措施使得模型在满足延时约束的情况下,显著提高了处理速度。
此外,寒武纪还深入挖掘了硬件特性,通过优化 MLU 访存与排序,加速了稀疏 Attention 和 Indexer 等结构的运行。高互联带宽和低通信延迟的特性将不同工作负载场景下的通信占比降至最低,有效提高了分布式推理的利用率。
值得一提的是,DeepSeek-V4 模型拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上,达到了国内外开源领域的领先水平。用户可以通过访问官网或官方 App,与最新的 DeepSeek-V4 进行互动,享受超长上下文记忆带来的全新体验。同时,API 服务也已更新,开发者可以轻松调用新模型。
这一系列优化和适配工作不仅提升了模型性能,也为后续的 AI 技术应用提供了坚实基础,展现了寒武纪在人工智能领域的强大实力。
划重点:
🌟 寒武纪完成对 DeepSeek-V4 的 Day 0 适配,模型发布当天稳定运行。
🚀 自主研发的高性能算子库和推理框架优化显著提升推理效率。
📈 DeepSeek-V4 支持百万字超长上下文,带来领先的 AI 体验。
via AI新闻资讯 (author: AI Base)
OpenAI 开源模型监控评估套件,助力提升 AI 系统安全监测能力
OpenAI 近日开源了与其研究论文《Monitoring Monitorability》配套的评估套件,旨在提供标准化工具以提升 AI 模型行为的可监测性。该套件涵盖干预、过程及结果属性三大类评估模型,包含 AIME、GPQA 和 WMDP 等 12 项公开数据集。开发者可利用其中的评估逻辑与提示词模板,分析模型在受到干扰或执行复杂逻辑任务时的表现。
受版权及隐私限制,FrontierMath 等涉及私有数据的评估项未在此次发布之列。OpenAI 披露,由于在 Anti-Scheming 等评估项中发现技术局限,目前正结合 GPT 5.4 Thinking 系统反馈进行迭代优化。该套件遵循 Apache-2.0 协议开源,旨在通过社区协作完善 AI 安全监控标准。
Openai
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
OpenAI 近日开源了与其研究论文《Monitoring Monitorability》配套的评估套件,旨在提供标准化工具以提升 AI 模型行为的可监测性。该套件涵盖干预、过程及结果属性三大类评估模型,包含 AIME、GPQA 和 WMDP 等 12 项公开数据集。开发者可利用其中的评估逻辑与提示词模板,分析模型在受到干扰或执行复杂逻辑任务时的表现。
受版权及隐私限制,FrontierMath 等涉及私有数据的评估项未在此次发布之列。OpenAI 披露,由于在 Anti-Scheming 等评估项中发现技术局限,目前正结合 GPT 5.4 Thinking 系统反馈进行迭代优化。该套件遵循 Apache-2.0 协议开源,旨在通过社区协作完善 AI 安全监控标准。
Openai
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
美团秘密试水万亿级 AI 大模型!目前仅对受邀用户开放
近日,美团悄然启动了一项重大技术测试,旨在推出其新一代人工智能大模型。这一模型的参数规模高达万亿级别,标志着 AI 技术的又一次飞跃。据报道,这一模型的训练完全依赖于国产算力集群,这意味着美团在使用国产技术上取得了显著进展,甚至可能在行业内率先实现这一突破。
美团的新大模型目前仅对受邀用户开放,尚未向公众普及。这一举措显示出美团在 AI 领域的雄心,以及对国产算力资源的信心。随着技术的不断演进,AI 大模型的应用范围也在不断扩展,从智能客服到个性化推荐,潜力无穷。
值得注意的是,这一新模型的测试正值国内科技行业蓬勃发展的时刻。近年来,国内企业在 AI 和云计算领域的投资不断增加,推动了国产算力的飞速发展。美团的这一举动,不仅是对自身技术能力的挑战,也是对整个行业发展的积极响应。
此外,该模型的训练完全依托于国产算力集群,意味着美团正在积极减少对外部技术的依赖,助力国家在核心技术领域的自主创新。这一策略将进一步推动国产技术的成熟与普及,为未来更多的应用场景铺平道路。
随着 AI 技术的迅猛发展,未来我们将有机会看到越来越多基于这一新模型的创新应用,相信美团在这一领域的探索将为用户带来更加智能化的服务体验。
划重点:
📊 美团正在秘密测试一款参数达万亿级的新一代 AI 大模型。
🇨🇳 该模型完全基于国产算力集群训练,展示了对国产技术的信心。
🚀 新模型目前仅对受邀用户开放,未来将推动 AI 在多个领域的应用。
via AI新闻资讯 (author: AI Base)
近日,美团悄然启动了一项重大技术测试,旨在推出其新一代人工智能大模型。这一模型的参数规模高达万亿级别,标志着 AI 技术的又一次飞跃。据报道,这一模型的训练完全依赖于国产算力集群,这意味着美团在使用国产技术上取得了显著进展,甚至可能在行业内率先实现这一突破。
美团的新大模型目前仅对受邀用户开放,尚未向公众普及。这一举措显示出美团在 AI 领域的雄心,以及对国产算力资源的信心。随着技术的不断演进,AI 大模型的应用范围也在不断扩展,从智能客服到个性化推荐,潜力无穷。
值得注意的是,这一新模型的测试正值国内科技行业蓬勃发展的时刻。近年来,国内企业在 AI 和云计算领域的投资不断增加,推动了国产算力的飞速发展。美团的这一举动,不仅是对自身技术能力的挑战,也是对整个行业发展的积极响应。
此外,该模型的训练完全依托于国产算力集群,意味着美团正在积极减少对外部技术的依赖,助力国家在核心技术领域的自主创新。这一策略将进一步推动国产技术的成熟与普及,为未来更多的应用场景铺平道路。
随着 AI 技术的迅猛发展,未来我们将有机会看到越来越多基于这一新模型的创新应用,相信美团在这一领域的探索将为用户带来更加智能化的服务体验。
划重点:
📊 美团正在秘密测试一款参数达万亿级的新一代 AI 大模型。
🇨🇳 该模型完全基于国产算力集群训练,展示了对国产技术的信心。
🚀 新模型目前仅对受邀用户开放,未来将推动 AI 在多个领域的应用。
via AI新闻资讯 (author: AI Base)
美国 AI 工具用户收入分层加剧,Claude 偏高收入、Meta AI 偏低收入
美国主要 AI 工具周活用户呈现明显收入分层,Claude 用户最集中于高收入家庭,Meta AI 则更偏向低收入群体。Epoch AI 与 Ipsos 合并 2026 年 3 月至 4 月三轮调查显示,Claude 用户中 79.8% 来自年收入 10 万美元以上家庭,高于美国成年人整体的 50%;Meta AI 这一比例为 36.5%。受此影响,Meta AI 用户中有 32.1% 来自年收入 5 万美元以下家庭,Claude 仅为 6.4%,而 ChatGPT、Gemini、Grok 和 Copilot 的高收入用户占比大致落在 55.9% 至 63.7% 之间。
Epoch AI
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
美国主要 AI 工具周活用户呈现明显收入分层,Claude 用户最集中于高收入家庭,Meta AI 则更偏向低收入群体。Epoch AI 与 Ipsos 合并 2026 年 3 月至 4 月三轮调查显示,Claude 用户中 79.8% 来自年收入 10 万美元以上家庭,高于美国成年人整体的 50%;Meta AI 这一比例为 36.5%。受此影响,Meta AI 用户中有 32.1% 来自年收入 5 万美元以下家庭,Claude 仅为 6.4%,而 ChatGPT、Gemini、Grok 和 Copilot 的高收入用户占比大致落在 55.9% 至 63.7% 之间。
Epoch AI
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
4月24日,据彭博社报道,软银集团旗下移动通信部门欲进行一次雄心勃勃的尝试,计划将其大阪工厂的一部分改造为日本最大的大型电池生产线之一,以便为自家的AI数据中心供电。
图注:孙正义
据知情人士透露,软银公司的目标是在未来五年内让该生产线投产。软银高管曾考虑将该堺市工厂用于多种用途,包括机器人制造,最终决定进军能源领域。
孙正义(Masayoshi Son)领导的软银是全球AI领域最坚定的支持者之一,已承诺投入数千亿美元投资数据中心、云服务以及OpenAI等创业公司。孙正义通过国内移动通信部门与各家公司建立合作关系并推进基础设施项目,以强化其AI愿景。
知情人士称,软银公司CEO宫川润一(Junichi Miyakawa)预计将在下月公布新五年商业计划时宣布这一电池项目。尽管计划细节仍在敲定中,但孙正义已对此倡议表示赞同。该决定尚需获得软银公司董事会批准。
截至发稿,软银尚未就此置评。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
4月24日,DeepSeek全新系列模型DeepSeek-V4的预览版本正式上线并同步开源。据介绍,DeepSeek-V4拥有百万字超长上下文,在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先。
即日起登录官网 chat.deepseek.com 或官方App,即可与最新的DeepSeek-V4对话,探索1M超长上下文记忆的全新体验。API服务已同步更新,通过修改model_name为 deepseek-v4-pro或deepseek-v4-flash即可调用。
此外,DeepSeek-V4对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流 Agent 产品进行了适配优化,在代码及文档生成等任务上表现提升。V4-Pro与V4-Flash均支持 1M上下文长度,并同时提供非思考模式与思考模式,后者可设置 reasoning_effort 参数(high / max)。面向复杂 Agent 场景,官方建议使用思考模式并将强度设为max。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
OpenAI首席执行官萨姆·奥特曼在社交平台上分享了英伟达CEO黄仁勋发给他的一封电邮。黄仁勋在邮件中附上了他给英伟达全体员工的一封电邮,要求他们使用OpenAI的Codex编程工具。
黄仁勋在邮件中写道:“亲爱的英伟达员工们,基于GPT-5.5的OpenAI Codex现已正式发布,面向所有英伟达员工开放!我们10000名员工——涵盖工程、产品、法务、市场营销、财务、销售、人力资源、运营和开发者项目等各个部门——都已提前体验,并已用它创造了许多令人惊叹的成果。
一位英伟达员工表示:‘这真的改变了我的生活。’另一位员工则说:‘这简直太不可思议了。’
Codex运行于英伟达平台!GPT-5.5在英伟达Blackwell架构上训练,并在英伟达AI基础设施上进行推理——这绝对是下一个级别的技术。
一项巨大的成就!OpenAl凭借ChatGPT开创了生成式人工智能的先河。GPT的自回归标记生成机制是其推理能力的基础,进而推动了工具的使用。
现在,Codex智能体人工智能已经问世。聊天机器人可以回答问题,智能体可以完成工作。
Codex不仅适用于软件团队,每个人都应该使用Codex智能体。它们是我们的队友,是让我们超越以往的超能力。更好……更智能……更快。
OpenAl 和英伟达团队在Endeavor中搭建了一个 Codex 实验室,旨在极大地促进你们的入门学习。未来几周将举办一系列线上研讨会。让我们一起迈向光速时代。欢迎来到人工智能时代。”
via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
北京时间4月24日,DeepSeek 正式推出新一代大模型 DeepSeek-V4,其整体性能已达到比肩当前顶级闭源模型的水平,成为开源 AI 领域又一里程碑式产品。
超长100万上下文窗口
DeepSeek-V4支持高达100万 tokens 的超长上下文,为复杂长文档分析、超长代码生成以及多轮 Agent 任务提供了坚实基础。
双版本策略,灵活满足不同场景
新模型分为两个版本:
● DeepSeek-V4-Flash:轻量高效版,适合快速迭代与日常开发
● DeepSeek-V4-Pro:高性能旗舰版,针对极致需求场景打造
数学、STEM 与竞赛代码全面超越开源天花板
在数学、STEM 以及竞赛型代码评测中,DeepSeek-V4-Pro 超越当前所有已公开评测的开源模型,展现出碾压级实力。
Agent 能力大幅跃升,登顶开源新高度
DeepSeek-V4-Pro 的 Agent 能力实现显著增强。在 Agentic Coding 专业评测中已达到当前开源模型最佳水平,并在多项 Agent 相关评测中同样表现优异,为复杂自主任务落地铺平道路。
世界知识储备领先,仅次顶尖闭源
在世界知识测评中,DeepSeek-V4-Pro 大幅领先其他开源模型,仅以微弱差距落后于顶尖闭源模型 Gemini-Pro-3.1,知识广度与深度实现质的飞跃。
定价屠夫再现,百万 tokens 成本直接打穿地板
DeepSeek-V4延续了系列一贯的极致性价比:
● 输入:Flash 版100万 tokens 仅需1元,Pro 版12元
● 输出:Flash 版100万 tokens 仅需2元,Pro 版24元
这一定价策略再次刷新行业底线,让顶级模型能力真正走入普通开发者与中小企业手中。
AIbase 将持续跟踪 DeepSeek-V4的实际应用表现与社区反馈,敬请关注后续深度评测报道。
via AI新闻资讯 (author: AI Base)