https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
Errors uploading documents to Google Drive in Claude.ai

Apr 17, 18:59 UTC
Investigating - We are investigating an issue causing errors when uploading documents to Google Drive from Claude.ai, including the desktop app and Cowork.

via Claude Status - Incident History
#Update #Grok

Grok 4.3 现已开始灰度推送,需要 SuperGrok 订阅。

via AI Copilot - Telegram Channel
#Update #Claude

Claude Design 现已发布:

• 用于设计 App 原型、幻灯片、单页信息汇总
• 基于 Opus 4.7
• 开始向所有付费用户推送

via AI Copilot - Telegram Channel
DeepSeek 拟以 100 亿美元估值融资至少 3 亿美元

中国人工智能初创公司 DeepSeek 拟以 100 亿美元估值开展新一轮融资,计划筹资至少 3 亿美元。此前,该公司曾多次拒绝中国顶级风投及科技巨头的入股邀约。此次融资旨在支持其开发先进推理模型,应对日益增长的算力与研发资本需求。

其中,DeepSeek 曾利用英伟达高性能芯片完成模型训练。尽管面临美国芯片出口管制及潜在的跨境投资限制,该公司仍凭借低成本模型策略在 AI 领域维持竞争地位。

Reuters

🌸 在花频道茶馆讨论投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
谷歌拟向五角大楼机密环境部署 TPU 芯片,加速 Gemini 落地国防领域

谷歌正与美国国防部(DoD)进行谈判,计划首次在获准的机密环境中部署其自研的张量处理单元(TPU)及 GPU 机架,以支持 Gemini 人工智能模型在大规模机密任务中的运行。尽管谷歌分布式云已于 2025 年 5 月获得处理秘密级数据的 IL6 授权并拥有最高机密授权,但目前机密边界内仍缺乏支撑大规模工作负载的基础设施,此次谈判旨在填补这一硬件空白。

拟议的合同条款将允许五角大楼将 Gemini 用于“所有合法用途”,但谷歌坚持要求加入禁止用于国内大规模监控及全自动武器的限制条款,这与 OpenAI 此前达成的协议类似。此举旨在缩小与 AWS 和微软在机密云市场的差距。根据内部战略计划,谷歌公职部门目标在 2025 至 2027 年间实现约 60 亿美元的预订额,其中 20 亿美元预计将来自国防领域。

Tom's Hardware

🌸 在花频道茶馆讨论投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
DeepSeek V4参数量有望达到1.6万亿 比预期高60%

距离4月下旬没有几天了,DeepSeek V4大模型的发布牵动人心,昨天该公司研究人员突然更新了DeepGEMM算子库,被视为V4发布的前兆。然而他们显然也预料到了外界的反应,更新之后还额外添加了一个说明,强调这次更新只与DeepGEMM开发相关,跟内部模型发布无关,就是说大家不要多想,这不代表着V4要发了。

不过越是这样声明,越让大家对DeepSeek V4感兴趣了,因为DeepGEMM这波更新的亮点挺多,不可能跟V4大模型没关系。

这次的更新除了支持了FP8_FP4混合算子及优化了对NVIDIA Blackwell的支持之外,架构上升级主要是Mega MoE及HyperConnection,其中Mega MoE有可能会带来MoE架构的一次重磅升级。

Mega MoE的好处很多,网上有不少解释了,Gemini的解析暗示V4的激活专家数量会比V3的256个大幅提升,可能是数千个,如此一来显然会极大地提升V4的性能,同时又维持灵活性,不会对算力和显存有夸张的需求。

更重要的一点,DeepGEMM这次的更新还暗示了V4大模型的参数量,网友表示单层MoE大约是25.37B,如果还是60层,那V4大概率是1.6T的大模型,再不济也是48层1.25T的大模型。

对比之前V4是个1T万亿参数的传闻,1.6T参数量意味着比之前的预期还要高60%,那性能表现就非常值得期待了。

万一1.6T没实现,1.25T参数量也会比当前V3的6700亿参数量翻倍,依然可以期待下表现,毕竟Mega MoE技术再做到数千个激活专家,那绝对是一次蜕变,改变MoE架构大模型发展的里程碑事件。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]