https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
Some customer may encounter errors creating or updating projects

Status: Investigating

We are investigating the issue for the listed services.

via OpenAI status
4000 亿参数“生啃”成功!iPhone 17 Pro 挑战本地运行超大模型,但速度只有 0.6 token

智能手机的算力极限在哪里?苹果的最新旗舰iPhone17Pro刚刚给出了一个既令人震撼又略显尴尬的答案。

3月23日,拥有 4000亿参数 的大语言模型在iPhone17Pro上成功跑通。要知道,即便经过量化压缩,此类模型通常也需要至少200GB 的内存才能运行,而iPhone17Pro的硬件配置仅为12GB LPDDR5X 内存。

技术“黑科技”: 闪存流转与混合专家模型

在内存容量严重不足的情况下,这次“不可能的任务”主要依靠两个技术路径实现:

SSD 强行“扩容”: 借助 Flash-MoE 开源项目,设备直接从固态硬盘(SSD)向 GPU 流式传输数据,突破了物理内存的上限。

MoE 架构优势: “MoE”代表混合专家模型(Mixture of Experts),这意味着系统在生成每个单词时,只需要调用4000亿参数中的一小部分,而非全量负载。

速度硬伤:每两秒蹦出一个词

虽然“跑通了”,但实际体验距离“可用”还有巨大的鸿沟。实测显示:

生成速度: 仅为 0.6Token/秒。换句话说,大约每1.5到2秒才能生成一个单词。

功耗压力: 这种高强度的本地运算会极速消耗手机的电池寿命,发热情况也不容小觑。

行业启示:本地大模型的“奇点”将至?

尽管目前的生成速度让人“抓狂”,但这次演示的象征意义远大于实用价值。它证明了在手机端本地运行顶级规模大模型并非死路一条。

隐私护城河: 本地运行意味着数据无需上传云端,能够提供极高的隐私保护。

离线可行性: 在无网络环境下获取顶级 AI 的回复正在成为可能。

正如业内评价,“能跑起来”和“能流畅使用”是两码事。但随着算法优化与硬件迭代,当0.6token 进化到60token 时,智能手机将真正进化为随身携带的“超级大脑”。

via AI新闻资讯 (author: AI Base)
你的 Mac 多了一个“AI 数字打工人”,Claude 测试接管电脑操作

AI 助手正在从“只会对话”向“深度代劳”完成质变。

3月24日,据报道,人工智能初创公司 Anthropic 正式发布了其备受瞩目的 “电脑使用”(Computer Use) 功能预览版。该功能允许 Claude 绕过传统的文本框限制,直接以“数字员工”的身份接管并操作用户的 Mac 电脑

打破次元壁:AI 像人类一样移动鼠标

根据官方演示,借助 Claude CoworkClaude Code 两款应用,Claude 展现出了跨越虚拟界限的执行力:

自主导航: AI 能够识别桌面元素,像真实用户一样移动指针、点击图标、在不同软件间自由切换。

流程自动化: 无论是打开并编辑本地文档、自动填写复杂的电子表格,还是在专业软件中处理繁琐的流转任务,Claude 都能独立规划并完成。

远程遥控: 配合配套的 Dispatch 功能,用户即便出门在外,也可以通过手机发送语音或文本指令,遥控办公室里的电脑完成工作。

付费用户专享:高门槛下的“研究预览”

目前,这项功能仍处于早期测试阶段,并设立了相对严格的使用门槛:

系统限制: 首发版本以“研究预览版”的形式独家登陆 macOS 系统。

人群定向: 仅面向付费订阅了 Claude ProClaude Max 的高级用户开放测试。

大模型下半场:从“对话框”走向“操作系统”

Anthropic 此举标志着大语言模型正加速向“AI Agent(智能体)”进化。过去,用户需要把数据“喂”给 AI;现在,AI 可以直接走进用户的桌面环境,深度介入实际的工作流。

尽管“电脑使用”功能目前仍带有实验性质,但它勾勒出的未来图景已十分清晰:未来的电脑操作可能不再需要频繁的点击与拖拽,用户只需下达意图,剩下的繁杂过程将由这位“数字打工人”全权负责。当 AI 真正握住鼠标的那一刻,人机交互的效率天花板正在被重新定义。

via AI新闻资讯 (author: AI Base)
英伟达通过大规模投资巩固 AI 霸权,被指利用资金优势捆绑客户

英伟达正利用其在全球 AI 热潮中积累的巨额现金储备,通过投资和信贷支持成为行业最具影响力的金融力量。自 2022 年以来,英伟达向 OpenAI、CoreWeave 及 Reflection 等初创公司投入了数十亿美元。这种“供应商、投资者兼债权人”的多重身份,不仅为面临高昂算力成本的公司提供了关键资金,也实际上将客户锁定在其生态系统中,使其难以转向 AMD 等竞争对手。

此外,英伟达还通过高价收购和灵活的交易结构规避监管审查,以获取核心技术与人才。例如,该公司斥资 200 亿美元与芯片初创公司 Groq 达成授权协议,并挖走其核心团队。针对此类行为,美国民主党参议员已致函要求英伟达说明情况,担忧其交易结构旨在逃避反垄断审查并扼杀市场竞争。

The Wall Street Journal

🌸 在花频道茶馆讨论投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
ChatGPT 变身“云网盘”:付费用户迎来 Library 功能,文档图片跨对话调用

在 AI 助手的进化史上,如何让 AI “记住”并随时调用用户上传的资料一直是个痛点。近日,OpenAI 正式打破了对话框的限制,为 ChatGPT 付费用户推出了名为 “Library”(库) 的全新功能。这意味着 ChatGPT 不再只是一个即时聊天工具,而是进化成了一个具备深度存储与管理能力的“智能云盘”。

打破对话壁垒:文件自动存档与跨对话调用

以往用户上传的文件往往被“锁”在特定的某个对话中,一旦开启新对话就得重新上传。Library 功能彻底改写了这一逻辑:

● 自动保存: 用户在对话中上传的文档、电子表格、演示文稿以及图片,都会被系统自动保存到 Library 空间。
● 随时调取: 无论用户开启多少个新对话,只需点击输入框旁的附件按钮,选择“从 Library 添加”,即可瞬间调取历史文件,极大地提升了多任务处理效率。
● 双轨管理: 为了保持条理,用户自行上传的文件存放在 Library 区域,而由 ChatGPT 生成的 AI 图片则归类在独立的“Images”选项卡中。

隐私与权限:付费用户的专属“数字保险箱”

目前该功能主要面向 Plus、Pro 以及 Business 付费用户开放。在隐私处理上,OpenAI 采取了较为严谨的策略:

● 独立存储: 删除某个对话并不会同步删除 Library 中的文件,确保了资料的安全性。
● 彻底清除: 用户手动删除 Library 文件后,OpenAI 会在30天内从服务器彻底抹除数据。虽然这30天的缓冲期引发了合规性猜想,但对于需要频繁处理敏感文档的企业用户来说,这种明确的删除机制提供了必要的心理安全感。

Library 功能的上线,标志着 ChatGPT 正在从一个简单的“问答助手”转型为全功能的“个人 AI 工作站”。通过建立云端文件中心,OpenAI 实际上是在强化用户的使用粘性——当你的核心文档和历史素材都存储在 Library 中时,ChatGPT 就不再是一个可有可无的插件,而是成为了你数字生产力中不可或缺的底层系统。

via AI新闻资讯 (author: AI Base)