https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
Anthropic推出桌面宠物 Claude Buddy,硬件竟是深圳制造

近日,Anthropic 核心工程师 Felix Rieseberg 在社交平台 X 上展示了一款名为 Claude Buddy 的开源硬件项目,引发了开发者社区的热烈讨论。这款手掌大小的设备,本质上是为 Anthropic 的 AI 编程工具 Claude Code 提供了一个物理载体,将枯燥的代码审批流程转化为了趣味十足的“桌面宠物”互动。

在实际开发场景中,Claude Code 虽然能自主执行任务,但在涉及敏感操作时仍需用户授权。频繁的窗口切换和点击确认往往会打断开发者的思路。Felix Rieseberg 的灵感正是来源于此:他利用 ESP32开发板,通过蓝牙将 Claude 的运行状态与硬件同步。当 AI 忙碌时,屏幕上的像素小动物会显示工作状态;当需要审批时,设备会通过 LED 闪烁发出提醒,用户只需按下实体按键即可完成操作。

极客精神的碰撞:18种形态与仪式感

Claude Buddy 不仅仅是一个简单的确认按钮。该项目内置了18种 ASCII 艺术风格的小动物形象,涵盖了睡觉、待机、忙碌、庆祝等七种模式。这种设计为冷冰冰的编程工作增添了情感价值——如果你审批得足够快,屏幕上甚至会飘出爱心。

技术架构上,Buddy 采用了“骨架(Bones)”与“灵魂(Soul)”的双层设计。骨架层通过哈希种子固定宠物的属性,而灵魂层则由 AI 生成独特的性格与名字。这种软硬结合的尝试,标志着 Anthropic 开始通过轻量级的 API 接口,探索 AI 在物理世界的触角。

深圳制造:全球 AI 硬件的幕后功臣

值得注意的是,这款让硅谷开发者惊艳的设备,其官方示例核心硬件 M5StickC Plus 竟然来自中国深圳的一家创业公司——M5Stack(明栈信息科技)。这一细节再次印证了深圳在物联网与 AI 硬件领域的全球核心地位。

尽管由于合规原因,Anthropic 的软件服务在中国大陆的使用受限,但其硬件生态却与中国供应链紧密相连。深圳凭借完整的 PCB 制造链条和活跃的硬件创业氛围,正成为全球 AI 终端创新的试验田。从云端算力的疯狂竞逐到桌面端的趣味尝试,Anthropic 正在通过像 Buddy 这样的小切口,构建起从底层芯片到终端产品的完整生态矩阵。

via AI新闻资讯 (author: AI Base)
马斯克提出全民高收入应对 AI 失业,专家却持反对意见

在人工智能(AI)和机器人技术快速发展的当下,失业问题已经成为各行各业无法忽视的话题。特斯拉和 SpaceX 的 CEO 埃隆・马斯克近日在社交平台上提出了 “全民高收入”(UHI)的概念,旨在应对因 AI 和自动化可能导致的大规模失业。马斯克建议由美国联邦政府发放资金,帮助民众过上比现有生活更富裕的生活。

马斯克认为,未来 AI 和机器人所生产的商品和服务的增长速度将远远超过货币的供给增速,因此实施全民高收入的政策不会引发通货膨胀。他的设想更为慷慨,相较于目前讨论的 “全民基本收入”(UBI),后者只覆盖基本生活开销,而 UHI 则希望让人们的生活更加富足。他甚至表示,随着科技的发展,未来人们可能不再需要为退休存钱。

然而,马斯克的观点引起了许多专家的质疑。乔治城大学的哲学教授魏德奎斯特指出,当前就业市场的主要矛盾在于低薪和薪资停滞,而非简单的失业问题。此外,他对马斯克关于通胀的乐观看法表示怀疑。伦敦大学学院的研究员兰森认为,如果社会能够承担慷慨的全民高收入,那么也应该能够投入到职业再培训和技能提升上。他强调,许多劳工真正需要的是提升就业技能,而非单纯领取政府支票。

据波士顿咨询集团的研究,未来五年内,美国可能会有 10% 至 15% 的工作岗位消失,预计将影响 1700 万至 2500 万人的就业。高盛也曾预测,约 2.5% 的劳工面临失业风险。虽然马斯克描绘的未来生活引人向往,但如何合理分配 AI 发展带来的收益,依然是政策制定者面临的挑战。

划重点:

🌟 马斯克提出 “全民高收入” 计划,旨在通过政府发放资金应对 AI 失业问题。

📉 专家认为当前就业市场的矛盾在于低薪和薪资停滞,而非仅是失业。

🔍 未来五年内,约 10% 至 15% 的工作岗位可能消失,影响数千万就业人群。

via AI新闻资讯 (author: AI Base)
英国 AI 大臣肯德尔:工作中不依赖人工智能,私人生活中积极使用

近日,英国负责人工智能事务的科学、创新与技术大臣丽兹・肯德尔在接受 BBC 采访时表示,她在工作中并不使用人工智能。这位 AI 大臣刚刚宣布设立一项规模达 5 亿英镑的基金,旨在支持英国的 AI 企业发展,强调这对国家安全和经济繁荣的重要性。

在采访中,肯德尔提到自己主要是在私人生活中使用 AI。她分享了一次使用 AI 的经历:因护肤品过敏,她借助 AI 分析了多种产品的成分,以找出可能的过敏源。她核实了信息来源,并最终找到了一种有效的缓解湿疹的方法。

值得注意的是,肯德尔的前任彼得・凯尔曾推出一款名为 “Humphrey” 的 AI 政府工具,强调如果 AI 能够更高效地完成某项任务,就不应再由人工进行。然而,内阁内部对 AI 的使用态度却存在差异。肯德尔表示,她更倾向于在个人生活中使用 AI,而在工作场景中,政府正在探索相关应用。例如,在就业与养老金部期间,工作人员会使用 AI 帮助求职者修改简历,整理公众咨询反馈。

在谈及 AI 对就业的影响时,肯德尔强调,虽然会有部分岗位消失,但也会创造出新的岗位。她表示,政府需要帮助人们应对这一转型,并提升全国的技能水平。她提到,为了应对未来的变化,政府计划为 1000 万劳动力提供免费的 AI 技能培训。

对于 AI 的风险,肯德尔认为当前的发展是安全的,但需要认真考虑对就业的影响。她强调,历史上每一次技术革命都会带来岗位的变化,关键在于政府的角色和支持。

划重点:

- 💼 肯德尔表示在工作中不使用 AI,主要在私人生活中受益于 AI 技术。

- 🛠️ 她分享了利用 AI 分析护肤品成分的个人经历,帮助解决过敏问题。

- 📈 政府计划为 1000 万劳动力提供免费的 AI 技能培训,关注就业转型和技能提升。


via AI新闻资讯 (author: AI Base)
Mythos引发网络攻防新焦虑 新加坡金管局要求银行补上安全漏洞

随着对Anthropic PBC最新人工智能(AI)模型Mythos的担忧蔓延至亚洲,新加坡金融监管机构正敦促银行堵上网络安全漏洞。新加坡金融管理局发言人在回应关于Mythos所带来风险的询问时表示,金管局正与该国网络安全机构协调,加强包括银行在内的关键基础设施运营方的防御能力。

Mythos是Anthropic推出的一款新AI模型,该公司认为该模型“过于危险”,不宜广泛发布。

该发言人表示:“金融机构需要加倍努力强化安全防线,主动识别并修补漏洞,提高网络安全习惯,包括及时进行安全补丁更新。”发言人补充称,人工智能的进步将“加速IT系统中软件漏洞的发现与利用”。

新加坡网安局4月15日发文,就前沿AI模型可能带来的风险发出警示,但并未直接点名Mythos。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
爱奇艺 CEO 龚宇:借 AI 技术推动去中心化转型,鼓励创作者自主上传作品

在今天举行的爱奇艺世界大会上,创始人兼首席执行官龚宇发表了主题演讲,分享了公司在面对人工智能(AI)带来的重大变革时的应对策略。他表示,爱奇艺将启动去中心化转型,旨在让更多创作者能够自主上传作品,参与内容创作。

龚宇指出,AI 技术的发展将显著降低内容制作的成本与周期,预计创作者及其作品的数量将大幅增加。他认为,传统的中心化决策模式已经无法满足这一变化,因此爱奇艺需要转变为一个创作者与用户共同参与的社区平台。在这个新平台中,播放器的功能将被降级为一个组件,创作者可以通过会员和广告等方式直接实现收益。

他提到,虽然爱奇艺会在部分头部内容制作上继续保留传统方式,但整体方向是鼓励更多创作者发挥创意。龚宇强调,爱奇艺 “跪求” 高品质的 AI 生成影视作品,并表示公司急需具备 AI 技术与艺术创作双重能力的人才,以助力公司的创新发展。

这次大会还强调了 AI 对影视行业的影响,尤其是在长视频领域。龚宇认为,未来一到三年内,AI 将大规模应用于影视制作,从而改变行业格局。爱奇艺希望通过这一转型,建立一个更加开放和多元的创作环境,吸引更多优秀的创作者加入。

via AI新闻资讯 (author: AI Base)
面试官问我:“AI 写代码比你快 100 倍,你的价值在哪?”

面试官是一个看着很资深的技术总监。他喝了口水,突然抛出了一个非常尖锐的问题:

“你平时用 AI 写代码吗?现在 AI 敲代码的速度比你快 100 倍,错误率还比你低。在这种背景下,你觉得程序员的核心价值到底在哪?未来的出路又在哪?”

这个问题其实我私下里思考过无数次。当 ChatGPT 刚出来能手写红黑树的时候,我也曾后背发凉,甚至怀疑过自己是不是马上要失业了。

面对面试官犀利的眼神,我深吸了一口气,给出了我的回答。

----------------------

认清现实:编码的边际价值正在归零

我回答面试官的第一句话是:“AI 确实让‘写代码’这门手艺变得前所未有的廉价,但这绝对不等于‘做软件’变简单了。

以前,咱们程序员的护城河是熟练掌握一门语言的语法、精通某个框架的边角料特性。

但今天,这些“执行层”的技能正在被大模型瞬间填平。

当“编码”本身的边际价值无限趋近于零时,我们需要重新审视自己的价值。

我跟面试官总结了三点在 AI 时代反而变得更值钱的能力:

1. 结合现实商业语境的需求洞察与博弈:现在 AI 确实能通过多轮对话帮你把一句话需求细化成几十页的 PRD,但它不懂“老板真正的意图”,不懂跨部门的利益拉扯,更不懂业务妥协。能结合公司现状,把模糊需求转化为各方都能接受、且技术可落地的系统边界,这是人的本事。
2. 基于有限资源的架构权衡(Trade-off):AI 当然能给你一套完美的千万级并发高可用架构图,但它不知道你们公司服务器预算只有 5000 块,不知道你们运维团队根本 hold 不住 K8s,也不知道那个祖传的屎山数据库坚决不能动。基于团队现实的妥协与决策,AI 永远给不了“正确”答案。
3. 最终的系统兜底与“担责”(Accountability):这是最致命的一点。现在 AI 的 Code Review 能力确实很强,能查出大部分内存泄漏和死锁。但是,代码一旦合并,线上业务崩了、用户数据泄露了,谁来背锅?AI 没法被开除,没法去坐牢。人类作为最终节点的确认者和兜底者,提供的是无可替代的“信任背书”。

“所以,”我看着面试官说,“咱们的生路非常清晰:把‘体力活’通通外包给 AI,逼着自己去做那些更靠脑力、更需要承担责任的系统决策。

----------------------

打造护城河:未来 5 年的 5 大杀手锏

面试官听完点了点头,追问道:“思路不错,那落实到具体的个人成长上,你觉得未来几年程序员该死磕哪些能力?”

我抛出了我总结的 5 大护城河:

1. 从“调包侠”进化为“架构师”

AI 最擅长的是“局部执行”,最烂的是“全局决策”。别再只盯着业务代码怎么调用 API,必须强迫自己从 0 到 1 思考系统设计。去学领域驱动设计(DDD),去懂网络底层,去学会在高可用、低延迟和开发成本之间做权衡。

2. 把 AI 当“黑奴”,而不是“拐杖”

很多人用 AI 是浅尝辄止,拿到跑不通的代码就抱怨 AI 不行。真正的高手会给 AI 喂极度精准的背景上下文(Context),设定严格的代码规范,通过多轮追问(Prompt Engineering)让 AI 迭代,甚至让 AI 先输出设计思路再写代码。建立自己的 Prompt 军火库,能让单兵作战能力飙升 10 倍。

3. 练就火眼金睛的 Code Review 能力

以后,谁能给 AI 写的代码“擦屁股”,谁就能拿高薪。 AI 生成的代码往往隐藏着致命逻辑漏洞或极差的可维护性(精致的屎山)。你需要整理一套属于自己的 Code Review 清单:边界值、并发安全、数据库索引命中率等,把质量把控做成绝对壁垒。

4. 懂点业务,长点“产品脑”

纯技术宅的生存空间会越来越窄。技术实现成本变低后,懂业务的工程师将极度稀缺。 我们得变成技术与业务的桥梁,理解商业模式,提出直击灵魂的澄清问题,甚至用 AI 快速糊出原型去验证业务方向。

5. 用 AI 搞定实际问题,别光谈理论

真正的创新不是去手搓一个大模型,而是**“用现成的 AI 能力,解决公司陈年老垢的业务痛点”**。比如,用 LLM 改造难用的内部知识库搜索,或者用 Agent 自动化排查繁琐的运维报警。把 AI 落地变成真金白银。

----------------------

破局之路:不同阶段的突围策略

面试官笑了笑:“你说的这些都挺对,但对不同工作经验的人来说,挑战是不一样的。”

我顺势接话:“没错,所以对不同阶段的程序员,我的建议是不同的。”

● 刚入行(0-3 年):最怕掉进“语法陷阱”。过度依赖 AI 补全,连基本排错能力都不学了。应该利用 AI 快速跨过“死记硬背语法”的痛苦期,把时间砸在学习设计模式、数据结构和深入理解业务上。学 AI 解决问题的“思路”,而不是盲目接受“结果”。
● 中坚力量(3-7 年):这是最危险的分水岭。熟练掌握的增删改查和组件使用,恰恰是 AI 最易替代的。必须向上突破,主导复杂系统设计,带新人,深耕一个垂直领域(如电商交易链路、音视频底层等),让“行业踩坑经验”不可替代。
● 技术老鸟(7 年以上):别吃老本了,“最佳实践”正在被固化到 AI 工具里。要升维到“技术战略”层面。思考怎么引入 AI 工具提升部门研发效能?引入大模型算力的 ROI 划算吗?或者去做专门解决极端疑难杂症的“定海神针”。
● 懂业务的跨界老炮:这是你们的黄金时代!“深度的行业认知 + 用 AI 快速实现想法的能力” = 降维打击。去当业务合伙人、做独立开发者,或者搞垂直领域的 AI 创新产品。

----------------------

结语:思维的跃迁才是真正的出路

面试官听完,沉默了一会儿,然后对我微微一笑。

“说得很好,”他说,“很多人还沉浸在被 AI 替代的恐慌中,你已经想清楚怎么利用它了。”

兄弟们,在 AI 时代,最值钱的程序员,永远不是敲代码最快的那个人。

最值钱的,是能一眼看透问题本质的人;是能设计出优雅且抗造系统的人;是能把 AI 当成最强副手,并有能力为最终结果兜底的人。

千万别把 AI 当成来抢饭碗的阶级敌人,它不过是你职业生涯里遇到过的、最听话、最不知疲倦的实习生罢了。

去指挥它,去审核它,然后狠狠地踩在它的肩膀上,去解决那些真正能赚大钱、有高价值的难题。

咱们的出路,就在思维的跃迁里。干就完了!大家一起加油!💪

via 掘金人工智能本月最热 (author: 雨夜寻晴天)
灵光发布新一代闪应用:让每个人都有一个Coding Agent

4月20日,蚂蚁灵光App完成闪应用功能大升级,推出“灵光圈”,致力于打造人人可用的消费级Coding Agent。

在原有“30秒生应用”基础上,灵光闪应用持续强化多智能体协作、全模态生成及移动端原生能力集成,成为首个支持用户用自然语言,在手机端创建、分发、使用、迭代AI应用的平台,真正实现了0代码、0部署、0门槛个性化创作。截至目前,灵光用户已创建超3000万个闪应用。

(图说:4月20日灵光圈正式上线,一键分享闪应用)

作为一款Agent原生产品,灵光最大的特色是全代码生成实现端到端闭环:用户无需任何开发经验,对着手机描述需求,就能生成并发布“开箱即用”的小应用——没有等待,没有部署,从“想到”直达“用到”。

区别于Coding尝鲜工具,升级后的灵光可以调用手机原生能力——相机、相册、陀螺仪、LBS、震动反馈等,让应用真正与物理世界联动。同时还集成了音效合成、LLM 调用、文本朗读、持久化存储等交互能力,使生成的不只是简单的内容交互界面,而是可持续使用的功能型工具。

当天,灵光宣布上线全新功能——灵光圈。灵光圈是构建闪应用生态的关键载体,也是业内首个0代码手搓应用分享社区,支持分享、点赞、评论、二次创作等。

(图说:用户在灵光圈分享的闪应用)

去年11月上线以来,灵光备受欢迎。截至目前,灵光用户已成功创建超3000万个闪应用。从互动游戏、情绪减压到语言打卡、待办清单等,覆盖了普通人生活的方方面面。灵光圈上线后,用户搓的闪应用可一键分享到灵光圈,在这里创意通过AI应用的形式被看见、被使用、被分享,一种全新的Wish Coding生态正在形成。

灵光提出的Wish Coding理念,让“意图编程”成为现实——用户描述想要的结果,AI直接生成可运行的个人应用。这种“一人应用”模式将开发周期从数月缩短至30秒,一个人、一部手机、一个想法就能完成。正如创作者所说:“以前需要fork(调用)代码进行协作,现在只需要fork意图。从创意到产品,从未如此快捷。”

灵光负责人蔡伟表示:“AI的发展会让软件生产力加速向普通人释放。灵光希望做这场生产力变革的加速器,让每个普通人都能拥有自己的Coding Agent,创造属于自己的应用。”

via AI新闻资讯 (author: AI Base)
新加坡金融监管机构呼吁加强银行网络安全应对 AI 模型风险

随着对 Anthropic PBC 最新人工智能模型 Mythos 的担忧蔓延至亚洲,新加坡金融管理局(MAS)已开始采取行动,敦促当地银行加强网络安全防护。MAS 发言人在接受彭博社采访时表示,该机构正在与新加坡网络安全局密切合作,以增强包括银行在内的关键基础设施的安全防御能力。

Anthropic 公司对其新发布的 AI 模型 Mythos 表达了高度警惕,认为该模型具有潜在的风险,不适宜进行广泛发布。这一消息引发了全球金融界的广泛关注,尤其是在新加坡这样一个国际金融中心。金融监管机构意识到,随着 AI 技术的快速发展,网络安全威胁也在不断演变,因此必须采取必要措施来保护金融系统的稳定性和安全性。

新加坡金融管理局强调,金融机构在使用新技术的同时,也要强化内部的安全措施,以防范潜在的网络攻击。MAS 将定期审查金融机构的安全防护措施,并确保它们能够应对日益复杂的网络威胁。

该监管机构还提到,银行和其他金融服务提供商应提高员工的网络安全意识,进行定期的安全培训,以识别和应对各种网络攻击。此外,MAS 呼吁金融机构加强与政府和技术公司的合作,共同构建一个更为安全的金融生态环境。

在 AI 技术的快速发展背景下,新加坡的金融监管机构希望通过这些措施,确保金融体系的安全性与稳定性,保护消费者和市场免受潜在的网络安全风险。

划重点:

🔒 新加坡金融管理局呼吁银行加强网络安全防护,确保金融稳定。

🤖 Anthropic 公司对 AI 模型 Mythos 的风险表示担忧,不宜广泛发布。

👥 MAS 强调金融机构需提高员工网络安全意识,并与政府合作构建安全生态。


via AI新闻资讯 (author: AI Base)
我国AI日均Token调用量突破 140 万亿,产业规模化进程加速

根据国家统计局发布的最新数据,我国人工智能产业正展现出前所未有的爆发力。数据显示,国内AI日均Token调用量已正式跨越 140 万亿次大关,这一数字较去年末的增长幅度超过40%。这一里程碑式的突破,不仅意味着大模型技术在各行业的渗透率正急速提升,更标志着我国AI产业已由实验阶段转向成熟的规模化运营阶段。

巨头加码与硬件革新:全球科技版图的震荡

在数据狂飙的同时,核心玩家的动作也愈发激进。腾讯与阿里巴巴同日宣布在AI“世界模型”赛道加大投入,力求在更具通用性的底层架构上占据高地。与此同时,特斯拉的硬件落地计划也传来新进展,其上海工厂已开始布局人形机器人的量产工作,预示着AI算力正加速从云端走向具身智能的物理实体。

政策红利持续释放,机器人+医疗成应用高地

产业的快速奔跑离不开政策的精准护航。近期,《人民日报》刊发的关于AI医疗产业发展的提案引起广泛关注。随后,北京市迅速响应,出台了 32 条具体措施,全力支持手术机器人等尖端技术进入临床应用。重庆市则通过公布 29 个“机器人+”典型应用场景,推动AI技术与地方产业深度融合。这种从中央到地方、从顶层设计到具体场景的联动,正在为AI的商业化落地提供肥沃土壤。

算力市场迎来涨价潮,行业逻辑面临重构

然而,在需求井喷的背后,算力资源的紧缺问题也日益凸显。受全球供应链及核心技术迭代影响,全球算力价格近期呈现显著上涨态势。阿里云、Anthropic等国内外大模型巨头密集调整服务定价,英伟达H100 芯片的租赁价格在过去半年内涨幅已接近40%。随着算力成本的不断攀升,AI行业的商业模式正在经历一场深刻的重构,如何在高性能输出与成本控制之间寻求平衡,将成为企业下一阶段竞争的关键。

via AI新闻资讯 (author: AI Base)
星巴克推出 ChatGPT 助力个性化饮品推荐新体验

星巴克正在探索一种更具创意的饮品选择方式,旨在根据顾客的心情为他们推荐饮品。最近,这家咖啡巨头推出了一款新的测试版应用,利用 ChatGPT 技术,通过简单的提示、情感描述甚至照片,来为顾客提供个性化的饮品建议。

在这款 ChatGPT 星巴克应用中,顾客的点餐体验变得更加直观和便捷。用户只需简单描述自己想要的饮品,例如 “一杯提神的饮品开启美好的一天” 或者 “一杯不太甜的下午提神饮品”,系统便会生成量身定制的饮品推荐。此外,用户还可以上传与自己心情相关的照片,比如阳光明媚的日子、舒适的工作环境或是时尚的穿搭,这样工具会根据照片的氛围推荐与之相符的饮品。

一旦用户选定了推荐的饮品,便可以在 ChatGPT 内自定义订单、选择附近的门店,并开始结账流程,最后通过星巴克应用或网站完成购买。星巴克表示,这项新功能反映了顾客通过社交媒体和口碑来发现饮品的趋势,而个性化和 “隐藏菜单” 也成为饮品文化的重要组成部分。

然而,这一变化也引起了一些顾客和咖啡师的关注。饮品推荐一直是星巴克店内体验的核心内容,很多顾客享受与咖啡师的交流,获取他们的推荐,尤其是在选择季节限定饮品或进行个性化定制时。对此,星巴克并没有表示这项工具会取代店内的互动,而是希望将其作为一种增加便利性和个性化的方式来使用。

此次推广是星巴克更广泛提升点餐互动性的举措的一部分,既关注个人的偏好,又致力于将人工智能技术融入其中,以提升用户体验。

划重点:

☕️ 星巴克推出利用 ChatGPT 的饮品推荐应用,顾客可通过提示和照片获得个性化饮品建议。

📸 用户可上传与心情相关的照片,系统会推荐符合照片氛围的饮品。

🤖 新功能旨在提升点餐体验,增加便利性,同时保留与咖啡师的互动。


via AI新闻资讯 (author: AI Base)
Anthropic收入暴增,市值或突破万亿美元大关

据报道,Anthropic公司在短短几个月内实现了收入的显著增长。该公司的年化收入目前已超过 300 亿美元,是去年年底的三倍多。这一增长可能使Anthropic在与开放 AI(OpenAI)的竞争中略占上风,尽管两者的数字并不可直接比较。推动这波增长的主要因素是其产品 Claude Code 和 Cowork,以及推理模型的代币销售不断上升。

更值得注意的是,Anthropic的利润率也显著改善。公司的毛利率从 2024 年的 - 94% 跃升至 2025 年的 + 40%。与此同时,年化收入从不足 10 亿美元猛增至 90 亿美元。这样的发展势头使得安索普在即将于 2025 年 9 月进行的融资轮中能够提出严苛的条件,预计投资者将承诺数亿美元的投资。

根据知情人士的透露,Anthropic目前没有计划进行新的融资轮。如果真的需要融资,最早也要等到明年 5 月的董事会会议后才能讨论。《信息》指出,Anthropic的首席财务官克里希纳・拉奥(Krishna Rao)和他的团队已接到对公司估值达 8000 亿美元的投资提案,而一些投资者甚至认为,万亿美元的估值指日可待。

via AI新闻资讯 (author: AI Base)
Hermes Agent 火了,我也把它从安装到飞书聊天跑了一遍

via 掘金人工智能本月最热 (author: 洛卡卡了)
跨数据中心的创新:Moonshot AI 与清华大学提出 PrfaaS 架构

随着大型语言模型(LLM)在推理过程中对计算资源的需求不断增加,传统的服务架构面临瓶颈。Moonshot AI 与清华大学的研究团队最近推出了一种新架构 —— 预填充即服务(PrfaaS),旨在打破大型语言模型服务中对数据中心和计算机资源的限制。

目前,大型语言模型的推理过程通常分为预填充和解码两个阶段。预填充阶段是模型处理输入并生成键值缓存(KVCache)的高计算密集型过程,而解码阶段则是模型逐个生成输出的内存带宽密集型过程。传统架构需要在同一数据中心中完成这两个阶段,这在计算和带宽上造成了限制。

PrfaaS 通过将预填充任务卸载到专用的高计算集群上,并利用通用以太网将生成的 KVCache 传输到本地解码集群,从而实现了跨数据中心的高效服务。研究表明,该架构在处理性能上显著提升,相比于传统模型,服务吞吐量提高了 54%。在实际案例研究中,该架构还表现出更低的延迟和更高的效率。

PrfaaS 架构的设计将计算、网络和存储三大子系统分开管理,通过精确的路由机制确保长请求能高效传输,避免了传统方法中因资源分配不均而导致的拥堵问题。同时,该系统还引入了双时间尺度调度机制,以应对不同流量模式的变化,进一步优化资源利用。

随着对跨数据中心推理需求的增加和新型硬件的不断涌现,PrfaaS 无疑为未来的 AI 应用提供了新的解决方案。

via AI新闻资讯 (author: AI Base)
消息称 Cursor 即将完成 20 亿美元融资,估值达到 500 亿美元

据 Techcrunch 报道,人工智能编程初创公司 Cursor 即将完成一轮新的融资,预计将筹集至少 20 亿美元。这一融资将使 Cursor 的估值跃升至 500 亿美元,几乎是六个月前估值的两倍。知情人士透露,现有投资方 Thrive 和安德森・霍洛维茨基金(Andreessen Horowitz)将主导此次融资,而新晋投资者 Battery Ventures 也有可能参与其中,甚至战略投资方英伟达(Nvidia)也计划出资。

虽然市场竞争激烈,Cursor 仍然实现了快速的营收增长。预计到 2026 年底,Cursor 的年化营收将突破 60 亿美元。根据彭博社的报告,今年 2 月,Cursor 的年化营收已达到 20 亿美元,这一数据是根据其近期的月度销售额推算得出的。

Cursor 在过去一段时间内依赖外部模型,导致其毛利率为负。然而,去年 11 月,该公司推出了自主研发的 Composer 模型,并借助低成本模型 Kimi,成功实现了小幅盈利。目前,公司面向大型企业客户的销售业务已实现正毛利率,但面向个人开发者的业务仍处于亏损状态。

Cursor 的创始团队由四位麻省理工学院的学生组成,他们分别是迈克尔・特鲁埃尔、苏莱・阿西夫、阿尔维德・伦马克和阿曼・桑格。公司在不断努力减少对外部供应商的依赖,尤其是在面对竞争对手 Anthropic 及其推出的 Claude Code 时,Cursor 希望通过自主技术保持竞争优势。

划重点:

- 💰 Cursor 预计筹集至少 20 亿美元融资,估值将达 500 亿美元。

- 📈 预计到 2026 年底,Cursor 的年化营收将突破 60 亿美元。

- 🛠️ 自主研发的 Composer 模型帮助 Cursor 实现了小幅盈利,减少了对外部供应商的依赖。



via AI新闻资讯 (author: AI Base)
谷歌与 Marvell 强强联手:两款定制 AI 芯片浮出水面

全球科技巨头的算力竞赛正进入白热化阶段。据知情人士透露,Alphabet 旗下的谷歌(Google)目前正与半导体解决方案供应商 Marvell Technology 展开深度洽谈。双方计划共同开发两款全新的定制化人工智能芯片,此举被外界视为谷歌加速摆脱对英伟达(Nvidia)硬件依赖、巩固自身云基础设施护城河的关键一步。

核心布局:TPU 的“黄金搭档”与新一代处理器

此次合作的重心在于两款功能各异的专用集成电路。其中一款是全新的内存处理单元(Memory Processing Unit),其核心使命是与谷歌自研的张量处理单元(TPU)形成高度协同,旨在通过优化数据搬运效率,突破现有大规模模型训练中的瓶颈。另一款则是针对前沿 AI 模型运行环境进行深度优化的新一代 TPU。

根据目前的进度规划,两家公司最快有望在明年完成内存处理单元的设计工作,并随即进入试产阶段。如果进展顺利,这套自研组合拳将极大地提升谷歌在处理复杂算力任务时的自主权。

算力独立:重塑云业务的竞争格局

长期以来,英伟达的 GPU 几乎垄断了 AI 算力市场,但这同时也带来了高昂的采购成本和潜在的供应链风险。对于谷歌而言,持续推动 TPU 的迭代并将其打造为英伟达产品的有力替代方案,不仅是技术上的自我突破,更是商业战略上的必然选择。

事实上,TPU 的广泛应用已经成为谷歌云(Google Cloud)业务收入增长的核心引擎。通过与 Marvell 这种拥有深厚定制化经验的厂商合作,谷歌能够以更低的能耗和更高的性价比提供云端算力服务,从而在激烈的公有云竞争中占据更有利的位置。尽管英伟达的市场霸主地位依然稳固,但谷歌这种“自研+深度协同”的模式,无疑正在改变全球 AI 芯片市场的博弈规则。

via AI新闻资讯 (author: AI Base)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]