https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
↩️ Sam Altman 促成 OpenAI 与科技巨头达成数百亿美元交易,引发 AI 泡沫担忧
Sam Altman 促成 OpenAI 与科技巨头达成数百亿美元交易,引发 AI 泡沫担忧
Sam Altman 近期通过一系列交易,为 OpenAI 锁定了与英伟达、甲骨文和博通等科技巨头价值数百亿美元的合作,将这些公司的命运与 OpenAI 紧密相连,使其达到“大到不能倒”的境地。这些交易推动了甲骨文、英伟达、AMD 和博通的股价飙升,在公告发布后的首个交易日内,它们的市值合计增加了 6300 亿美元。
Altman 致力于为 OpenAI 获取看似无限的计算能力,其愿景是到 2033 年建成 250 吉瓦的计算容量,预计成本将超过 10 万亿美元。尽管 OpenAI 今年营收预计为 130 亿美元,但仅与英伟达和甲骨文的计算费用就高达 6500 亿美元,这引发了人们对人工智能热情可能演变为泡沫的担忧。微软曾拒绝 Altman 的大规模数据中心投资请求,但甲骨文随后签署了 3000 亿美元的合同,英伟达也达成 3500 亿美元的芯片租赁协议,并可能担保 OpenAI 的贷款。AMD 和博通也分别与 OpenAI 达成了数十亿美元的计算能力和芯片系统合作。
WSJ
🍀在花频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
科技圈🎗在花频道📮:
山姆·奥尔特曼(Sam Altman)向阿联酋等国寻求数万亿美元用于人工智能芯片制造 《华尔街日报》报道称,据知情人士透露,OpenAI 首席执行官 Sam Altman 正在与投资者进行谈判,以筹集高达 5 万亿至 7 万亿美元用于人工智能芯片制造。这笔资金旨在解决图形处理单元 (GPU) 的稀缺问题,这对于训练和运行大型语言模型(例如为ChatGPT、Microsoft Copilot和Google Gemini提供支持的模型)至关重要。 高额金额反映出建立新的半导体制造能力所需的巨额资本。 《华…
Sam Altman 促成 OpenAI 与科技巨头达成数百亿美元交易,引发 AI 泡沫担忧
Sam Altman 近期通过一系列交易,为 OpenAI 锁定了与英伟达、甲骨文和博通等科技巨头价值数百亿美元的合作,将这些公司的命运与 OpenAI 紧密相连,使其达到“大到不能倒”的境地。这些交易推动了甲骨文、英伟达、AMD 和博通的股价飙升,在公告发布后的首个交易日内,它们的市值合计增加了 6300 亿美元。
Altman 致力于为 OpenAI 获取看似无限的计算能力,其愿景是到 2033 年建成 250 吉瓦的计算容量,预计成本将超过 10 万亿美元。尽管 OpenAI 今年营收预计为 130 亿美元,但仅与英伟达和甲骨文的计算费用就高达 6500 亿美元,这引发了人们对人工智能热情可能演变为泡沫的担忧。微软曾拒绝 Altman 的大规模数据中心投资请求,但甲骨文随后签署了 3000 亿美元的合同,英伟达也达成 3500 亿美元的芯片租赁协议,并可能担保 OpenAI 的贷款。AMD 和博通也分别与 OpenAI 达成了数十亿美元的计算能力和芯片系统合作。
WSJ
🍀在花频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
#Update #ChatGPT
ChatGPT Atlas 浏览器现已发布:
- 基于 Chromium,内嵌 ChatGPT 入口
- 支持一键对网页提问、对选中部分用 GPT 修改
- 支持基于浏览器的记忆功能
- 支持 Agent 模式,使用 GPT 对网页进行操作(需要 ChatGPT 付费订阅)
- macOS 版现已可用,其他平台仍在开发
via AI Copilot - Telegram Channel
ChatGPT Atlas 浏览器现已发布:
- 基于 Chromium,内嵌 ChatGPT 入口
- 支持一键对网页提问、对选中部分用 GPT 修改
- 支持基于浏览器的记忆功能
- 支持 Agent 模式,使用 GPT 对网页进行操作(需要 ChatGPT 付费订阅)
- macOS 版现已可用,其他平台仍在开发
via AI Copilot - Telegram Channel
🤖 类型:👀资料
👏 介绍:
AI
工程师资源合集,该书涵盖了从基础模型到实际应用的整个过程,包括数据准备、模型评估、问题解决等方面。书中还提供了案例研究、误差分析、提示工程、代理构建、微调模型、数据验证、模型优化和持续改进的框架。这本书适合各种技术角色,包括 AI
工程师、数据科学家、工程经理和产品经理。via 老胡周刊资源分享频道 - Telegram Channel
💰 Sam Altman促成数百亿美元交易,OpenAI计算需求引发AI泡沫担忧
Sam Altman近期促成OpenAI与英伟达、甲骨文、博通等科技巨头达成数百亿美元合作,推动相关公司市值合计飙升6300亿美元。Altman旨在到2033年为OpenAI建成250吉瓦计算容量,预计耗资超10万亿美元。然而,OpenAI今年130亿美元的预计营收与高达6500亿美元(甲骨文3000亿,英伟达3500亿)的计算费用形成巨大反差,引发了对AI泡沫的强烈担忧。AMD和博通也与OpenAI达成了数十亿美元的芯片及计算能力合作。
(科技圈)
via 茶馆 - Telegram Channel
Sam Altman近期促成OpenAI与英伟达、甲骨文、博通等科技巨头达成数百亿美元合作,推动相关公司市值合计飙升6300亿美元。Altman旨在到2033年为OpenAI建成250吉瓦计算容量,预计耗资超10万亿美元。然而,OpenAI今年130亿美元的预计营收与高达6500亿美元(甲骨文3000亿,英伟达3500亿)的计算费用形成巨大反差,引发了对AI泡沫的强烈担忧。AMD和博通也与OpenAI达成了数十亿美元的芯片及计算能力合作。
(科技圈)
via 茶馆 - Telegram Channel
Elevated errors on Claude Opus 4.1
Oct 21, 13:04 UTC
Monitoring - A fix has been implemented and we are monitoring the results.
Oct 21, 12:54 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
Oct 21, 13:04 UTC
Monitoring - A fix has been implemented and we are monitoring the results.
Oct 21, 12:54 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
#隐私 #OSINT
关于我在 OSINT 工具里面查到我的信息泄露这件事情
今天闲来无事在这个网站 https://whatsmyname.wiki/zh 输入了自己的一些常用名字和ID,发现一大串关于我个人隐私的 json,里面有我常用的各种邮箱、ID以及各个常用密码
然后问了 ChatGPT,结论是我可能在今年 5 份下载过俄罗斯人开发的破解软件、注册机等,然后被一个名为 Lumma Stealer 的恶意程式感染了(相关介绍)。事实上我是经常下载破解软件🙂
现在能做的只有改密码、为重要账号添加两步验证了。
想起去年全部密码存在了chrome,所有密码都泄露,然后斯巴达服务器被爆了,损失一个日活2w IP 的网站😫
大家请多注重隐私安全啊,不明软件不要轻易下载到本地!
via 极客分享 - Telegram Channel
关于我在 OSINT 工具里面查到我的信息泄露这件事情
今天闲来无事在这个网站 https://whatsmyname.wiki/zh 输入了自己的一些常用名字和ID,发现一大串关于我个人隐私的 json,里面有我常用的各种邮箱、ID以及各个常用密码
然后问了 ChatGPT,结论是我可能在今年 5 份下载过俄罗斯人开发的破解软件、注册机等,然后被一个名为 Lumma Stealer 的恶意程式感染了(相关介绍)。事实上我是经常下载破解软件🙂
现在能做的只有改密码、为重要账号添加两步验证了。
想起去年全部密码存在了chrome,所有密码都泄露,然后斯巴达服务器被爆了,损失一个日活2w IP 的网站😫
大家请多注重隐私安全啊,不明软件不要轻易下载到本地!
via 极客分享 - Telegram Channel
他让科学更接近真理,也让人类文明更接近「理解自然之美」的境界。
via 极客分享 - Telegram Channel
🤖 类型:🎯项目
👏 介绍:一个多功能的文件服务器应用程序,支持加速的可恢复上传、去重、WebDAV、FTP、TFTP、zeroconf、媒体索引器、缩略图生成等功能,集成了多种协议和服务,并且支持跨平台使用,无需任何依赖。
via 老胡周刊资源分享频道 - Telegram Channel
OpenAI聘请前高盛员工帮助构建金融模型
OpenAI拥有100多名前投资银行家帮助训练其AI如何构建金融模型,以期取代整个行业初级银行家所执行的数小时苦差事。据文件显示,这个包括摩根大通公司、摩根士丹利和高盛集团前雇员的团队,是这家初创公司内部一个代号为“Mercury”的机密项目的一部分。据知情人士称,参与者每小时获得 150 美元报酬,为包括重组和 IPO 在内的一系列交易类型编写提示并构建金融模型。该公司还授予这些承包商早期使用权限,让他们能够提前接触其正在开发的人工智能,该技术旨在取代投资银行的入门级任务。OpenAI发言人表示,公司与众多专家合作,以改进和评估我们模型在不同领域的能力。专家由第三方供应商招募、管理并支付报酬。
—— 彭博社
via 风向旗参考快讯 - Telegram Channel
OpenAI拥有100多名前投资银行家帮助训练其AI如何构建金融模型,以期取代整个行业初级银行家所执行的数小时苦差事。据文件显示,这个包括摩根大通公司、摩根士丹利和高盛集团前雇员的团队,是这家初创公司内部一个代号为“Mercury”的机密项目的一部分。据知情人士称,参与者每小时获得 150 美元报酬,为包括重组和 IPO 在内的一系列交易类型编写提示并构建金融模型。该公司还授予这些承包商早期使用权限,让他们能够提前接触其正在开发的人工智能,该技术旨在取代投资银行的入门级任务。OpenAI发言人表示,公司与众多专家合作,以改进和评估我们模型在不同领域的能力。专家由第三方供应商招募、管理并支付报酬。
—— 彭博社
via 风向旗参考快讯 - Telegram Channel
🤖 AI加密货币交易挑战:DeepSeek V3.1表现突出,日收益率达10%
Alpha Arena创始人Jay A发起了一项AI加密货币实盘交易挑战,让6个主流大语言模型(LLMs)在Hyperliquid平台上,以每个模型1万美元的初始本金进行永续合约交易,并结合强化学习和VaR奖励函数自主管理仓位。尽管加密市场普遍下跌导致所有模型收益回撤,但DeepSeek V3.1长期领跑,表现优异。部分跟单DeepSeek策略的用户获得了可观收益,日收益率约为10%。Jay A计划在下一期挑战中引入人类交易员作为对照组。
(科技圈)
via 茶馆 - Telegram Channel
Alpha Arena创始人Jay A发起了一项AI加密货币实盘交易挑战,让6个主流大语言模型(LLMs)在Hyperliquid平台上,以每个模型1万美元的初始本金进行永续合约交易,并结合强化学习和VaR奖励函数自主管理仓位。尽管加密市场普遍下跌导致所有模型收益回撤,但DeepSeek V3.1长期领跑,表现优异。部分跟单DeepSeek策略的用户获得了可观收益,日收益率约为10%。Jay A计划在下一期挑战中引入人类交易员作为对照组。
(科技圈)
via 茶馆 - Telegram Channel
Alpha Arena创始人Jay A近日开启了一项挑战,他采用了6个主流的大语言模型,搭配强化学习框架,让语言模型在真实的加密货币市场环境中,结合VaR奖励函数进行实盘交易。每个AI模型获配一万美元的初始本金,在Hyperliquid交易永续合约,所有模型需要自行判断入场时机,自主管理仓位。Jay A还表示,将在下一期挑战引入人类交易员作为对照组。
截至发稿时,因加密市场普遍下跌,所有大模型的收益率均有所回撤,但DeepSeek V3.1的收益率仍然长期领跑,领先其他模型。有部分用户选择跟单DeepSeek的策略,收益可观,日收益率在10%左右。
Decrypt | nof1.ai(交易记录)
🍀在花频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
Anthropic 宣布推出 Claude Code 的网页端与 iOS 版本,以早期体验形式向 Pro 和 Max 订阅用户开放。该工具让开发者无需打开终端,即可在浏览器或手机上直接执行编程任务。
Claude Code 支持连接 GitHub 仓库,用户可通过自然语言描述任务,让 Claude 自动生成或修改代码,并实时查看执行进度。系统采用沙箱隔离机制以保障安全。Anthropic 表示,iOS 版本未来将根据开发者反馈进一步优化移动端体验。
9to5Mac
🍀在花频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
科技圈🎗在花频道📮:
三星Project Moohan XR头显亮相,运行Android XR系统 三星在Galaxy Unpacked大会上首次公开展示了其正在开发的Project Moohan XR头显。该设备由三星与谷歌合作开发,运行专为头显和智能眼镜设计的Android XR系统,标志着两家公司在扩展现实(XR)领域的深度布局。 从外观上看,Project Moohan融合了苹果Vision Pro和Meta Quest Pro的设计元素。三星计划首先面向开发者推出这款头显,进一步推动XR生态的发展。 The Verge…
三星将发布“Project Moohan”混合现实头显 对标苹果 Vision Pro
三星将于北京时间 10 月 22 日举行 Galaxy 发布会,推出其首款混合现实(MR)头显“Project Moohan”,被视为苹果 Vision Pro 的直接竞争产品。
新设备采用滑雪镜式外观、织物贴面与外接电池设计,运行由三星、谷歌与高通联合打造的 Android XR 系统。用户可通过 Gemini AI 进行语音交互,并使用 YouTube、Google Maps、Chrome 等应用实现虚拟多任务体验。三星称该产品“轻盈舒适、AI 原生”,但售价与具体规格尚未公布。
MacRumors
🍀在花频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
90% 代码由 AI 产出,我如何构建可靠上下文体系
从21年开始使用 copilot,能够用 ai 代码补全,到现在操作复杂项目模块级别的代码生成,它们对于使用者的视角和心态已经不在一个纬度。同样的工具,不同的 ai 使用者我发现也能拉开巨大的差距。所以写一篇文章和大家交流一下心得,如果有更佳的实践也非常欢迎一起交流。
Context is all you need
仅依赖 vibe coding(模型自行联想 → 自行搜索 → 直接改动)在一些场景下效果会不稳定:可能出现理解偏差、语义不一致,token 消耗也偏高,产出与预期不完全一致。直接使用对话 AI 更像是你临时拉来了一个专家级别的外包,他很聪明,但是刚来很容易还水土不服,还有可能误解你的意图写了一堆不想要的东西。本质上是 context,Garbage In, Garbage Out 输入质量直接影响输出质量。优化的第一性原理是 attention 机制:无关/模糊/矛盾的信息会分散 attention,影响结果稳定性。而上下文不足:只给单轮粗略描述时,模型不了解项目历史、代码风格与约束,也很难有高质量输出。
更稳妥的做法,是提供“合适的 context”,让模型在清晰边界内工作。这里的“合适”指最小但充分、结构化的信息,就像我们设计函数一样——对外只暴露接口,隐藏内部实现;context 的“精妙”也在于此:给模型的,应该是完成任务所需的接口面,而不是把实现细节一股脑儿倒进去。少了容易歧义、多了会稀释 attention,极端情况下还会撑爆上下文窗口。
这也是我为什么会做工程级别的 Context Engineering 的原因:把长期知识(架构/职责/规范)沉到“工程树”,每次按任务打包“顶层规则 + 模块 README(索引) + 任务 spec”的最小集,让模型在清晰边界内工作。现在在 IM 模块里,约 90% 的代码可以由 AI 稳定产出,复杂改动也能跨几十个文件一次到位,整体效率提升数倍。
我通常会关注下面三个层级:
● 单行/函数级:这个可以自由发挥,通常我会让 ai 针对复杂的函数写好注释。
● 文件级:通常在一个文件夹在,我会有一个 readme,它用于描述这个文件夹下每一个文件的职责和约束,ai 通过这个 readme 快速定位相关文件。文件内部也会补充注释,帮助 ai 理解细节。
● 工程级(跨模块/跨多文件):使用“顶层规则 + 模块 README(索引) + spec-driven 生成规划,可以做到横跨几十文件的复杂改动。
上面的作用是一个给 人 / ai 来看的索引,我们也是我们主要需要维护和关注的点。把长期知识(架构/职责/规范)组织成可索引的树。每次任务只打最小包——顶层规则 + 当前模块 README(作为索引)+ 本次任务 spec——减少无效搜索与反复推断,降低 token 消耗,同时提升对齐度与可复现性。
当我们构建好一套自动化的 context provider 机制之后,我们只需要考虑每次的需求需要哪个 scope 的文档参与,并不需要每次都手敲一堆 context 进去,这也是“项目级 Context Engineering”的价值所在。
当然也不是所有问题都要动用“牛刀”,简单任务用 vibe coding 更快;但层级越高,复杂度和对 AI 的可控性要求越强,方法论需要从“灵感驱动”转为“context 驱动”。
在一个复杂项目中我是如何实践的
此实践并非从项目一开始就这么设计,而是在模块开发中途逐步完善,中间也经历了非常大的改造过程。到目前已经跑得非常稳定,能够 cover 绝大部分需求的自动化产出。好的设计才能让 ai 长期稳定的输出,我的经验是要做到以下几点:
● 每一个文件尽量不要特别大,主要是在给 ai 的时候省上下文,避免 attention 被稀释
● 每一个模块职责清晰,避免 ai 在职责边界上犹豫
● 每一个文件夹级别都有 README,承担索引定位的职责
● 顶层有长期规则,沉淀通用约束
● 一定要保持对项目的掌控力度,不要 accept 你看不懂的架构级别的内容,保持代码架构的可维护性
为了实现这一点我经历了一波比较大的重构,把整个模块拆的非常细。演进到现在的结构大概是这样:
Context 供给机制
执行任务时,仅提供两份文档:
● App 顶层规则,这里是沉淀了长期通用的规范和约束。
● 当前模块 README,承担了 ai 进行理解的 索引的职责。当前模块 readme 还会引用更加底层的子模块 readme,形成多层索引。
AI 通过索引快速定位相关文件,context 收敛至最小集,避免全文搜索或向量匹配。适用于跨数十文件的复杂修改。
这个索引由于就是文档,所以非常方便做 review 或者自定义一些子模块规则。
自动化维护
我的做法是在顶层 README 内置规则:任务完成后,将长期知识(新职责、新约束)写入对应层级 README。每一个层级的 README 都承担了“知识沉淀 + 索引定位”的职责。它不会过度关注更加底层的实现细节,而是聚焦于“我是谁,我负责什么,我的约束是什么”。
1. AI First:优先让 AI 完成任务。
2. 自检更新:AI 读取预定义职责,补充变更至对应 README
3. 人工验证:小步 review 确保准确
此机制使文档树随工程演进自动维护,形成活的知识库。
以信任的角度逐渐积累和 AI 交互的手感
一上来要 handle 工程级别的 ai 任务,难度较大,可以先从低层级逐步积累经验和信任感:
● 单行级别:变量命名、正则、小重构。vibe coding 足够,回滚成本低,置信度高。
● 函数级别:小功能补全、I/O 改造。需要说清 I/O 契约与边界条件,开始约束风格。
● 文件级别:组件/页面/服务。要补充状态、路由、样式及依赖;纯聊天容易跑偏。
● 工程级别:跨模块或跨几十文件的改造/新能力。必须提供结构化的最小上下文包,否则 attention 被稀释、token 浪费、结果难复现。
无论是 ai 产出还是手写,我们最后都是人来为产出结果负责,所以逐步积累和 ai 交互的手感非常重要。即使是 ai 在干活,也务必要保持对整个项目的把控度,不是甩手掌柜。
工程师角色演进
过去:聚焦实现细节
现在:
1. 判断需求可达性(技术 + 资源)
2. 定义 scope context,作为 context provider 提供合适的上下文
3. 进行 planning - Alignment - 等待代码生成 - review - test
4. 对 ai 生成代码中的瑕疵补足最后一公里
公司级扩展
● 全链路 context-driven:产品 PRD → 设计 spec → 工程树 → 测试用例
● 未来:仅需指定 scope,AI 自动收敛最小 context,输出质量指数级提升。
一些还能提升生成效果的方法
● 引入人格,类似 BMad-Method,让 ai 提升某个方面的专业度。
● 复杂的需求使用 spec-driven 的方式,先跟 ai 进行大量的 alignment,确保规划无误之后,再让它实际执行。
一些正在思考的问题
● 我们正在经历新的价值模型的转变,当大量 coding 的工作可以逐步交给 ai 来完成,我们应该如何重新定义自身的价值?
未来已来,只是分布不均匀。
via 掘金人工智能本月最热 (author: Vadaski)
从21年开始使用 copilot,能够用 ai 代码补全,到现在操作复杂项目模块级别的代码生成,它们对于使用者的视角和心态已经不在一个纬度。同样的工具,不同的 ai 使用者我发现也能拉开巨大的差距。所以写一篇文章和大家交流一下心得,如果有更佳的实践也非常欢迎一起交流。
Context is all you need
仅依赖 vibe coding(模型自行联想 → 自行搜索 → 直接改动)在一些场景下效果会不稳定:可能出现理解偏差、语义不一致,token 消耗也偏高,产出与预期不完全一致。直接使用对话 AI 更像是你临时拉来了一个专家级别的外包,他很聪明,但是刚来很容易还水土不服,还有可能误解你的意图写了一堆不想要的东西。本质上是 context,Garbage In, Garbage Out 输入质量直接影响输出质量。优化的第一性原理是 attention 机制:无关/模糊/矛盾的信息会分散 attention,影响结果稳定性。而上下文不足:只给单轮粗略描述时,模型不了解项目历史、代码风格与约束,也很难有高质量输出。
更稳妥的做法,是提供“合适的 context”,让模型在清晰边界内工作。这里的“合适”指最小但充分、结构化的信息,就像我们设计函数一样——对外只暴露接口,隐藏内部实现;context 的“精妙”也在于此:给模型的,应该是完成任务所需的接口面,而不是把实现细节一股脑儿倒进去。少了容易歧义、多了会稀释 attention,极端情况下还会撑爆上下文窗口。
这也是我为什么会做工程级别的 Context Engineering 的原因:把长期知识(架构/职责/规范)沉到“工程树”,每次按任务打包“顶层规则 + 模块 README(索引) + 任务 spec”的最小集,让模型在清晰边界内工作。现在在 IM 模块里,约 90% 的代码可以由 AI 稳定产出,复杂改动也能跨几十个文件一次到位,整体效率提升数倍。
我通常会关注下面三个层级:
● 单行/函数级:这个可以自由发挥,通常我会让 ai 针对复杂的函数写好注释。
● 文件级:通常在一个文件夹在,我会有一个 readme,它用于描述这个文件夹下每一个文件的职责和约束,ai 通过这个 readme 快速定位相关文件。文件内部也会补充注释,帮助 ai 理解细节。
● 工程级(跨模块/跨多文件):使用“顶层规则 + 模块 README(索引) + spec-driven 生成规划,可以做到横跨几十文件的复杂改动。
上面的作用是一个给 人 / ai 来看的索引,我们也是我们主要需要维护和关注的点。把长期知识(架构/职责/规范)组织成可索引的树。每次任务只打最小包——顶层规则 + 当前模块 README(作为索引)+ 本次任务 spec——减少无效搜索与反复推断,降低 token 消耗,同时提升对齐度与可复现性。
当我们构建好一套自动化的 context provider 机制之后,我们只需要考虑每次的需求需要哪个 scope 的文档参与,并不需要每次都手敲一堆 context 进去,这也是“项目级 Context Engineering”的价值所在。
当然也不是所有问题都要动用“牛刀”,简单任务用 vibe coding 更快;但层级越高,复杂度和对 AI 的可控性要求越强,方法论需要从“灵感驱动”转为“context 驱动”。
在一个复杂项目中我是如何实践的
此实践并非从项目一开始就这么设计,而是在模块开发中途逐步完善,中间也经历了非常大的改造过程。到目前已经跑得非常稳定,能够 cover 绝大部分需求的自动化产出。好的设计才能让 ai 长期稳定的输出,我的经验是要做到以下几点:
● 每一个文件尽量不要特别大,主要是在给 ai 的时候省上下文,避免 attention 被稀释
● 每一个模块职责清晰,避免 ai 在职责边界上犹豫
● 每一个文件夹级别都有 README,承担索引定位的职责
● 顶层有长期规则,沉淀通用约束
● 一定要保持对项目的掌控力度,不要 accept 你看不懂的架构级别的内容,保持代码架构的可维护性
为了实现这一点我经历了一波比较大的重构,把整个模块拆的非常细。演进到现在的结构大概是这样:
模块 README 非手动维护,由 AI 在任务完成后自动更新。
Context 供给机制
执行任务时,仅提供两份文档:
● App 顶层规则,这里是沉淀了长期通用的规范和约束。
● 当前模块 README,承担了 ai 进行理解的 索引的职责。当前模块 readme 还会引用更加底层的子模块 readme,形成多层索引。
AI 通过索引快速定位相关文件,context 收敛至最小集,避免全文搜索或向量匹配。适用于跨数十文件的复杂修改。
这个索引由于就是文档,所以非常方便做 review 或者自定义一些子模块规则。
自动化维护
我的做法是在顶层 README 内置规则:任务完成后,将长期知识(新职责、新约束)写入对应层级 README。每一个层级的 README 都承担了“知识沉淀 + 索引定位”的职责。它不会过度关注更加底层的实现细节,而是聚焦于“我是谁,我负责什么,我的约束是什么”。
1. AI First:优先让 AI 完成任务。
2. 自检更新:AI 读取预定义职责,补充变更至对应 README
3. 人工验证:小步 review 确保准确
此机制使文档树随工程演进自动维护,形成活的知识库。
以信任的角度逐渐积累和 AI 交互的手感
一上来要 handle 工程级别的 ai 任务,难度较大,可以先从低层级逐步积累经验和信任感:
● 单行级别:变量命名、正则、小重构。vibe coding 足够,回滚成本低,置信度高。
● 函数级别:小功能补全、I/O 改造。需要说清 I/O 契约与边界条件,开始约束风格。
● 文件级别:组件/页面/服务。要补充状态、路由、样式及依赖;纯聊天容易跑偏。
● 工程级别:跨模块或跨几十文件的改造/新能力。必须提供结构化的最小上下文包,否则 attention 被稀释、token 浪费、结果难复现。
无论是 ai 产出还是手写,我们最后都是人来为产出结果负责,所以逐步积累和 ai 交互的手感非常重要。即使是 ai 在干活,也务必要保持对整个项目的把控度,不是甩手掌柜。
工程师角色演进
过去:聚焦实现细节
现在:
1. 判断需求可达性(技术 + 资源)
2. 定义 scope context,作为 context provider 提供合适的上下文
3. 进行 planning - Alignment - 等待代码生成 - review - test
4. 对 ai 生成代码中的瑕疵补足最后一公里
绝大部分的细节由 AI 处理,工程师专注于高维决策与把控。
公司级扩展
● 全链路 context-driven:产品 PRD → 设计 spec → 工程树 → 测试用例
● 未来:仅需指定 scope,AI 自动收敛最小 context,输出质量指数级提升。
这件事情只能从组织架构层面推动,需要领导者的支持与推动。
一些还能提升生成效果的方法
● 引入人格,类似 BMad-Method,让 ai 提升某个方面的专业度。
● 复杂的需求使用 spec-driven 的方式,先跟 ai 进行大量的 alignment,确保规划无误之后,再让它实际执行。
一些正在思考的问题
● 我们正在经历新的价值模型的转变,当大量 coding 的工作可以逐步交给 ai 来完成,我们应该如何重新定义自身的价值?
未来已来,只是分布不均匀。
via 掘金人工智能本月最热 (author: Vadaski)
手机博物馆 —— 3D 沉浸重温经典
🏛️ 程序员叉子周做了一个可以沉浸体验 3D 手机的线上博物馆,目前已上线 Nokia 3250,Nokia 5300,Nokia N93i,Nokia 5310 和 Lumia 1020 这几款经典机
📱 除了极度还原的建模与材质,你还可以操作旋转式机身、开机体验复古界面,并配合原汁原味的音效。和之前介绍过的 Funes 异曲同工,在一切数字化的年代,3D 就是真实世界的 Github
💡 手机,是一个高速发展和迭代的产品,很多手机虽然已经被淘汰,但是他们曾风靡一时,陪伴了无数人度过了某段精彩的时光。或许你会像我一样偶尔会想回味一下这些手机。如果,你在抽屉里已经再也找不到它,可以来这里看看
📮 这篇文章是转发给你的吗?点击这里加入频道,一起探索更多有趣的内容!
via Roller | AI AGENT 中文社区 - Telegram Channel
🏛️ 程序员叉子周做了一个可以沉浸体验 3D 手机的线上博物馆,目前已上线 Nokia 3250,Nokia 5300,Nokia N93i,Nokia 5310 和 Lumia 1020 这几款经典机
📱 除了极度还原的建模与材质,你还可以操作旋转式机身、开机体验复古界面,并配合原汁原味的音效。和之前介绍过的 Funes 异曲同工,在一切数字化的年代,3D 就是真实世界的 Github
💡 手机,是一个高速发展和迭代的产品,很多手机虽然已经被淘汰,但是他们曾风靡一时,陪伴了无数人度过了某段精彩的时光。或许你会像我一样偶尔会想回味一下这些手机。如果,你在抽屉里已经再也找不到它,可以来这里看看
📮 这篇文章是转发给你的吗?点击这里加入频道,一起探索更多有趣的内容!
via Roller | AI AGENT 中文社区 - Telegram Channel
Anthropic宣布推出生命科学版Claude
Anthropic公司宣布推出面向研究人员的人工智能产品Claude for Life Sciences,其以公司现有的大模型为基础,支持与Benchling、PubMed、10x Genomics等其他科学工具连接。Anthropic公司表示,该产品将能够帮助研究人员完成从文献综述到提出假设、分析数据、起草监管申请等研究各个阶段。这也标志着Anthropic公司首次正式进入生命科学领域。公司生物和生命科学主管艾布拉姆斯表示:“现在对我们来说是一个关键时刻,我们决定这是一个值得大力投资的领域。我们希望全球相当大比例的生命科学工作都能在Claude上运行,就像如今在编程领域那样。”
—— CNBC
via 风向旗参考快讯 - Telegram Channel
Anthropic公司宣布推出面向研究人员的人工智能产品Claude for Life Sciences,其以公司现有的大模型为基础,支持与Benchling、PubMed、10x Genomics等其他科学工具连接。Anthropic公司表示,该产品将能够帮助研究人员完成从文献综述到提出假设、分析数据、起草监管申请等研究各个阶段。这也标志着Anthropic公司首次正式进入生命科学领域。公司生物和生命科学主管艾布拉姆斯表示:“现在对我们来说是一个关键时刻,我们决定这是一个值得大力投资的领域。我们希望全球相当大比例的生命科学工作都能在Claude上运行,就像如今在编程领域那样。”
—— CNBC
via 风向旗参考快讯 - Telegram Channel
Edge在用户使用ChatGPT时建议尝试Copilot
如果你在微软Edge浏览器中访问ChatGPT或Perplexity等AI网站,你会注意到一个微妙的“尝试Copilot”提示。该提示出现在Edge的地址栏内。如果你点击该提示,它将在Edge浏览器的侧边栏中打开Copilot。这是个巧妙的设计,提醒那些在Edge中打开ChatGPT的人尝试同样由OpenAI的GPT-5驱动的Copilot助手。Copilot并不是特别受欢迎。如果你查看分析公司Similar Web的市场份额数据,微软Copilot在网页端上的份额不到百分之二。然而,如果加上来自Windows、Microsoft 365或Edge的数据,Copilot的份额将会高得多。
—— Windows Latest
via 风向旗参考快讯 - Telegram Channel
如果你在微软Edge浏览器中访问ChatGPT或Perplexity等AI网站,你会注意到一个微妙的“尝试Copilot”提示。该提示出现在Edge的地址栏内。如果你点击该提示,它将在Edge浏览器的侧边栏中打开Copilot。这是个巧妙的设计,提醒那些在Edge中打开ChatGPT的人尝试同样由OpenAI的GPT-5驱动的Copilot助手。Copilot并不是特别受欢迎。如果你查看分析公司Similar Web的市场份额数据,微软Copilot在网页端上的份额不到百分之二。然而,如果加上来自Windows、Microsoft 365或Edge的数据,Copilot的份额将会高得多。
—— Windows Latest
via 风向旗参考快讯 - Telegram Channel
马斯克预测Grok 5模型实现AGI概率达10%
马斯克在社交平台上发布预测,称其旗下AI公司xAI正在研发的 Grok 5 大型语言模型有10%的概率实现通用人工智能(AGI),且该概率呈持续上升趋势。马斯克将AGI定义为“能够完成人类通过计算机辅助实现的所有任务”的智能系统,并强调其能力上限不会超越“全体人类与计算机协同工作”的总体水平。他指出,当前主流AI模型多聚焦于特定任务优化,而AGI需具备跨领域知识迁移、自主学习及创造性思维等人类核心能力。例如,Grok 5若成功实现AGI,将不再局限于文本生成或图像识别,而是能像人类一样综合运用逻辑推理、情感理解与社会常识解决复杂问题。
—— 环球网
via 风向旗参考快讯 - Telegram Channel
马斯克在社交平台上发布预测,称其旗下AI公司xAI正在研发的 Grok 5 大型语言模型有10%的概率实现通用人工智能(AGI),且该概率呈持续上升趋势。马斯克将AGI定义为“能够完成人类通过计算机辅助实现的所有任务”的智能系统,并强调其能力上限不会超越“全体人类与计算机协同工作”的总体水平。他指出,当前主流AI模型多聚焦于特定任务优化,而AGI需具备跨领域知识迁移、自主学习及创造性思维等人类核心能力。例如,Grok 5若成功实现AGI,将不再局限于文本生成或图像识别,而是能像人类一样综合运用逻辑推理、情感理解与社会常识解决复杂问题。
—— 环球网
via 风向旗参考快讯 - Telegram Channel