https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
🤖 类型:👀资料
👏 介绍:
AI
工程师资源合集,该书涵盖了从基础模型到实际应用的整个过程,包括数据准备、模型评估、问题解决等方面。书中还提供了案例研究、误差分析、提示工程、代理构建、微调模型、数据验证、模型优化和持续改进的框架。这本书适合各种技术角色,包括 AI
工程师、数据科学家、工程经理和产品经理。via 老胡周刊资源分享频道 - Telegram Channel
💰 Sam Altman促成数百亿美元交易,OpenAI计算需求引发AI泡沫担忧
Sam Altman近期促成OpenAI与英伟达、甲骨文、博通等科技巨头达成数百亿美元合作,推动相关公司市值合计飙升6300亿美元。Altman旨在到2033年为OpenAI建成250吉瓦计算容量,预计耗资超10万亿美元。然而,OpenAI今年130亿美元的预计营收与高达6500亿美元(甲骨文3000亿,英伟达3500亿)的计算费用形成巨大反差,引发了对AI泡沫的强烈担忧。AMD和博通也与OpenAI达成了数十亿美元的芯片及计算能力合作。
(科技圈)
via 茶馆 - Telegram Channel
Sam Altman近期促成OpenAI与英伟达、甲骨文、博通等科技巨头达成数百亿美元合作,推动相关公司市值合计飙升6300亿美元。Altman旨在到2033年为OpenAI建成250吉瓦计算容量,预计耗资超10万亿美元。然而,OpenAI今年130亿美元的预计营收与高达6500亿美元(甲骨文3000亿,英伟达3500亿)的计算费用形成巨大反差,引发了对AI泡沫的强烈担忧。AMD和博通也与OpenAI达成了数十亿美元的芯片及计算能力合作。
(科技圈)
via 茶馆 - Telegram Channel
Elevated errors on Claude Opus 4.1
Oct 21, 13:04 UTC
Monitoring - A fix has been implemented and we are monitoring the results.
Oct 21, 12:54 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
Oct 21, 13:04 UTC
Monitoring - A fix has been implemented and we are monitoring the results.
Oct 21, 12:54 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
#隐私 #OSINT
关于我在 OSINT 工具里面查到我的信息泄露这件事情
今天闲来无事在这个网站 https://whatsmyname.wiki/zh 输入了自己的一些常用名字和ID,发现一大串关于我个人隐私的 json,里面有我常用的各种邮箱、ID以及各个常用密码
然后问了 ChatGPT,结论是我可能在今年 5 份下载过俄罗斯人开发的破解软件、注册机等,然后被一个名为 Lumma Stealer 的恶意程式感染了(相关介绍)。事实上我是经常下载破解软件🙂
现在能做的只有改密码、为重要账号添加两步验证了。
想起去年全部密码存在了chrome,所有密码都泄露,然后斯巴达服务器被爆了,损失一个日活2w IP 的网站😫
大家请多注重隐私安全啊,不明软件不要轻易下载到本地!
via 极客分享 - Telegram Channel
关于我在 OSINT 工具里面查到我的信息泄露这件事情
今天闲来无事在这个网站 https://whatsmyname.wiki/zh 输入了自己的一些常用名字和ID,发现一大串关于我个人隐私的 json,里面有我常用的各种邮箱、ID以及各个常用密码
然后问了 ChatGPT,结论是我可能在今年 5 份下载过俄罗斯人开发的破解软件、注册机等,然后被一个名为 Lumma Stealer 的恶意程式感染了(相关介绍)。事实上我是经常下载破解软件🙂
现在能做的只有改密码、为重要账号添加两步验证了。
想起去年全部密码存在了chrome,所有密码都泄露,然后斯巴达服务器被爆了,损失一个日活2w IP 的网站😫
大家请多注重隐私安全啊,不明软件不要轻易下载到本地!
via 极客分享 - Telegram Channel
他让科学更接近真理,也让人类文明更接近「理解自然之美」的境界。
via 极客分享 - Telegram Channel
🤖 类型:🎯项目
👏 介绍:一个多功能的文件服务器应用程序,支持加速的可恢复上传、去重、WebDAV、FTP、TFTP、zeroconf、媒体索引器、缩略图生成等功能,集成了多种协议和服务,并且支持跨平台使用,无需任何依赖。
via 老胡周刊资源分享频道 - Telegram Channel
OpenAI聘请前高盛员工帮助构建金融模型
OpenAI拥有100多名前投资银行家帮助训练其AI如何构建金融模型,以期取代整个行业初级银行家所执行的数小时苦差事。据文件显示,这个包括摩根大通公司、摩根士丹利和高盛集团前雇员的团队,是这家初创公司内部一个代号为“Mercury”的机密项目的一部分。据知情人士称,参与者每小时获得 150 美元报酬,为包括重组和 IPO 在内的一系列交易类型编写提示并构建金融模型。该公司还授予这些承包商早期使用权限,让他们能够提前接触其正在开发的人工智能,该技术旨在取代投资银行的入门级任务。OpenAI发言人表示,公司与众多专家合作,以改进和评估我们模型在不同领域的能力。专家由第三方供应商招募、管理并支付报酬。
—— 彭博社
via 风向旗参考快讯 - Telegram Channel
OpenAI拥有100多名前投资银行家帮助训练其AI如何构建金融模型,以期取代整个行业初级银行家所执行的数小时苦差事。据文件显示,这个包括摩根大通公司、摩根士丹利和高盛集团前雇员的团队,是这家初创公司内部一个代号为“Mercury”的机密项目的一部分。据知情人士称,参与者每小时获得 150 美元报酬,为包括重组和 IPO 在内的一系列交易类型编写提示并构建金融模型。该公司还授予这些承包商早期使用权限,让他们能够提前接触其正在开发的人工智能,该技术旨在取代投资银行的入门级任务。OpenAI发言人表示,公司与众多专家合作,以改进和评估我们模型在不同领域的能力。专家由第三方供应商招募、管理并支付报酬。
—— 彭博社
via 风向旗参考快讯 - Telegram Channel
🤖 AI加密货币交易挑战:DeepSeek V3.1表现突出,日收益率达10%
Alpha Arena创始人Jay A发起了一项AI加密货币实盘交易挑战,让6个主流大语言模型(LLMs)在Hyperliquid平台上,以每个模型1万美元的初始本金进行永续合约交易,并结合强化学习和VaR奖励函数自主管理仓位。尽管加密市场普遍下跌导致所有模型收益回撤,但DeepSeek V3.1长期领跑,表现优异。部分跟单DeepSeek策略的用户获得了可观收益,日收益率约为10%。Jay A计划在下一期挑战中引入人类交易员作为对照组。
(科技圈)
via 茶馆 - Telegram Channel
Alpha Arena创始人Jay A发起了一项AI加密货币实盘交易挑战,让6个主流大语言模型(LLMs)在Hyperliquid平台上,以每个模型1万美元的初始本金进行永续合约交易,并结合强化学习和VaR奖励函数自主管理仓位。尽管加密市场普遍下跌导致所有模型收益回撤,但DeepSeek V3.1长期领跑,表现优异。部分跟单DeepSeek策略的用户获得了可观收益,日收益率约为10%。Jay A计划在下一期挑战中引入人类交易员作为对照组。
(科技圈)
via 茶馆 - Telegram Channel
Alpha Arena创始人Jay A近日开启了一项挑战,他采用了6个主流的大语言模型,搭配强化学习框架,让语言模型在真实的加密货币市场环境中,结合VaR奖励函数进行实盘交易。每个AI模型获配一万美元的初始本金,在Hyperliquid交易永续合约,所有模型需要自行判断入场时机,自主管理仓位。Jay A还表示,将在下一期挑战引入人类交易员作为对照组。
截至发稿时,因加密市场普遍下跌,所有大模型的收益率均有所回撤,但DeepSeek V3.1的收益率仍然长期领跑,领先其他模型。有部分用户选择跟单DeepSeek的策略,收益可观,日收益率在10%左右。
Decrypt | nof1.ai(交易记录)
🍀在花频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
Anthropic 宣布推出 Claude Code 的网页端与 iOS 版本,以早期体验形式向 Pro 和 Max 订阅用户开放。该工具让开发者无需打开终端,即可在浏览器或手机上直接执行编程任务。
Claude Code 支持连接 GitHub 仓库,用户可通过自然语言描述任务,让 Claude 自动生成或修改代码,并实时查看执行进度。系统采用沙箱隔离机制以保障安全。Anthropic 表示,iOS 版本未来将根据开发者反馈进一步优化移动端体验。
9to5Mac
🍀在花频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
科技圈🎗在花频道📮:
三星Project Moohan XR头显亮相,运行Android XR系统 三星在Galaxy Unpacked大会上首次公开展示了其正在开发的Project Moohan XR头显。该设备由三星与谷歌合作开发,运行专为头显和智能眼镜设计的Android XR系统,标志着两家公司在扩展现实(XR)领域的深度布局。 从外观上看,Project Moohan融合了苹果Vision Pro和Meta Quest Pro的设计元素。三星计划首先面向开发者推出这款头显,进一步推动XR生态的发展。 The Verge…
三星将发布“Project Moohan”混合现实头显 对标苹果 Vision Pro
三星将于北京时间 10 月 22 日举行 Galaxy 发布会,推出其首款混合现实(MR)头显“Project Moohan”,被视为苹果 Vision Pro 的直接竞争产品。
新设备采用滑雪镜式外观、织物贴面与外接电池设计,运行由三星、谷歌与高通联合打造的 Android XR 系统。用户可通过 Gemini AI 进行语音交互,并使用 YouTube、Google Maps、Chrome 等应用实现虚拟多任务体验。三星称该产品“轻盈舒适、AI 原生”,但售价与具体规格尚未公布。
MacRumors
🍀在花频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
90% 代码由 AI 产出,我如何构建可靠上下文体系
从21年开始使用 copilot,能够用 ai 代码补全,到现在操作复杂项目模块级别的代码生成,它们对于使用者的视角和心态已经不在一个纬度。同样的工具,不同的 ai 使用者我发现也能拉开巨大的差距。所以写一篇文章和大家交流一下心得,如果有更佳的实践也非常欢迎一起交流。
Context is all you need
仅依赖 vibe coding(模型自行联想 → 自行搜索 → 直接改动)在一些场景下效果会不稳定:可能出现理解偏差、语义不一致,token 消耗也偏高,产出与预期不完全一致。直接使用对话 AI 更像是你临时拉来了一个专家级别的外包,他很聪明,但是刚来很容易还水土不服,还有可能误解你的意图写了一堆不想要的东西。本质上是 context,Garbage In, Garbage Out 输入质量直接影响输出质量。优化的第一性原理是 attention 机制:无关/模糊/矛盾的信息会分散 attention,影响结果稳定性。而上下文不足:只给单轮粗略描述时,模型不了解项目历史、代码风格与约束,也很难有高质量输出。
更稳妥的做法,是提供“合适的 context”,让模型在清晰边界内工作。这里的“合适”指最小但充分、结构化的信息,就像我们设计函数一样——对外只暴露接口,隐藏内部实现;context 的“精妙”也在于此:给模型的,应该是完成任务所需的接口面,而不是把实现细节一股脑儿倒进去。少了容易歧义、多了会稀释 attention,极端情况下还会撑爆上下文窗口。
这也是我为什么会做工程级别的 Context Engineering 的原因:把长期知识(架构/职责/规范)沉到“工程树”,每次按任务打包“顶层规则 + 模块 README(索引) + 任务 spec”的最小集,让模型在清晰边界内工作。现在在 IM 模块里,约 90% 的代码可以由 AI 稳定产出,复杂改动也能跨几十个文件一次到位,整体效率提升数倍。
我通常会关注下面三个层级:
● 单行/函数级:这个可以自由发挥,通常我会让 ai 针对复杂的函数写好注释。
● 文件级:通常在一个文件夹在,我会有一个 readme,它用于描述这个文件夹下每一个文件的职责和约束,ai 通过这个 readme 快速定位相关文件。文件内部也会补充注释,帮助 ai 理解细节。
● 工程级(跨模块/跨多文件):使用“顶层规则 + 模块 README(索引) + spec-driven 生成规划,可以做到横跨几十文件的复杂改动。
上面的作用是一个给 人 / ai 来看的索引,我们也是我们主要需要维护和关注的点。把长期知识(架构/职责/规范)组织成可索引的树。每次任务只打最小包——顶层规则 + 当前模块 README(作为索引)+ 本次任务 spec——减少无效搜索与反复推断,降低 token 消耗,同时提升对齐度与可复现性。
当我们构建好一套自动化的 context provider 机制之后,我们只需要考虑每次的需求需要哪个 scope 的文档参与,并不需要每次都手敲一堆 context 进去,这也是“项目级 Context Engineering”的价值所在。
当然也不是所有问题都要动用“牛刀”,简单任务用 vibe coding 更快;但层级越高,复杂度和对 AI 的可控性要求越强,方法论需要从“灵感驱动”转为“context 驱动”。
在一个复杂项目中我是如何实践的
此实践并非从项目一开始就这么设计,而是在模块开发中途逐步完善,中间也经历了非常大的改造过程。到目前已经跑得非常稳定,能够 cover 绝大部分需求的自动化产出。好的设计才能让 ai 长期稳定的输出,我的经验是要做到以下几点:
● 每一个文件尽量不要特别大,主要是在给 ai 的时候省上下文,避免 attention 被稀释
● 每一个模块职责清晰,避免 ai 在职责边界上犹豫
● 每一个文件夹级别都有 README,承担索引定位的职责
● 顶层有长期规则,沉淀通用约束
● 一定要保持对项目的掌控力度,不要 accept 你看不懂的架构级别的内容,保持代码架构的可维护性
为了实现这一点我经历了一波比较大的重构,把整个模块拆的非常细。演进到现在的结构大概是这样:
Context 供给机制
执行任务时,仅提供两份文档:
● App 顶层规则,这里是沉淀了长期通用的规范和约束。
● 当前模块 README,承担了 ai 进行理解的 索引的职责。当前模块 readme 还会引用更加底层的子模块 readme,形成多层索引。
AI 通过索引快速定位相关文件,context 收敛至最小集,避免全文搜索或向量匹配。适用于跨数十文件的复杂修改。
这个索引由于就是文档,所以非常方便做 review 或者自定义一些子模块规则。
自动化维护
我的做法是在顶层 README 内置规则:任务完成后,将长期知识(新职责、新约束)写入对应层级 README。每一个层级的 README 都承担了“知识沉淀 + 索引定位”的职责。它不会过度关注更加底层的实现细节,而是聚焦于“我是谁,我负责什么,我的约束是什么”。
1. AI First:优先让 AI 完成任务。
2. 自检更新:AI 读取预定义职责,补充变更至对应 README
3. 人工验证:小步 review 确保准确
此机制使文档树随工程演进自动维护,形成活的知识库。
以信任的角度逐渐积累和 AI 交互的手感
一上来要 handle 工程级别的 ai 任务,难度较大,可以先从低层级逐步积累经验和信任感:
● 单行级别:变量命名、正则、小重构。vibe coding 足够,回滚成本低,置信度高。
● 函数级别:小功能补全、I/O 改造。需要说清 I/O 契约与边界条件,开始约束风格。
● 文件级别:组件/页面/服务。要补充状态、路由、样式及依赖;纯聊天容易跑偏。
● 工程级别:跨模块或跨几十文件的改造/新能力。必须提供结构化的最小上下文包,否则 attention 被稀释、token 浪费、结果难复现。
无论是 ai 产出还是手写,我们最后都是人来为产出结果负责,所以逐步积累和 ai 交互的手感非常重要。即使是 ai 在干活,也务必要保持对整个项目的把控度,不是甩手掌柜。
工程师角色演进
过去:聚焦实现细节
现在:
1. 判断需求可达性(技术 + 资源)
2. 定义 scope context,作为 context provider 提供合适的上下文
3. 进行 planning - Alignment - 等待代码生成 - review - test
4. 对 ai 生成代码中的瑕疵补足最后一公里
公司级扩展
● 全链路 context-driven:产品 PRD → 设计 spec → 工程树 → 测试用例
● 未来:仅需指定 scope,AI 自动收敛最小 context,输出质量指数级提升。
一些还能提升生成效果的方法
● 引入人格,类似 BMad-Method,让 ai 提升某个方面的专业度。
● 复杂的需求使用 spec-driven 的方式,先跟 ai 进行大量的 alignment,确保规划无误之后,再让它实际执行。
一些正在思考的问题
● 我们正在经历新的价值模型的转变,当大量 coding 的工作可以逐步交给 ai 来完成,我们应该如何重新定义自身的价值?
未来已来,只是分布不均匀。
via 掘金人工智能本月最热 (author: Vadaski)
从21年开始使用 copilot,能够用 ai 代码补全,到现在操作复杂项目模块级别的代码生成,它们对于使用者的视角和心态已经不在一个纬度。同样的工具,不同的 ai 使用者我发现也能拉开巨大的差距。所以写一篇文章和大家交流一下心得,如果有更佳的实践也非常欢迎一起交流。
Context is all you need
仅依赖 vibe coding(模型自行联想 → 自行搜索 → 直接改动)在一些场景下效果会不稳定:可能出现理解偏差、语义不一致,token 消耗也偏高,产出与预期不完全一致。直接使用对话 AI 更像是你临时拉来了一个专家级别的外包,他很聪明,但是刚来很容易还水土不服,还有可能误解你的意图写了一堆不想要的东西。本质上是 context,Garbage In, Garbage Out 输入质量直接影响输出质量。优化的第一性原理是 attention 机制:无关/模糊/矛盾的信息会分散 attention,影响结果稳定性。而上下文不足:只给单轮粗略描述时,模型不了解项目历史、代码风格与约束,也很难有高质量输出。
更稳妥的做法,是提供“合适的 context”,让模型在清晰边界内工作。这里的“合适”指最小但充分、结构化的信息,就像我们设计函数一样——对外只暴露接口,隐藏内部实现;context 的“精妙”也在于此:给模型的,应该是完成任务所需的接口面,而不是把实现细节一股脑儿倒进去。少了容易歧义、多了会稀释 attention,极端情况下还会撑爆上下文窗口。
这也是我为什么会做工程级别的 Context Engineering 的原因:把长期知识(架构/职责/规范)沉到“工程树”,每次按任务打包“顶层规则 + 模块 README(索引) + 任务 spec”的最小集,让模型在清晰边界内工作。现在在 IM 模块里,约 90% 的代码可以由 AI 稳定产出,复杂改动也能跨几十个文件一次到位,整体效率提升数倍。
我通常会关注下面三个层级:
● 单行/函数级:这个可以自由发挥,通常我会让 ai 针对复杂的函数写好注释。
● 文件级:通常在一个文件夹在,我会有一个 readme,它用于描述这个文件夹下每一个文件的职责和约束,ai 通过这个 readme 快速定位相关文件。文件内部也会补充注释,帮助 ai 理解细节。
● 工程级(跨模块/跨多文件):使用“顶层规则 + 模块 README(索引) + spec-driven 生成规划,可以做到横跨几十文件的复杂改动。
上面的作用是一个给 人 / ai 来看的索引,我们也是我们主要需要维护和关注的点。把长期知识(架构/职责/规范)组织成可索引的树。每次任务只打最小包——顶层规则 + 当前模块 README(作为索引)+ 本次任务 spec——减少无效搜索与反复推断,降低 token 消耗,同时提升对齐度与可复现性。
当我们构建好一套自动化的 context provider 机制之后,我们只需要考虑每次的需求需要哪个 scope 的文档参与,并不需要每次都手敲一堆 context 进去,这也是“项目级 Context Engineering”的价值所在。
当然也不是所有问题都要动用“牛刀”,简单任务用 vibe coding 更快;但层级越高,复杂度和对 AI 的可控性要求越强,方法论需要从“灵感驱动”转为“context 驱动”。
在一个复杂项目中我是如何实践的
此实践并非从项目一开始就这么设计,而是在模块开发中途逐步完善,中间也经历了非常大的改造过程。到目前已经跑得非常稳定,能够 cover 绝大部分需求的自动化产出。好的设计才能让 ai 长期稳定的输出,我的经验是要做到以下几点:
● 每一个文件尽量不要特别大,主要是在给 ai 的时候省上下文,避免 attention 被稀释
● 每一个模块职责清晰,避免 ai 在职责边界上犹豫
● 每一个文件夹级别都有 README,承担索引定位的职责
● 顶层有长期规则,沉淀通用约束
● 一定要保持对项目的掌控力度,不要 accept 你看不懂的架构级别的内容,保持代码架构的可维护性
为了实现这一点我经历了一波比较大的重构,把整个模块拆的非常细。演进到现在的结构大概是这样:
模块 README 非手动维护,由 AI 在任务完成后自动更新。
Context 供给机制
执行任务时,仅提供两份文档:
● App 顶层规则,这里是沉淀了长期通用的规范和约束。
● 当前模块 README,承担了 ai 进行理解的 索引的职责。当前模块 readme 还会引用更加底层的子模块 readme,形成多层索引。
AI 通过索引快速定位相关文件,context 收敛至最小集,避免全文搜索或向量匹配。适用于跨数十文件的复杂修改。
这个索引由于就是文档,所以非常方便做 review 或者自定义一些子模块规则。
自动化维护
我的做法是在顶层 README 内置规则:任务完成后,将长期知识(新职责、新约束)写入对应层级 README。每一个层级的 README 都承担了“知识沉淀 + 索引定位”的职责。它不会过度关注更加底层的实现细节,而是聚焦于“我是谁,我负责什么,我的约束是什么”。
1. AI First:优先让 AI 完成任务。
2. 自检更新:AI 读取预定义职责,补充变更至对应 README
3. 人工验证:小步 review 确保准确
此机制使文档树随工程演进自动维护,形成活的知识库。
以信任的角度逐渐积累和 AI 交互的手感
一上来要 handle 工程级别的 ai 任务,难度较大,可以先从低层级逐步积累经验和信任感:
● 单行级别:变量命名、正则、小重构。vibe coding 足够,回滚成本低,置信度高。
● 函数级别:小功能补全、I/O 改造。需要说清 I/O 契约与边界条件,开始约束风格。
● 文件级别:组件/页面/服务。要补充状态、路由、样式及依赖;纯聊天容易跑偏。
● 工程级别:跨模块或跨几十文件的改造/新能力。必须提供结构化的最小上下文包,否则 attention 被稀释、token 浪费、结果难复现。
无论是 ai 产出还是手写,我们最后都是人来为产出结果负责,所以逐步积累和 ai 交互的手感非常重要。即使是 ai 在干活,也务必要保持对整个项目的把控度,不是甩手掌柜。
工程师角色演进
过去:聚焦实现细节
现在:
1. 判断需求可达性(技术 + 资源)
2. 定义 scope context,作为 context provider 提供合适的上下文
3. 进行 planning - Alignment - 等待代码生成 - review - test
4. 对 ai 生成代码中的瑕疵补足最后一公里
绝大部分的细节由 AI 处理,工程师专注于高维决策与把控。
公司级扩展
● 全链路 context-driven:产品 PRD → 设计 spec → 工程树 → 测试用例
● 未来:仅需指定 scope,AI 自动收敛最小 context,输出质量指数级提升。
这件事情只能从组织架构层面推动,需要领导者的支持与推动。
一些还能提升生成效果的方法
● 引入人格,类似 BMad-Method,让 ai 提升某个方面的专业度。
● 复杂的需求使用 spec-driven 的方式,先跟 ai 进行大量的 alignment,确保规划无误之后,再让它实际执行。
一些正在思考的问题
● 我们正在经历新的价值模型的转变,当大量 coding 的工作可以逐步交给 ai 来完成,我们应该如何重新定义自身的价值?
未来已来,只是分布不均匀。
via 掘金人工智能本月最热 (author: Vadaski)
手机博物馆 —— 3D 沉浸重温经典
🏛️ 程序员叉子周做了一个可以沉浸体验 3D 手机的线上博物馆,目前已上线 Nokia 3250,Nokia 5300,Nokia N93i,Nokia 5310 和 Lumia 1020 这几款经典机
📱 除了极度还原的建模与材质,你还可以操作旋转式机身、开机体验复古界面,并配合原汁原味的音效。和之前介绍过的 Funes 异曲同工,在一切数字化的年代,3D 就是真实世界的 Github
💡 手机,是一个高速发展和迭代的产品,很多手机虽然已经被淘汰,但是他们曾风靡一时,陪伴了无数人度过了某段精彩的时光。或许你会像我一样偶尔会想回味一下这些手机。如果,你在抽屉里已经再也找不到它,可以来这里看看
📮 这篇文章是转发给你的吗?点击这里加入频道,一起探索更多有趣的内容!
via Roller | AI AGENT 中文社区 - Telegram Channel
🏛️ 程序员叉子周做了一个可以沉浸体验 3D 手机的线上博物馆,目前已上线 Nokia 3250,Nokia 5300,Nokia N93i,Nokia 5310 和 Lumia 1020 这几款经典机
📱 除了极度还原的建模与材质,你还可以操作旋转式机身、开机体验复古界面,并配合原汁原味的音效。和之前介绍过的 Funes 异曲同工,在一切数字化的年代,3D 就是真实世界的 Github
💡 手机,是一个高速发展和迭代的产品,很多手机虽然已经被淘汰,但是他们曾风靡一时,陪伴了无数人度过了某段精彩的时光。或许你会像我一样偶尔会想回味一下这些手机。如果,你在抽屉里已经再也找不到它,可以来这里看看
📮 这篇文章是转发给你的吗?点击这里加入频道,一起探索更多有趣的内容!
via Roller | AI AGENT 中文社区 - Telegram Channel
Anthropic宣布推出生命科学版Claude
Anthropic公司宣布推出面向研究人员的人工智能产品Claude for Life Sciences,其以公司现有的大模型为基础,支持与Benchling、PubMed、10x Genomics等其他科学工具连接。Anthropic公司表示,该产品将能够帮助研究人员完成从文献综述到提出假设、分析数据、起草监管申请等研究各个阶段。这也标志着Anthropic公司首次正式进入生命科学领域。公司生物和生命科学主管艾布拉姆斯表示:“现在对我们来说是一个关键时刻,我们决定这是一个值得大力投资的领域。我们希望全球相当大比例的生命科学工作都能在Claude上运行,就像如今在编程领域那样。”
—— CNBC
via 风向旗参考快讯 - Telegram Channel
Anthropic公司宣布推出面向研究人员的人工智能产品Claude for Life Sciences,其以公司现有的大模型为基础,支持与Benchling、PubMed、10x Genomics等其他科学工具连接。Anthropic公司表示,该产品将能够帮助研究人员完成从文献综述到提出假设、分析数据、起草监管申请等研究各个阶段。这也标志着Anthropic公司首次正式进入生命科学领域。公司生物和生命科学主管艾布拉姆斯表示:“现在对我们来说是一个关键时刻,我们决定这是一个值得大力投资的领域。我们希望全球相当大比例的生命科学工作都能在Claude上运行,就像如今在编程领域那样。”
—— CNBC
via 风向旗参考快讯 - Telegram Channel
Edge在用户使用ChatGPT时建议尝试Copilot
如果你在微软Edge浏览器中访问ChatGPT或Perplexity等AI网站,你会注意到一个微妙的“尝试Copilot”提示。该提示出现在Edge的地址栏内。如果你点击该提示,它将在Edge浏览器的侧边栏中打开Copilot。这是个巧妙的设计,提醒那些在Edge中打开ChatGPT的人尝试同样由OpenAI的GPT-5驱动的Copilot助手。Copilot并不是特别受欢迎。如果你查看分析公司Similar Web的市场份额数据,微软Copilot在网页端上的份额不到百分之二。然而,如果加上来自Windows、Microsoft 365或Edge的数据,Copilot的份额将会高得多。
—— Windows Latest
via 风向旗参考快讯 - Telegram Channel
如果你在微软Edge浏览器中访问ChatGPT或Perplexity等AI网站,你会注意到一个微妙的“尝试Copilot”提示。该提示出现在Edge的地址栏内。如果你点击该提示,它将在Edge浏览器的侧边栏中打开Copilot。这是个巧妙的设计,提醒那些在Edge中打开ChatGPT的人尝试同样由OpenAI的GPT-5驱动的Copilot助手。Copilot并不是特别受欢迎。如果你查看分析公司Similar Web的市场份额数据,微软Copilot在网页端上的份额不到百分之二。然而,如果加上来自Windows、Microsoft 365或Edge的数据,Copilot的份额将会高得多。
—— Windows Latest
via 风向旗参考快讯 - Telegram Channel
马斯克预测Grok 5模型实现AGI概率达10%
马斯克在社交平台上发布预测,称其旗下AI公司xAI正在研发的 Grok 5 大型语言模型有10%的概率实现通用人工智能(AGI),且该概率呈持续上升趋势。马斯克将AGI定义为“能够完成人类通过计算机辅助实现的所有任务”的智能系统,并强调其能力上限不会超越“全体人类与计算机协同工作”的总体水平。他指出,当前主流AI模型多聚焦于特定任务优化,而AGI需具备跨领域知识迁移、自主学习及创造性思维等人类核心能力。例如,Grok 5若成功实现AGI,将不再局限于文本生成或图像识别,而是能像人类一样综合运用逻辑推理、情感理解与社会常识解决复杂问题。
—— 环球网
via 风向旗参考快讯 - Telegram Channel
马斯克在社交平台上发布预测,称其旗下AI公司xAI正在研发的 Grok 5 大型语言模型有10%的概率实现通用人工智能(AGI),且该概率呈持续上升趋势。马斯克将AGI定义为“能够完成人类通过计算机辅助实现的所有任务”的智能系统,并强调其能力上限不会超越“全体人类与计算机协同工作”的总体水平。他指出,当前主流AI模型多聚焦于特定任务优化,而AGI需具备跨领域知识迁移、自主学习及创造性思维等人类核心能力。例如,Grok 5若成功实现AGI,将不再局限于文本生成或图像识别,而是能像人类一样综合运用逻辑推理、情感理解与社会常识解决复杂问题。
—— 环球网
via 风向旗参考快讯 - Telegram Channel