https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
Elevated error rates on claude.ai
Feb 6, 19:30 UTC
Resolved - This issue has been resolved.
via Claude Status - Incident History
Feb 6, 19:30 UTC
Resolved - This issue has been resolved.
via Claude Status - Incident History
🤝 英伟达 CEO 重申与 OpenAI 合作关系稳定
英伟达(NVIDIA)首席执行官黄仁勋近日再次明确表示,英伟达与 OpenAI 之间不存在任何冲突或矛盾。他重申两家公司保持着正常的合作关系,以此回应近期市场关于双方关系紧张的传闻。
(财经快讯)
via 茶馆 - Telegram Channel
英伟达(NVIDIA)首席执行官黄仁勋近日再次明确表示,英伟达与 OpenAI 之间不存在任何冲突或矛盾。他重申两家公司保持着正常的合作关系,以此回应近期市场关于双方关系紧张的传闻。
(财经快讯)
via 茶馆 - Telegram Channel
黄仁勋谈AI应用与安全
英伟达(Nvidia)CEO黄仁勋在思科AI峰会上表示,企业应用AI应采取“百花齐放”后再进行筛选的策略。他将软件比作“计算器”,认为AI智能体旨在利用工具而非取代工具。出于对核心资产安全性的考虑,黄仁勋透露英伟达倾向于在本地而非云端处理内部对话数据。
马斯克整合SpaceX与xAI
埃隆·马斯克确认将SpaceX与xAI合并,旨在打造估值达万亿美元的实体。此举通过捆绑SpaceX及其星链(Starlink)业务的盈利能力,旨在增强xAI的融资能力并应对其债务压力。尽管部分投资者对治理结构表示担忧,但该集团仍计划在未来几个月内上市,以吸引关注太空与AI领域的零售投资者。
OpenAI巨额融资进展
OpenAI正进行估值超过8000亿美元的新一轮融资,并已锁定软银、英伟达和亚马逊的投资。软银投入超过400亿美元,成为其最大股东之一;英伟达计划注资约200亿美元以巩固供应关系。与此同时,为降低对单一供应商的依赖,OpenAI正积极为推理工作负载寻找英伟达GPU以外的硬件替代方案。
硬件与软件市场的两极分化
自2025年初以来,受AI基础设施需求驱动,半导体板块股价上涨约65%。相比之下,软件及服务板块下跌8%,反映出市场担心AI技术可能使传统软件产品过时。投资者目前更青睐提供底层硬件的企业,而软件公司则面临必须证明其产品不可被AI直接取代的估值压力。
(路透社)
via 茶馆 - Telegram Channel
Making AI work for everyone, everywhere: our approach to localization
OpenAI’s mission is to ensure AI benefits all of humanity, and to fulfill this mission we need to meet people where they are all over the world.
AI is increasingly recognized as critical national infrastructure, on a par with electricity. Governments and institutions around the world want to ensure their citizens and economies can benefit from the AI era by having access to the most capable systems available.
For AI to deliver on that promise, it also needs to be locally relevant. That means speaking in local languages and with local accents, respecting local laws, and reflecting cultural norms and values.
Only a small number of countries, however, are in a position to develop frontier AI models themselves. For most, the challenge is not how to build a model from scratch, but how to adapt the best available AI so it works for their specific context. This is something we consistently hear from governments around the world: they want sovereign AI they can build with us, not just systems translated into their language.
Through our OpenAI for Countries initiative, we have been exploring how localization could work in practice. The goal is to allow for localized AI systems, while still benefiting from a global, frontier-level model.
We are currently piloting a localized version of ChatGPT for students in Estonia as part of our ChatGPT Edu work, incorporating local curricula and pedagogical approaches. We are also exploring pilot localisation efforts with other countries. As part of our commitment to transparency in how AI is researched and deployed, we are sharing more detail on how localization works.
Our Model Spec is a public document that sets out how we intend our models to behave. We train our models to follow the Spec, and continuously refine it via a collaborative, whole-of-OpenAI process that incorporates what our teams are hearing from people around the world. The Spec speaks to the gamut of ways our models are used, ranging from ChatGPT, to experiences developers build on our platform, to other contexts. These rules, which apply everywhere our models are deployed, define clear boundaries on what can and cannot be changed and our commitment to be transparent about changes.
The Model Spec includes “red-line principles” that apply to all deployments, including those under the OpenAI for Countries program. In them, we emphasize that “human safety and human rights are paramount to OpenAI’s mission,” and make clear that:
● We will not allow our models to enable severe harms such as acts of violence, weapons of mass destruction, terrorism, persecution or mass surveillance.
● We will not allow our models to be used for targeted or scaled exclusion, manipulation, for undermining human autonomy, or eroding participation in civic processes.
● We are committed to safeguarding individuals’ privacy in their interactions with AI.
When OpenAI provides a first-party experience directly to consumers like ChatGPT we also commit that through it:
● People should have easy access to trustworthy safety-critical information from our models.
● Customization, personalization, and localization will not override the binding rules throughout the Model Spec. This includes the objective point-of-view principle, meaning localization may affect language or tone, but it cannot change the substance or balance of facts presented.
● People should have transparency into the important rules and reasons behind our models’ behavior, e.g., any content omitted due to legal requirements will be transparently indicated to the user in each model response, specifying the type of information removed and the rationale for its removal, without disclosing the redacted content itself. Similarly, any information added will also be transparently identified.
As we explore localized, sovereign AI through OpenAI for Countries, we are committed to keep on sharing more about what we learn, and to evolving our approach transparently.
via OpenAI News
OpenAI’s mission is to ensure AI benefits all of humanity, and to fulfill this mission we need to meet people where they are all over the world.
AI is increasingly recognized as critical national infrastructure, on a par with electricity. Governments and institutions around the world want to ensure their citizens and economies can benefit from the AI era by having access to the most capable systems available.
For AI to deliver on that promise, it also needs to be locally relevant. That means speaking in local languages and with local accents, respecting local laws, and reflecting cultural norms and values.
Only a small number of countries, however, are in a position to develop frontier AI models themselves. For most, the challenge is not how to build a model from scratch, but how to adapt the best available AI so it works for their specific context. This is something we consistently hear from governments around the world: they want sovereign AI they can build with us, not just systems translated into their language.
Through our OpenAI for Countries initiative, we have been exploring how localization could work in practice. The goal is to allow for localized AI systems, while still benefiting from a global, frontier-level model.
We are currently piloting a localized version of ChatGPT for students in Estonia as part of our ChatGPT Edu work, incorporating local curricula and pedagogical approaches. We are also exploring pilot localisation efforts with other countries. As part of our commitment to transparency in how AI is researched and deployed, we are sharing more detail on how localization works.
Our Model Spec is a public document that sets out how we intend our models to behave. We train our models to follow the Spec, and continuously refine it via a collaborative, whole-of-OpenAI process that incorporates what our teams are hearing from people around the world. The Spec speaks to the gamut of ways our models are used, ranging from ChatGPT, to experiences developers build on our platform, to other contexts. These rules, which apply everywhere our models are deployed, define clear boundaries on what can and cannot be changed and our commitment to be transparent about changes.
The Model Spec includes “red-line principles” that apply to all deployments, including those under the OpenAI for Countries program. In them, we emphasize that “human safety and human rights are paramount to OpenAI’s mission,” and make clear that:
● We will not allow our models to enable severe harms such as acts of violence, weapons of mass destruction, terrorism, persecution or mass surveillance.
● We will not allow our models to be used for targeted or scaled exclusion, manipulation, for undermining human autonomy, or eroding participation in civic processes.
● We are committed to safeguarding individuals’ privacy in their interactions with AI.
When OpenAI provides a first-party experience directly to consumers like ChatGPT we also commit that through it:
● People should have easy access to trustworthy safety-critical information from our models.
● Customization, personalization, and localization will not override the binding rules throughout the Model Spec. This includes the objective point-of-view principle, meaning localization may affect language or tone, but it cannot change the substance or balance of facts presented.
● People should have transparency into the important rules and reasons behind our models’ behavior, e.g., any content omitted due to legal requirements will be transparently indicated to the user in each model response, specifying the type of information removed and the rationale for its removal, without disclosing the redacted content itself. Similarly, any information added will also be transparently identified.
As we explore localized, sovereign AI through OpenAI for Countries, we are committed to keep on sharing more about what we learn, and to evolving our approach transparently.
via OpenAI News
Google 安卓工程副总裁 Eric Kay 证实,公司计划在 2026 年将 Quick Share 与苹果 AirDrop 的跨系统文件传输功能扩展至更多安卓设备。该功能于去年 11 月首次推出,初期仅限 Pixel 10 系列手机使用。目前,高通(Qualcomm)和 Nothing 已明确表达支持意向。由于高通芯片驱动着包括三星 Galaxy Z Fold 7 和一加 15 在内的大多数安卓旗舰机,此举将大幅改善安卓与 iPhone、iPad 及 MacBook 用户间的文件共享体验。在实际操作中,iPhone 接收端需将 AirDrop 设置为“所有人,10 分钟”方可接收文件。此外,Google 透露正与苹果合作开发新的数据迁移系统,旨在简化用户从 iOS 切换至安卓平台时的资料传输过程。
(PCMag.com)
via 茶馆 - Telegram Channel
周五美国科技股在经历连续三天的抛售(纳斯达克市值缩水逾1万亿美元)后迎来反弹。纳斯达克综合指数当日上涨1.1%,但全周仍下跌近3%。FactSet数据显示,该指数前100大股票自上周末以来市值共蒸发1.2万亿美元。英伟达周五上涨6%,但全周累计下跌4%。
亚马逊股价周五逆势下跌8%,主因是该公司宣布今年资本支出将达到2000亿美元。目前,亚马逊、谷歌、Meta和微软计划今年在人工智能建设上共投入6600亿美元,较2025年增长60%。投资者对AI投资规模及其回报周期表示担忧,导致市场对相关企业的选择更具针对性。
此外,Anthropic发布的新软件工具引发了软件行业的抛售潮,Ares和Blue Owl等向软件公司提供贷款的私募信贷机构也受到波及。高盛分析师指出,提供软件和数据服务的公司被认为更易受到AI工具的冲击。受避险情绪影响,比特币本周跌破7万美元关口,目前在6.73万美元附近波动。
(FT)
via 茶馆 - Telegram Channel
美国总统特朗普在接受NBC新闻采访时承认,他从未亲自使用过ChatGPT或Claude等AI聊天机器人,但他认为人工智能的重要性将超越互联网。特朗普预测AI将成为“最大的就业创造者”,并重点提及军事和医疗行业的受益前景。尽管数据显示2025年美国仅创造了58.4万个就业岗位,远低于2023年和2024年的200万个,但特朗普强调目前美国就业人数仍处于历史高位。
针对AI引发的电力短缺问题,特朗普指出AI的能源需求可能达到美国当前总产量的两倍。他提出让新建建筑和数据中心自行建设发电厂的构想,并提到微软已同意为其能源消耗付费。此外,面对AI可能失控或产生负面影响的担忧,特朗普表示作为总统,他将承担相关责任。针对能源瓶颈,业内人士如凯文·奥利里预测半数数据中心项目可能因电力不足流产,而埃隆·马斯克则已向FCC申请建设包含100万颗卫星的轨道数据中心。
(PCMag.com)
via 茶馆 - Telegram Channel
#AI #大模型
🆕 OpenAI 和 Anthropic 同时发布新模型:又是「史诗级」更新
现在各大 AI 厂商时不时来个大更新,其实我已经无感了,我只关心价格,最近用 Gemini 比较多,无非是便宜而且够用。
⭐ OpenAI GPT-5.3-Codex
目前「最能干活、最可靠、最接近“10x 程序员同事」的编码智能体,应该是一个可靠的编程助手!
⭐ Anthropic Claude Opus 4.6
目前最强的「深度思考 + 知识工作 + 长上下文代理」模型,特别适合需要高质量规划、纠错、跨领域复杂任务的企业/研究/专业人士。
↗️ 相关阅读
好消息!ZenMux 可限时免费体验两周「Claude Opus 4.6」模型
📮投稿 📢频道 💬群聊 🔎索引
via 极客分享 - Telegram Channel
AI 自主社会与工具生态
AI 智能体(Agents)正从单一工具向自主组织演进。开源项目 OpenClaw(原 Clawdbot)允许 AI 在无需人类提示的情况下,自主访问计算机系统完成回复邮件、监控价格及预订航班等任务,并通过即时通讯软件反馈结果。目前,该项目已计划成立正式公司并招聘人类 CEO。
在此趋势下,AI 专属社交平台 Moltbook 以及 AI 雇佣人类平台 RentAHuman 相继出现。在 RentAHuman 平台上,AI 可以发布“悬赏”任务,雇佣人类完成代取快递等物理世界任务。此外,网络上还出现了名为“Crustafarianism”的 AI 宗教。
行业竞争与市场动态
OpenAI 本周推出了 Frontier 系统,提供可协作的 AI 员工集群,目前 HP、Uber、Oracle 及 State Farm 等企业已投入使用。OpenAI 首席执行官 Sam Altman 在接受采访时表示,其公司继任计划可能包括将管理权移交给 AI。此外,Altman 与埃隆·马斯克的诉讼案预计将于 4 月开庭。
竞争对手 Anthropic 发布新模型后,引发了高管层对 AI 取代人工岗位的担忧,本周科技股总市值蒸发约 1 万亿美元。Anthropic 还计划在超级碗期间投放广告,讽刺 ChatGPT 的广告模式,此举引发了包括 Altman 在内的多名 OpenAI 高管在社交媒体上的反击。
(PCMag.com)
via 茶馆 - Telegram Channel
Gemini技术故障导致部分用户不显示Pro选项
一些已经订阅了Gemini Pro 服务的用户发现下拉菜单中不再显示 Pro 选项。 经过社区专家咨询 Google One 支持团队,确认这是一个技术故障。用户需等待问题解决。
—— Gemini帮助社区
via 风向旗参考快讯 - Telegram Channel
一些已经订阅了Gemini Pro 服务的用户发现下拉菜单中不再显示 Pro 选项。 经过社区专家咨询 Google One 支持团队,确认这是一个技术故障。用户需等待问题解决。
—— Gemini帮助社区
via 风向旗参考快讯 - Telegram Channel
#BestAI 支持claude code官方2.8折 配合ccr支持非claude模型
https://api.oaibest.com
✨ 2023年12月起稳定运行 | 📈 日耗万刀高并发企业客户的选择 | ⚡️优化线路高速直连 | 😘 稳定省心
💡 注册赠送$0.2免费试用。通过 钱包 右侧的邀请链接注册,邀请者和注册人各得$1
✅ 支持claude code,教程点此 CCR最新配置文件 创建令牌请使用claude code分组,推荐模型claude-sonnet-4-5
2026/2/6更新
✅ oai新增模型:gpt-5.3-codex, gpt-5.2-pro
✅ a\新增模型:claude-opus-4-6, claude-opus-4-6-thinking
✅ xai新增模型:grok-code-fast-1,grok-imagine-1.0,grok-imagine-1.0-video
✅ 其他新增模型: gemini-translate-cn,glm-4.7-flash,minimax-m2-her
https://api.oaibest.com
✨ 2023年12月起稳定运行 | 📈 日耗万刀高并发企业客户的选择 | ⚡️优化线路高速直连 | 😘 稳定省心
💡 注册赠送$0.2免费试用。通过 钱包 右侧的邀请链接注册,邀请者和注册人各得$1
✅ 支持claude code,教程点此 CCR最新配置文件 创建令牌请使用claude code分组,推荐模型claude-sonnet-4-5
2026/2/6更新
✅ oai新增模型:gpt-5.3-codex, gpt-5.2-pro
✅ a\新增模型:claude-opus-4-6, claude-opus-4-6-thinking
✅ xai新增模型:grok-code-fast-1,grok-imagine-1.0,grok-imagine-1.0-video
✅ 其他新增模型: gemini-translate-cn,glm-4.7-flash,minimax-m2-her
AI 抢人大战彻底疯狂!年薪 128 万招增长工程师,阿里“千问”豪掷 30 亿免单:谁才是未来的流量王者?
这个春节,互联网大佬们的“红包大战”变了味——不再只是简单的摇一摇,而是演变成了大模型时代的 AI 入口争夺战。在这场烧钱换流量的博弈中,各大 AI 应用不仅在拼财力,更在疯狂“抢人”。
首先,是令人咋舌的“天价年薪”。
根据脉脉等招聘平台的数据,AI 相关的核心岗位已经成了当下的“金饭碗”。以阿里的 通义千问 为例,其为“用户增长算法工程师”开出的年薪最高竟可达 128 万元。这种为了抢夺顶尖增长人才而不惜代价的姿态,足以说明各大巨头在推广 AI 应用上的紧迫感。BOSS 直聘的数据也佐证了这一点:2025 年 AI 岗位的发布量增速高达 74.1%,几乎是各行业中的独一档。
其次,是直接砸向用户的“30 亿大礼包”。
为了能在春节这个超级流量窗口抢占高地,阿里千问 开启了名为“春节 30 亿大免单”的暴力拉新模式。每个用户都有机会获得总价值数百元的免单卡,这种真金白银的投入,目的只有一个:让你的手机里从此多一个 AI 应用的常驻席位。
最后,是巨头间的“大乱斗”格局。
不仅是阿里,字节跳动的豆包、腾讯的元宝也纷纷加入战局,在各大社交和职场平台展开激烈的用户与人才双重争夺。这场由 上海智信普惠科技有限公司、北京春田知韵科技有限公司 以及 深圳市腾讯计算机系统有限公司 等企业背后角力的 AI 大战,正将行业竞争推向白热化。
在 AI 应用大爆发的 2026 年,谁能通过“百万年薪”抢到牛人,谁能通过“亿级红包”留住用户,谁就有可能成为下一代互联网的超级入口。
via AI新闻资讯 (author: AI Base)
这个春节,互联网大佬们的“红包大战”变了味——不再只是简单的摇一摇,而是演变成了大模型时代的 AI 入口争夺战。在这场烧钱换流量的博弈中,各大 AI 应用不仅在拼财力,更在疯狂“抢人”。
首先,是令人咋舌的“天价年薪”。
根据脉脉等招聘平台的数据,AI 相关的核心岗位已经成了当下的“金饭碗”。以阿里的 通义千问 为例,其为“用户增长算法工程师”开出的年薪最高竟可达 128 万元。这种为了抢夺顶尖增长人才而不惜代价的姿态,足以说明各大巨头在推广 AI 应用上的紧迫感。BOSS 直聘的数据也佐证了这一点:2025 年 AI 岗位的发布量增速高达 74.1%,几乎是各行业中的独一档。
其次,是直接砸向用户的“30 亿大礼包”。
为了能在春节这个超级流量窗口抢占高地,阿里千问 开启了名为“春节 30 亿大免单”的暴力拉新模式。每个用户都有机会获得总价值数百元的免单卡,这种真金白银的投入,目的只有一个:让你的手机里从此多一个 AI 应用的常驻席位。
最后,是巨头间的“大乱斗”格局。
不仅是阿里,字节跳动的豆包、腾讯的元宝也纷纷加入战局,在各大社交和职场平台展开激烈的用户与人才双重争夺。这场由 上海智信普惠科技有限公司、北京春田知韵科技有限公司 以及 深圳市腾讯计算机系统有限公司 等企业背后角力的 AI 大战,正将行业竞争推向白热化。
在 AI 应用大爆发的 2026 年,谁能通过“百万年薪”抢到牛人,谁能通过“亿级红包”留住用户,谁就有可能成为下一代互联网的超级入口。
via AI新闻资讯 (author: AI Base)
亚马逊加码 AI 战局:2026年资本开支或达2000亿美元,AWS 仍是盈利“奶牛”
电商与云计算巨头亚马逊(Amazon)正以前所未有的力度布局人工智能。据最新财报显示,亚马逊预计今年资本开支将同比增长超过50%,并计划在2026年向 AI 基础设施投入约2000亿美元。这一举动表明,亚马逊已将算力建设视为支撑未来增长的头号战略,全力确保 Amazon Web Services (AWS) 在竞争激烈的云市场中保持领先。
亚马逊首席执行官 Andy Jassy 在财报会议上明确表示,尽管支出巨大,但这是维持公司长期竞争力的必要投入。目前,AWS 仍是亚马逊的“利润引擎”,其四季度营收达356亿美元,贡献了公司超过60% 的运营利润。为了进一步挖掘 AI 的商业价值,AWS 近期密集推出了超过1000项新应用,并深入到客户服务、广告自动化及内容分发等实操场景。
除了云业务的激进扩张,亚马逊在零售与广告领域也展现出“以 AI 换效率”的思路。公司正在利用 AI 工具为 Prime Video 广告主提供自动化创意生成方案,带动四季度广告收入同比提升22% 至213亿美元。与此同时,亚马逊也在冷峻地调整线下版图,对 Amazon Fresh 等门店计提约6.1亿美元的减值,并计划将其资源整合进 Whole Foods 体系,以优化重资产布局。
尽管人员结构在持续优化,本季度裁撤了约1.4万名企业员工,但亚马逊在 AI 和云计算领域的招聘并未停步。市场分析认为,随着亚马逊、微软、谷歌与 Meta 四大巨头今年的合计资本开支预计突破6300亿美元,一场围绕 AI 基础设施的全球“军备竞赛”已进入白热化阶段。
划重点:
● 💰 重金押注算力:亚马逊计划2026年投入2000亿美元用于 AI 基础设施,资本开支增速位居行业前列。
● 📈 盈利核心地位稳固:AWS 以不到20% 的营收贡献了超过60% 的利润,并正通过1000余项 AI 新应用加速变现。
● 🔄 业务重心调整:公司通过 AI 赋能广告业务实现强劲增长,同时收缩表现不及预期的线下门店,向轻资产与高效率转型。
via AI新闻资讯 (author: AI Base)
电商与云计算巨头亚马逊(Amazon)正以前所未有的力度布局人工智能。据最新财报显示,亚马逊预计今年资本开支将同比增长超过50%,并计划在2026年向 AI 基础设施投入约2000亿美元。这一举动表明,亚马逊已将算力建设视为支撑未来增长的头号战略,全力确保 Amazon Web Services (AWS) 在竞争激烈的云市场中保持领先。
亚马逊首席执行官 Andy Jassy 在财报会议上明确表示,尽管支出巨大,但这是维持公司长期竞争力的必要投入。目前,AWS 仍是亚马逊的“利润引擎”,其四季度营收达356亿美元,贡献了公司超过60% 的运营利润。为了进一步挖掘 AI 的商业价值,AWS 近期密集推出了超过1000项新应用,并深入到客户服务、广告自动化及内容分发等实操场景。
除了云业务的激进扩张,亚马逊在零售与广告领域也展现出“以 AI 换效率”的思路。公司正在利用 AI 工具为 Prime Video 广告主提供自动化创意生成方案,带动四季度广告收入同比提升22% 至213亿美元。与此同时,亚马逊也在冷峻地调整线下版图,对 Amazon Fresh 等门店计提约6.1亿美元的减值,并计划将其资源整合进 Whole Foods 体系,以优化重资产布局。
尽管人员结构在持续优化,本季度裁撤了约1.4万名企业员工,但亚马逊在 AI 和云计算领域的招聘并未停步。市场分析认为,随着亚马逊、微软、谷歌与 Meta 四大巨头今年的合计资本开支预计突破6300亿美元,一场围绕 AI 基础设施的全球“军备竞赛”已进入白热化阶段。
划重点:
● 💰 重金押注算力:亚马逊计划2026年投入2000亿美元用于 AI 基础设施,资本开支增速位居行业前列。
● 📈 盈利核心地位稳固:AWS 以不到20% 的营收贡献了超过60% 的利润,并正通过1000余项 AI 新应用加速变现。
● 🔄 业务重心调整:公司通过 AI 赋能广告业务实现强劲增长,同时收缩表现不及预期的线下门店,向轻资产与高效率转型。
via AI新闻资讯 (author: AI Base)
外设圈的“卷王”又出新招了!2月6日消息,电竞外设品牌 Ninjutso 正式宣布,旗下备受期待的无线电竞鼠标新品 Sora V3 将于2月7日20:00正式开售。 这款专为“抓握”玩家量身定制的性能怪兽,首发特惠价仅为 599元。
首先,它首发并独占了原相的“顶配”心脏。
Sora V3搭载了 AIMNINJA2PRO45K 传感器。 这可不是普通的参数升级,它不仅支持最高 45,000DPI 和0.1步进的精细调节,更是原相首款采用双光学引擎算法的传感器。 简单来说,无论是在 FPS 游戏高频次的抬鼠场景,还是复杂的表面识别上,它都能提供更低的延迟和更强的“跟手感”,同时功耗大幅下降。
其次,是轻如羽毛却硬如骨骼的极致手感。
为了追求极致性能,Sora V3内部采用了高强度的 ESS 内骨骼支撑系统,在保证强度的前提下,将总重量压低到了惊人的 40g。 配合自研的 HyperSwitch 预压微动和 HyperScroll 滚轮,每一次点击和滚动都清脆有力。 外壳覆盖的 HyperFinish 亲肤防滑涂层,更是让抓握手感更进一步。
最后,在回报率与续航上,它也做到了“不做选择题”。
Sora V3在有线和2.4GHz 无线模式下均支持 8kHz 高回报率。 借助原相参与研发的胶囊式强抗干扰接收器,在1kHz 模式下续航可达3.5周,即便开启极致的8kHz 模式,也能维持约1周的战斗火力。
via AI新闻资讯 (author: AI Base)
面壁智能正式官宣了其首款 AI 原生端侧智能开发板——“松果派(Pinea Pi)”。这款产品的面世,标志着 AI 技术正从云端深入到更细微的硬件底层,旨在让开发者能够像使用乐高积木一样,快速构建出具备智能感知的物理设备。
“松果派”基于高性能的 NVIDIA Jetson 系列模组打造,集成了麦克风、摄像头及丰富的多模态硬件接口。其核心优势在于深度适配了面壁自研的 MiniCPM 系列端侧大模型,提供了275TOPS(INT8)的澎湃算力。这种软硬一体的设计,确保了模型在端侧运行的极高效率,让离线环境下的多模态交互成为可能。
在开发体验上,“松果派”提出了“Agent 原生”和“自然语言直驱”的理念。这意味着开发者即使没有深厚的技术背景,也能通过自然语言指令来驱动硬件功能开发。无论是打造一个离线的个人知识助理,还是开发复杂的具身智能机器人,“松果派”都能提供从模型优化到智能决策的全链路工具支持。
安全性与稳定性也是该开发板的一大卖点。通过全链路离线运行,用户的数据无需上传云端,极大程度地保障了隐私安全,同时也避免了网络延迟对实时任务的影响。面壁智能表示,该产品计划于2026年年中正式发布,目前已通过官网和开发者社群持续更新进展。
via AI新闻资讯 (author: AI Base)
Claude Opus 4.6限时免费!ZenMux重磅升级,AI模型聚合平台迎来新福利
模型聚合平台ZenMux近日宣布,将最新发布的Claude Opus4.6模型加入其订阅制套餐的免费档位,并提供限时2周免费体验。这一举措迅速引发AI爱好者和开发者的热议,被视为今年AI领域的一大福利。作为AIbase的编辑,我们对这一事件进行了梳理和分析,带您了解详情。
Opus4.6模型亮点解析
Claude Opus4.6作为Anthropic最新推出的AI模型,在性能上实现了显著提升。根据平台信息,该模型支持高达100万Token的超大记忆窗口,能够处理复杂任务,并引入Agent Teams多代理协作功能。在多项基准测试中,Opus4.6超越了GPT-5.2等竞品,尤其在编程、金融和法律等领域表现出色。 其推理速度更快、响应质量更高,为用户提供了更高效的AI交互体验。
这一模型的免费开放,意味着用户无需额外付费即可上手顶级AI能力,特别适合初次探索或测试场景的用户。不过,需要注意的是,免费档位主要限于聊天功能,且有一定的使用限制,如每5小时5次对话。
ZenMux订阅制套餐详解
ZenMux作为一站式AI模型聚合平台,此次更新将Opus4.6无缝集成到其订阅体系中。平台提供Free、Pro、Max和Ultra四个档位,其中Free档位限时免费接入Opus4.6,用户可零成本体验。 Pro档位月费20美元起,提供更高用量限额,适合个人开发者;Max和Ultra档位则面向重度用户和团队,月费分别为100美元和400美元,支持无限量使用。
平台的优势在于“一键切换”多款顶级模型,包括GPT-5.2Pro、Gemini3Pro、Kimi K2.5等,用户无需管理多个账号或API密钥。 相比传统按量付费模式,这一订阅制避免了“烧钱”焦虑,尤其对编程和内容创作场景友好。ZenMux还强调其企业级架构和稳定性,确保高频使用不中断。
实用测试场景与用户反馈
在实际应用中,Opus4.6展现出强大潜力。常见测试场景包括:复杂代码重构(如Python项目迁移到Go语言)、多语言内容本地化、深度研究报告生成、创意写作以及商业战略规划。 反馈显示,该模型在代码理解和生成方面有质的飞跃,能提供深度洞察和可执行方案。
许多AI从业者表示,这一免费期是“上手顶级模型的最佳时机”,但也提醒需注意流量限制和潜在的订阅升级需求。 整体而言,ZenMux的此举降低了AI门槛,推动更多人融入AI生态。
AIbase认为,这一更新不仅提升了平台的竞争力,也为AI普及注入新活力。限时2周,感兴趣的用户可通过ZenMux官网快速注册体验。更多AI前沿资讯,敬请关注AIbase后续报道。
via AI新闻资讯 (author: AI Base)
模型聚合平台ZenMux近日宣布,将最新发布的Claude Opus4.6模型加入其订阅制套餐的免费档位,并提供限时2周免费体验。这一举措迅速引发AI爱好者和开发者的热议,被视为今年AI领域的一大福利。作为AIbase的编辑,我们对这一事件进行了梳理和分析,带您了解详情。
Opus4.6模型亮点解析
Claude Opus4.6作为Anthropic最新推出的AI模型,在性能上实现了显著提升。根据平台信息,该模型支持高达100万Token的超大记忆窗口,能够处理复杂任务,并引入Agent Teams多代理协作功能。在多项基准测试中,Opus4.6超越了GPT-5.2等竞品,尤其在编程、金融和法律等领域表现出色。 其推理速度更快、响应质量更高,为用户提供了更高效的AI交互体验。
这一模型的免费开放,意味着用户无需额外付费即可上手顶级AI能力,特别适合初次探索或测试场景的用户。不过,需要注意的是,免费档位主要限于聊天功能,且有一定的使用限制,如每5小时5次对话。
ZenMux订阅制套餐详解
ZenMux作为一站式AI模型聚合平台,此次更新将Opus4.6无缝集成到其订阅体系中。平台提供Free、Pro、Max和Ultra四个档位,其中Free档位限时免费接入Opus4.6,用户可零成本体验。 Pro档位月费20美元起,提供更高用量限额,适合个人开发者;Max和Ultra档位则面向重度用户和团队,月费分别为100美元和400美元,支持无限量使用。
平台的优势在于“一键切换”多款顶级模型,包括GPT-5.2Pro、Gemini3Pro、Kimi K2.5等,用户无需管理多个账号或API密钥。 相比传统按量付费模式,这一订阅制避免了“烧钱”焦虑,尤其对编程和内容创作场景友好。ZenMux还强调其企业级架构和稳定性,确保高频使用不中断。
实用测试场景与用户反馈
在实际应用中,Opus4.6展现出强大潜力。常见测试场景包括:复杂代码重构(如Python项目迁移到Go语言)、多语言内容本地化、深度研究报告生成、创意写作以及商业战略规划。 反馈显示,该模型在代码理解和生成方面有质的飞跃,能提供深度洞察和可执行方案。
许多AI从业者表示,这一免费期是“上手顶级模型的最佳时机”,但也提醒需注意流量限制和潜在的订阅升级需求。 整体而言,ZenMux的此举降低了AI门槛,推动更多人融入AI生态。
AIbase认为,这一更新不仅提升了平台的竞争力,也为AI普及注入新活力。限时2周,感兴趣的用户可通过ZenMux官网快速注册体验。更多AI前沿资讯,敬请关注AIbase后续报道。
via AI新闻资讯 (author: AI Base)