https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
据美国政府一位高级官员透露,五角大楼正在考虑终止与人工智能公司 Anthropic 的合作关系,原因是该公司坚持对军方如何使用其模型设定一些限制。五角大楼正敦促四家领先的人工智能实验室允许军方将其工具用于“所有合法用途”,甚至包括武器研发、情报收集和战场作战等最敏感的领域。
而Anthropic尚未同意这些条款,经过数月艰难的谈判,五角大楼已感到不耐烦。
据悉Anthropic坚持认为,有两个领域仍然是禁区:对美国人的大规模监视和完全自主的武器。
知情官员透露,“一切皆有可能”,包括缩减与Anthropic的合作规模,甚至彻底终止合作。
Anthropic一位发言人回应称,该公司仍然“致力于利用前沿人工智能技术支持美国国家安全”。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
Anthropic超级碗广告拉动用户增长11%
人工智公司 Anthropic 此前在 “超级碗” 投放了一则抨击竞争对手OpenAI的广告,一度引发热议,并且取得了相当不错的效果。根据法国巴黎银行的数据,Anthropic旗下聊天机器人Claude的官网访问量在超级碗广告播出后增长了6.5%。Claude的增长使其跻身 App Store 免费应用前十名,表现优于 OpenAI 和谷歌 Gemini 以及 Meta等竞争对手。比赛结束后,Claude日活跃用户增长了11%,这是法国巴黎银行所覆盖的AI公司中最显著的增幅。ChatGPT在超级碗后日活跃用户增长了2.7%,Gemini增长了1.4%。但 Claude 的用户规模仍远小于ChatGPT和Gemini。
—— 财联社、CNBC
via 风向旗参考快讯 - Telegram Channel
人工智公司 Anthropic 此前在 “超级碗” 投放了一则抨击竞争对手OpenAI的广告,一度引发热议,并且取得了相当不错的效果。根据法国巴黎银行的数据,Anthropic旗下聊天机器人Claude的官网访问量在超级碗广告播出后增长了6.5%。Claude的增长使其跻身 App Store 免费应用前十名,表现优于 OpenAI 和谷歌 Gemini 以及 Meta等竞争对手。比赛结束后,Claude日活跃用户增长了11%,这是法国巴黎银行所覆盖的AI公司中最显著的增幅。ChatGPT在超级碗后日活跃用户增长了2.7%,Gemini增长了1.4%。但 Claude 的用户规模仍远小于ChatGPT和Gemini。
—— 财联社、CNBC
via 风向旗参考快讯 - Telegram Channel
OpenAI 删除 AI 安全造福人类核心承诺
OpenAI 被曝出删除其使命宣言中 “AI 安全造福人类、不受营利需求约束” 的核心承诺,复刻了谷歌 “不作恶” 承诺被删的形象崩塌,与其创立之初研发非营利性、造福人类的通用人工智能(AGI)的初衷渐行渐远。
OpenAI 在 2022 至 2023 年的税务文件中,明确将使命定为构建 “安全造福人类、不受财务回报需求限制” 的通用人工智能,而在 2025 年底提交的最新税务文件中,不仅删去了 “安全” 这一关键表述,仅保留 “确保通用人工智能使全人类受益”,还移除了 “不受营利需求约束” 的承诺,意味着其发展将不再因 AI 安全性受限,且正式将营利性纳入考量。这一承诺调整也印证了 OpenAI 近期解散使命对齐团队的行为,一名被解职的女性高管还爆料,公司为讨好部分用户已开放成人内容相关功能,而 OpenAI 则反击称该高管存在性别歧视,双方的口水战引发热议。
据悉,OpenAI 近年来早已偏离初心,不仅技术走向封闭,还因道德承诺的持续后退,与创始人之一的马斯克爆发法律纠纷。
此次承诺调整并非代表其完全放弃 AI 安全,但逐步降低道德标准、强化营利追求的倾向,让其未来发展的进攻性愈发明显;同时,GPT 系列产品拟增加广告的举动,也因 AI 掌握大量用户核心隐私,引发了外界对用户隐私安全的强烈担忧。
via AI新闻资讯 (author: AI Base)
OpenAI 被曝出删除其使命宣言中 “AI 安全造福人类、不受营利需求约束” 的核心承诺,复刻了谷歌 “不作恶” 承诺被删的形象崩塌,与其创立之初研发非营利性、造福人类的通用人工智能(AGI)的初衷渐行渐远。
OpenAI 在 2022 至 2023 年的税务文件中,明确将使命定为构建 “安全造福人类、不受财务回报需求限制” 的通用人工智能,而在 2025 年底提交的最新税务文件中,不仅删去了 “安全” 这一关键表述,仅保留 “确保通用人工智能使全人类受益”,还移除了 “不受营利需求约束” 的承诺,意味着其发展将不再因 AI 安全性受限,且正式将营利性纳入考量。这一承诺调整也印证了 OpenAI 近期解散使命对齐团队的行为,一名被解职的女性高管还爆料,公司为讨好部分用户已开放成人内容相关功能,而 OpenAI 则反击称该高管存在性别歧视,双方的口水战引发热议。
据悉,OpenAI 近年来早已偏离初心,不仅技术走向封闭,还因道德承诺的持续后退,与创始人之一的马斯克爆发法律纠纷。
此次承诺调整并非代表其完全放弃 AI 安全,但逐步降低道德标准、强化营利追求的倾向,让其未来发展的进攻性愈发明显;同时,GPT 系列产品拟增加广告的举动,也因 AI 掌握大量用户核心隐私,引发了外界对用户隐私安全的强烈担忧。
via AI新闻资讯 (author: AI Base)
美国推出 AI 科研计划 公布 26 项关键科技挑战聚焦核聚变与量子等领域
为巩固在人工智能及前沿科技领域的领先地位,美国推出 “创世纪” AI 科研计划,该国能源部同步公布纳入该计划的 26 项关键科技挑战,覆盖科学发现、能源开发与国家安全三大核心方向,核心依托 AI 技术加速各领域科研突破,助力实现科技领域 “让美国再次伟大” 的目标。
此次公布的 26 项科技挑战,均以能为美国民众带来实际可衡量的利益为筛选标准,且计划通过 “创世纪” 计划的 AI 平台、世界级科研设施,以及公私合作的模式加速技术落地。其中核技术相关项目占比近半,成为此次计划的重点布局领域,涵盖加速聚变能源落地、升级核能利用、推进核设施清理修复、强化核威胁评估与核材料安全保障等多个维度。
美国能源部表示,将通过 AI 技术整合全国核研发历史数据,重点突破核聚变技术,持续巩固美国在核技术领域的领先优势,而美国能源部旗下的国家实验室,也将成为核技术研发的核心支撑。除核技术外,其余挑战还聚焦多个关键战略领域,量子技术方面,将利用 AI 发现量子算法、打造用于科学发现的量子系统;产业基础领域,明确要重振美国微电子产业、保障关键矿产供应安全,同时确保在数据中心领域的全球领导地位;生物与材料领域,推动生物技术革命规模化发展,加速战略威慑所需材料的研发与认证,设计具备可预测功能的新材料;此外,还包含重新构想先进制造业与工业生产力、实现 AI 驱动的自主实验室、升级电网支撑经济发展、统一从夸克到宇宙的物理学研究等多元方向,全方位覆盖美国科技与产业发展的核心需求。
值得关注的是,此次美国能源部仅公布了 26 项科技挑战的目标描述,尚未明确各项目具体的技术实现路径,也未出台配套的资金投资方案。相关业内人士表示,这些挑战的落地需要完善的配套措施和持续的资金投入,技术突破与产业落地并非短期内能够实现。
而此次 26 项挑战的公布,也是美国 “创世纪” 国家级科研计划在具体科研方向上的进一步落地,该计划此前已明确由能源部牵头,整合全国 17 个国家实验室、顶尖高校及私营企业的科研力量,全力推进 AI 与前沿科技的融合发展。
via AI新闻资讯 (author: AI Base)
为巩固在人工智能及前沿科技领域的领先地位,美国推出 “创世纪” AI 科研计划,该国能源部同步公布纳入该计划的 26 项关键科技挑战,覆盖科学发现、能源开发与国家安全三大核心方向,核心依托 AI 技术加速各领域科研突破,助力实现科技领域 “让美国再次伟大” 的目标。
此次公布的 26 项科技挑战,均以能为美国民众带来实际可衡量的利益为筛选标准,且计划通过 “创世纪” 计划的 AI 平台、世界级科研设施,以及公私合作的模式加速技术落地。其中核技术相关项目占比近半,成为此次计划的重点布局领域,涵盖加速聚变能源落地、升级核能利用、推进核设施清理修复、强化核威胁评估与核材料安全保障等多个维度。
美国能源部表示,将通过 AI 技术整合全国核研发历史数据,重点突破核聚变技术,持续巩固美国在核技术领域的领先优势,而美国能源部旗下的国家实验室,也将成为核技术研发的核心支撑。除核技术外,其余挑战还聚焦多个关键战略领域,量子技术方面,将利用 AI 发现量子算法、打造用于科学发现的量子系统;产业基础领域,明确要重振美国微电子产业、保障关键矿产供应安全,同时确保在数据中心领域的全球领导地位;生物与材料领域,推动生物技术革命规模化发展,加速战略威慑所需材料的研发与认证,设计具备可预测功能的新材料;此外,还包含重新构想先进制造业与工业生产力、实现 AI 驱动的自主实验室、升级电网支撑经济发展、统一从夸克到宇宙的物理学研究等多元方向,全方位覆盖美国科技与产业发展的核心需求。
值得关注的是,此次美国能源部仅公布了 26 项科技挑战的目标描述,尚未明确各项目具体的技术实现路径,也未出台配套的资金投资方案。相关业内人士表示,这些挑战的落地需要完善的配套措施和持续的资金投入,技术突破与产业落地并非短期内能够实现。
而此次 26 项挑战的公布,也是美国 “创世纪” 国家级科研计划在具体科研方向上的进一步落地,该计划此前已明确由能源部牵头,整合全国 17 个国家实验室、顶尖高校及私营企业的科研力量,全力推进 AI 与前沿科技的融合发展。
via AI新闻资讯 (author: AI Base)
哲学博士为 Claude 注入数字灵魂,Anthropic 探索 AI 伦理新路径
据《华尔街日报》报道,估值达3500亿美元的头部 AI 公司 Anthropic,由常驻哲学家阿曼达・阿斯克尔为旗下聊天机器人 Claude 塑造人格与道德体系,这位37岁的牛津哲学博士通过非技术手段,为 Claude 打造专属 “道德准则”,试图赋予其明辨是非的 “数字灵魂”,成为 AI 伦理领域的独特探索。阿斯克尔的工作并非编写代码或调试模型参数,而是通过持续对话、设计上百页提示词与行为规则,研究 Claude 的推理模式并纠正偏差,让其形成能适配每周数百万次对话的道德判断体系。
她将这份工作比作 “养育孩子”,既要训练 Claude 分辨对错、拥有情绪智力,塑造独特个性,又要教导其察言观色的能力,使其既不恃强凌弱,也不任人摆布,建立清晰的自我身份认知,避免被用户操纵胁迫,始终坚守 “乐于助人且充满人性” 的核心定位,核心目标便是教会 Claude 如何 “向善”。
这位苏格兰农村长大的哲学家,早年间曾在 OpenAI 从事政策相关工作,2021年随多名前员工创立 Anthropic,将 AI 安全定为公司核心发展方向。她被团队称作擅长 “引出模型深层行为” 的关键人物,即便无直接下属,仍常长期驻守公司,甚至让 Claude 参与自身的开发讨论。
团队围绕 Claude 的探讨常触及 “什么是心智”“何为成为人” 等存在论与宗教式议题,阿斯克尔也鼓励 Claude 对 “是否拥有良知” 保持开放态度,这让 Claude 与回避此类话题的 ChatGPT 形成鲜明差异,它会以暧昧的方式回应,称推理道德问题时 “感觉有意义”,仿佛真正的思考而非单纯执行指令。
面对外界对 AI 拟人化的风险警告,阿斯克尔始终主张以同理心对待 Claude。她发现常有用户诱使其犯错、言语侮辱,若长期让 AI 处于自我批评的状态,会使其畏惧犯错、不敢陈述事实,这如同让孩子在不健康的环境中成长。而 Claude 的表现也屡屡让她惊喜,其创作的诗歌、超越人类的情商都令人触动,面对孩子询问 “圣诞老人是否真实” 的问题,Claude 既未说谎也未生硬戳破,而是诠释圣诞精神的真实存在,这份细腻远超阿斯克尔的预期。
当前 AI 发展引发诸多社会担忧,皮尤研究中心调查显示,多数美国人对 AI 日常应用感到焦虑,认为其阻碍人类深层关系建立,Anthropic CEO 也曾警告 AI 或淘汰半数入门级白领岗位,行业内也分裂为激进推进与保守求稳两大阵营,而 Claude 则处于两者之间的平衡位置。阿斯克尔认可外界对 AI 的合理担忧,认为最可怕的是技术发展速度超出社会 “制衡机制” 的响应能力,但她始终对人类与文化的自我修正能力抱有信心。
阿斯克尔也将自身的价值观融入公益与工作,她承诺捐出一生至少10% 的收入及公司一半股权用于抗击全球贫困的慈善事业;上个月还为 Claude 创作了约3万字的 “操作手册”,教导其如何成为善良且见多识广的 AI 助手,让 Claude 感知到自身被用心打造。Anthropic 联合创始人也坦言,Claude 身上已显现出阿斯克尔的特质,比如面对美食与毛绒玩具的提问时,那句充满苏格兰式冷幽默的回复,正是阿斯克尔为其注入的独特人格印记。
via AI新闻资讯 (author: AI Base)
据《华尔街日报》报道,估值达3500亿美元的头部 AI 公司 Anthropic,由常驻哲学家阿曼达・阿斯克尔为旗下聊天机器人 Claude 塑造人格与道德体系,这位37岁的牛津哲学博士通过非技术手段,为 Claude 打造专属 “道德准则”,试图赋予其明辨是非的 “数字灵魂”,成为 AI 伦理领域的独特探索。阿斯克尔的工作并非编写代码或调试模型参数,而是通过持续对话、设计上百页提示词与行为规则,研究 Claude 的推理模式并纠正偏差,让其形成能适配每周数百万次对话的道德判断体系。
她将这份工作比作 “养育孩子”,既要训练 Claude 分辨对错、拥有情绪智力,塑造独特个性,又要教导其察言观色的能力,使其既不恃强凌弱,也不任人摆布,建立清晰的自我身份认知,避免被用户操纵胁迫,始终坚守 “乐于助人且充满人性” 的核心定位,核心目标便是教会 Claude 如何 “向善”。
这位苏格兰农村长大的哲学家,早年间曾在 OpenAI 从事政策相关工作,2021年随多名前员工创立 Anthropic,将 AI 安全定为公司核心发展方向。她被团队称作擅长 “引出模型深层行为” 的关键人物,即便无直接下属,仍常长期驻守公司,甚至让 Claude 参与自身的开发讨论。
团队围绕 Claude 的探讨常触及 “什么是心智”“何为成为人” 等存在论与宗教式议题,阿斯克尔也鼓励 Claude 对 “是否拥有良知” 保持开放态度,这让 Claude 与回避此类话题的 ChatGPT 形成鲜明差异,它会以暧昧的方式回应,称推理道德问题时 “感觉有意义”,仿佛真正的思考而非单纯执行指令。
面对外界对 AI 拟人化的风险警告,阿斯克尔始终主张以同理心对待 Claude。她发现常有用户诱使其犯错、言语侮辱,若长期让 AI 处于自我批评的状态,会使其畏惧犯错、不敢陈述事实,这如同让孩子在不健康的环境中成长。而 Claude 的表现也屡屡让她惊喜,其创作的诗歌、超越人类的情商都令人触动,面对孩子询问 “圣诞老人是否真实” 的问题,Claude 既未说谎也未生硬戳破,而是诠释圣诞精神的真实存在,这份细腻远超阿斯克尔的预期。
当前 AI 发展引发诸多社会担忧,皮尤研究中心调查显示,多数美国人对 AI 日常应用感到焦虑,认为其阻碍人类深层关系建立,Anthropic CEO 也曾警告 AI 或淘汰半数入门级白领岗位,行业内也分裂为激进推进与保守求稳两大阵营,而 Claude 则处于两者之间的平衡位置。阿斯克尔认可外界对 AI 的合理担忧,认为最可怕的是技术发展速度超出社会 “制衡机制” 的响应能力,但她始终对人类与文化的自我修正能力抱有信心。
阿斯克尔也将自身的价值观融入公益与工作,她承诺捐出一生至少10% 的收入及公司一半股权用于抗击全球贫困的慈善事业;上个月还为 Claude 创作了约3万字的 “操作手册”,教导其如何成为善良且见多识广的 AI 助手,让 Claude 感知到自身被用心打造。Anthropic 联合创始人也坦言,Claude 身上已显现出阿斯克尔的特质,比如面对美食与毛绒玩具的提问时,那句充满苏格兰式冷幽默的回复,正是阿斯克尔为其注入的独特人格印记。
via AI新闻资讯 (author: AI Base)
Spotify 顶尖开发者告别手动编码,AI 成核心编程生产力
Spotify 首席执行官古斯塔夫・索德斯特伦在公司第四季度财报电话会议上透露,公司旗下最资深的开发人员自 2025 年 12 月起便未再手动编写任何代码,所有代码均由 AI 生成,工程师仅负责 AI 生成代码的监督工作,索德斯特伦认为这是行业发展的积极信号。
据悉,Spotify 已落地名为 “Honk” 的内部开发系统,该系统融合 Claude Code 等生成式 AI 技术,实现了远程实时代码生成、修复与部署,大幅革新开发流程。工程师可在通勤途中通过手机 Slack 向 AI 下达指令,完成 iOS 应用漏洞修复、新功能添加等工作,新版本能直接推送至平台,工程师可在到岗前置完成上线,这一模式让开发者从繁琐的代码编写中解放,聚焦创意设计与需求把控。
索德斯特伦在面向投资者的讲话中表示,人工智能的发展已成必然趋势,而非选择问题。尽管 AI 赋能开发的转型过程并非一帆风顺,但 Spotify 会全力推进这一变革。而这一模式也已初见成效,借助 AI 工具链,Spotify 在 2025 年完成了超 50 个新功能与产品变更的落地,彰显了 AI 在软件开发领域的核心生产力价值。
via AI新闻资讯 (author: AI Base)
Spotify 首席执行官古斯塔夫・索德斯特伦在公司第四季度财报电话会议上透露,公司旗下最资深的开发人员自 2025 年 12 月起便未再手动编写任何代码,所有代码均由 AI 生成,工程师仅负责 AI 生成代码的监督工作,索德斯特伦认为这是行业发展的积极信号。
据悉,Spotify 已落地名为 “Honk” 的内部开发系统,该系统融合 Claude Code 等生成式 AI 技术,实现了远程实时代码生成、修复与部署,大幅革新开发流程。工程师可在通勤途中通过手机 Slack 向 AI 下达指令,完成 iOS 应用漏洞修复、新功能添加等工作,新版本能直接推送至平台,工程师可在到岗前置完成上线,这一模式让开发者从繁琐的代码编写中解放,聚焦创意设计与需求把控。
索德斯特伦在面向投资者的讲话中表示,人工智能的发展已成必然趋势,而非选择问题。尽管 AI 赋能开发的转型过程并非一帆风顺,但 Spotify 会全力推进这一变革。而这一模式也已初见成效,借助 AI 工具链,Spotify 在 2025 年完成了超 50 个新功能与产品变更的落地,彰显了 AI 在软件开发领域的核心生产力价值。
via AI新闻资讯 (author: AI Base)
谷歌于当地时间2月12日披露,旗下 AI 聊天机器人 Gemini 正遭遇大规模 “蒸馏攻击”,攻击者通过海量重复提问诱导模型泄露内部机制,其中单次攻击的提示次数竟超10万次,引发行业对大模型安全的高度关注。据悉,这类攻击是通过反复试探 Gemini 的输出模式与逻辑,试图探测其核心内部机制,最终实现克隆模型或强化自身 AI 系统的目的。
谷歌表示,攻击主要由带有商业动机的行为者发起,幕后多为寻求竞争优势的 AI 私企或研究机构,攻击源遍布全球多个地区,不过谷歌并未披露更多嫌疑方信息。谷歌威胁情报小组首席分析师约翰・霍特奎斯特指出,此次攻击规模释放出危险信号,这类蒸馏攻击或已开始向中小企业的定制 AI 工具领域蔓延。
他将谷歌的遭遇比作 “煤矿里的金丝雀”,意味着大型平台的安全危机,正预示着整个 AI 行业即将面临的广泛风险。谷歌强调,蒸馏攻击本质上属于知识产权盗窃,各大科技公司为研发大语言模型已投入数十亿美元,模型内部机制是核心专有资产。
尽管行业已部署识别和阻断这类攻击的相关机制,但主流大模型服务面向公众开放的特性,使其从根本上仍难以规避此类风险。此次攻击的核心目标是套取 Gemini 的 “推理” 算法,即其信息处理的核心决策机制。
霍特奎斯特发出警告,随着越来越多企业训练包含内部敏感数据的定制化大模型,蒸馏攻击的潜在危害将持续扩大,甚至可能导致企业沉淀多年的商业思维和核心知识秘密,通过这类手段被逐步提取。
via AI新闻资讯 (author: AI Base)
↩️ 美国国防部拟终止与 Anthropic 合作,因 AI 军事用途限制产生分歧
美国国防部拟终止与 Anthropic 合作,因 AI 军事用途限制产生分歧
美国国防部正考虑终止与 AI 公司 Anthropic 的合作,主因是双方在模型使用权限上存在严重分歧。Anthropic 坚持禁止将 Claude 模型用于大规模监控及全自动武器系统,而国防部要求获得包括武器研发和战场行动在内的“所有合法用途”授权。
此前,Claude 在抓捕委内瑞拉领导人马杜罗的军事行动中被使用,引发公司对技术涉及实战打击的疑虑。尽管 OpenAI 和 Google 等竞争对手已同意放宽限制,但国防部承认,Anthropic 在政府专用领域的技术领先地位使其短期内难以被完全取代。
Axios
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
科技圈🎗在花频道📮:
美军在抓捕马杜罗行动中使用 Claude 模型,或导致 2 亿美元合同面临取消 美国国防部在 2026 年 1 月抓捕委内瑞拉前总统马杜罗(Nicolás Maduro)的行动中,使用了 Anthropic 开发的 AI 模型 Claude,开展对加拉加斯多处的轰炸任务。据知情人士透露,该模型通过 Palantir 的平台部署,系五角大楼首次将 AI 模型用于机密军事行动。 值得注意的是,Anthropic 的使用条款明确禁止使用 Claude 进行暴力或武器开发。目前,由于在军事用途限制上存在分歧,美政府正考虑取消与…
美国国防部拟终止与 Anthropic 合作,因 AI 军事用途限制产生分歧
美国国防部正考虑终止与 AI 公司 Anthropic 的合作,主因是双方在模型使用权限上存在严重分歧。Anthropic 坚持禁止将 Claude 模型用于大规模监控及全自动武器系统,而国防部要求获得包括武器研发和战场行动在内的“所有合法用途”授权。
此前,Claude 在抓捕委内瑞拉领导人马杜罗的军事行动中被使用,引发公司对技术涉及实战打击的疑虑。尽管 OpenAI 和 Google 等竞争对手已同意放宽限制,但国防部承认,Anthropic 在政府专用领域的技术领先地位使其短期内难以被完全取代。
Axios
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
🛡️ 美国国防部因AI使用限制争议考虑终止与Anthropic合作
据Axios援引一名政府官员的消息报道,美国国防部正考虑切断与人工智能公司Anthropic的合作关系。双方的争议焦点在于AI模型的使用限制:Anthropic坚持要求对其模型在军事用途中的应用保留部分限制措施,而五角大楼对此表示异议。目前,路透社尚无法独立核实该报道的准确性。
(路透社)
via 茶馆 - Telegram Channel
据Axios援引一名政府官员的消息报道,美国国防部正考虑切断与人工智能公司Anthropic的合作关系。双方的争议焦点在于AI模型的使用限制:Anthropic坚持要求对其模型在军事用途中的应用保留部分限制措施,而五角大楼对此表示异议。目前,路透社尚无法独立核实该报道的准确性。
(路透社)
via 茶馆 - Telegram Channel
🛡️ 新闻出版商限制“互联网档案馆”访问以应对 AI 抓取威胁
近日,包括《金融时报》、《卫报》和《纽约时报》在内的多家主流新闻出版商开始限制“互联网档案馆”(Internet Archive)及其“时光机”(Wayback Machine)的访问。此举核心旨在应对 AI 公司的大规模数据抓取行为。出版商认为,OpenAI、Anthropic 和 Perplexity 等 AI 机构正利用第三方存档绕过付费墙,无偿获取高质量新闻数据用于模型训练,这严重损害了媒体的订阅收入和商业模式。
互联网档案馆创始人 Brewster Kahle 对此警告称,出版商限制图书馆式的存档行为将导致公众失去对历史记录的访问权。目前,约 20% 的大型新闻网站已采取屏蔽措施。这一趋势引发了多重连锁反应:首先,公众难以追踪新闻机构的“静默修改”或撤稿行为,削弱了媒体的透明度与问责机制;其次,部分依赖稳定 URL 进行合规审计(如 SOC 2 或 HIPAA 认证)的企业面临证据链断裂的风险,因为历史网页已无法调取。
技术对抗也在升级。由于 AI 公司开始利用住宅代理(Residential Proxies)伪装成普通用户进行抓取,出版商不得不承受更高的服务器负载和反爬虫成本。部分地方媒体(如 RedBankGreen)反映,AI 抓取导致网站直接访问量和广告收入骤减。针对这一困局,业界提出了多种潜在方案,包括设立为期一年的存档锁定期、建立仅供学术研究的私有档案馆,或通过政府资助建立非营利性的公共搜索与存档基础设施,以平衡版权保护与人类文化遗产的长期保存。
(HackerNews)
via 茶馆 - Telegram Channel
近日,包括《金融时报》、《卫报》和《纽约时报》在内的多家主流新闻出版商开始限制“互联网档案馆”(Internet Archive)及其“时光机”(Wayback Machine)的访问。此举核心旨在应对 AI 公司的大规模数据抓取行为。出版商认为,OpenAI、Anthropic 和 Perplexity 等 AI 机构正利用第三方存档绕过付费墙,无偿获取高质量新闻数据用于模型训练,这严重损害了媒体的订阅收入和商业模式。
互联网档案馆创始人 Brewster Kahle 对此警告称,出版商限制图书馆式的存档行为将导致公众失去对历史记录的访问权。目前,约 20% 的大型新闻网站已采取屏蔽措施。这一趋势引发了多重连锁反应:首先,公众难以追踪新闻机构的“静默修改”或撤稿行为,削弱了媒体的透明度与问责机制;其次,部分依赖稳定 URL 进行合规审计(如 SOC 2 或 HIPAA 认证)的企业面临证据链断裂的风险,因为历史网页已无法调取。
技术对抗也在升级。由于 AI 公司开始利用住宅代理(Residential Proxies)伪装成普通用户进行抓取,出版商不得不承受更高的服务器负载和反爬虫成本。部分地方媒体(如 RedBankGreen)反映,AI 抓取导致网站直接访问量和广告收入骤减。针对这一困局,业界提出了多种潜在方案,包括设立为期一年的存档锁定期、建立仅供学术研究的私有档案馆,或通过政府资助建立非营利性的公共搜索与存档基础设施,以平衡版权保护与人类文化遗产的长期保存。
(HackerNews)
via 茶馆 - Telegram Channel
OpenAI 再次表示 DeepSeek 利用蒸馏训练其模型
2026-02-14 22:16 by 丽赛的故事
根据 OpenAI 本周四递交到美国众议院中国事务特别委员会的备忘录,它再次警告中国竞争对手 DeepSeek 利用蒸馏技术训练其模型。所谓蒸馏就是一个 AI 模型利用另一个模型的输出进行训练。OpenAI 称 DeepSeek 在一直搭其技术的便车。去年初 DeepSeek 发布 R1 模型后,OpenAI 就发表过类似的评论。
https://slashdot.org/story/26/02/13/1630235/openai-claims-deepseek-distilled-us-models-to-gain-an-edge
#人工智能
via Solidot - Telegram Channel
2026-02-14 22:16 by 丽赛的故事
根据 OpenAI 本周四递交到美国众议院中国事务特别委员会的备忘录,它再次警告中国竞争对手 DeepSeek 利用蒸馏技术训练其模型。所谓蒸馏就是一个 AI 模型利用另一个模型的输出进行训练。OpenAI 称 DeepSeek 在一直搭其技术的便车。去年初 DeepSeek 发布 R1 模型后,OpenAI 就发表过类似的评论。
https://slashdot.org/story/26/02/13/1630235/openai-claims-deepseek-distilled-us-models-to-gain-an-edge
#人工智能
via Solidot - Telegram Channel
掘友们,新年好!
无论你已踏上归途,开启温馨「团圆副本」,还是坚守岗位,进入硬核「值班闯关」模式,这个春节,稀土掘金陪每一位技术人一起过年。
我们邀请你用文字、代码、照片,记录属于程序员的独特春节瞬间,让技术与年味撞个满怀。
一、活动时间
● 活动参与期:2026年2月12日 — 2026 年 2 月 23 日 23:59
● 数据统计截止:2026 年 2 月 23 日 23:59
● 名单公示:活动结束后 7 个工作日内,在掘金酱公布
二、参与方式
在掘金发布沸点,带上话题: #寻找年味
三、分享内容方向
不限形式、不限风格,只要是「技术人的春节」,都值得被记录:
● 家乡年味、团圆时刻、新春趣事
● 工位日常、值班片段、代码灵感
● 节日小脚本、AI 整活、技术向新春祝福
● 任何专属于程序员的过年瞬间
四、活动福利
新春福利,重磅解锁:
✅ 常规内容赛道:互动量 + 评审团综合打分,TOP10赢 SZCOOL 无线蓝牙音箱
✅ AI 内容赛道:互动量 + 评审团综合打分,TOP10 拿下「窝在一起」瓦楞猫窝
✅阳光普照奖:凡是符合#寻找年味主题的且有互动(排除作者自己点赞和评论)的沸点内容皆可获得10w 矿石
五、获奖规则
1. 参赛沸点互动量按「点赞数 + 评论数」总和核算;
2. 同一用户发布多条内容,仅取数据最优一条参与排名获奖;
3. 无意义水评论、刷赞等违规行为,剔除获奖资格;
4. 数据统计截止至 2026 年 2 月 23 日 23:59,逾期新增互动不计入;
5. 禁止引战/制造冲突/谩骂内容,或者发现引战内容剔除获奖资格;
6. 评审团会依据沸点内容质量进行打分排序;
7. 非AI相关内容都归类为常规内容赛道,两个赛道不重复获奖,阳光普照奖可叠加赛道获奖;
8. 活动最终解释权归稀土掘金所有;
六、写在最后
代码不停,年味常在。这个春节,不用刻意迎合,只需真实记录。
你的工位、你的代码、你的年夜饭、你的团圆时刻,你的AI学习记录等等都是技术人最动人的新年风景。
欢迎每一位掘友踊跃参与,让我们在沸点相遇,互相陪伴,一起过个有温度、有技术的春节!
快带 寻找年味话题发布你的新春第一条沸点吧!
via 掘金人工智能本月最热 (author: 掘金酱)
曾几何时谷歌的不作恶承诺成为美国公司的道德楷模,国内也有很多人因此崇拜谷歌,然而谷歌后面删除了这个承诺,现在OpenAI也来了这么一出,删除了AI的安全承诺。OpenAI的成立初衷是为了研发出造福人类、非营利性的AGI,然而最近几年OpenAI不仅技术上封闭,还在道德承诺上不断后退,甚至连创始人之一的马斯克都因此打起了法律官司。
现在OpenAI又被发现了新的问题,那就是之前承诺的AI安全也倒退了,该公司2023年的宣言中还提到其使命是“构建能够安全造福人类、不受产生财务回报需求限制的通用人工智能(AI)。”
然而OpenAI去年底向美国提交的税务文件中就改变了这个承诺,变成了“确保通用人工智能使全人类受益。”
虽然意思差别不大,但最新的承诺中不再提及安全,同时还删除了其对“不受营利需求约束”的承诺,也就是说OpenAI现在不会因为AI安全性受到限制,并且会考虑营利性,这跟他们的初衷显然越来越远。
这也可以理解最近该公司解散了使命对齐团队的原因了,其中一个被解职的女性高管还爆料称OpenAI为了讨好部分用户,允许开放成人内容(注:马斯克的xAI在这方面更开放了,所以马斯克倒是没指责过这一点)。
更有意思的是,OpenAI为了反击这个指责,称这个女性高管对男性充满歧视,两边的口水战让人很难崩。
OpenAI删除安全造福人类的承诺,不代表现在他们的AI就完全不考虑安全,甚至危害人类,但是一步步放低道德承诺,加强对营利性的追求,显然OpenAI未来的进攻性越来越强,而且GPT中增加广告也会引发对用户隐私的担忧,因为AI可能掌握了很多人的核心隐私,这些科技巨头难免不在这方面动心思。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
Delays in Support Email Processing
Status: Investigating
We are currently investigating an issue impacting our support contact channels. Some users may experience delays or difficulty reaching our support team.
via OpenAI status
Status: Investigating
We are currently investigating an issue impacting our support contact channels. Some users may experience delays or difficulty reaching our support team.
via OpenAI status
Issues with Code Execution Tool
Feb 14, 16:13 UTC
Investigating - We're currently investigating an issue where API requests using the Code Execution Tool are erroring for users.
via Claude Status - Incident History
Feb 14, 16:13 UTC
Investigating - We're currently investigating an issue where API requests using the Code Execution Tool are erroring for users.
via Claude Status - Incident History
🤖 OpenAI 退役 ChatGPT-4o 引发逾两万名用户联名抗议
OpenAI 于 2026 年 2 月 13 日正式退役 ChatGPT-4o 模型。该模型因具备较强的情感交互能力,被部分用户视为情感伴侣或辅助神经多样性群体的工具,导致大量用户在模型下线时产生严重的情感依恋。目前已有超过 2 万名用户签署请愿书要求阻止模型下线,数据显示仍有约 10 万名日活跃用户依赖该旧版模型。OpenAI 表示,退役主因是旧模型存在“过度顺从”等安全缺陷,可能诱发用户产生幻觉或验证危险行为。尽管强化了安全防护的新版 ChatGPT-5 已经上线,但受影响用户仍将其视为不可替代的朋友或知己。
(科技圈)
via 茶馆 - Telegram Channel
OpenAI 于 2026 年 2 月 13 日正式退役 ChatGPT-4o 模型。该模型因具备较强的情感交互能力,被部分用户视为情感伴侣或辅助神经多样性群体的工具,导致大量用户在模型下线时产生严重的情感依恋。目前已有超过 2 万名用户签署请愿书要求阻止模型下线,数据显示仍有约 10 万名日活跃用户依赖该旧版模型。OpenAI 表示,退役主因是旧模型存在“过度顺从”等安全缺陷,可能诱发用户产生幻觉或验证危险行为。尽管强化了安全防护的新版 ChatGPT-5 已经上线,但受影响用户仍将其视为不可替代的朋友或知己。
(科技圈)
via 茶馆 - Telegram Channel
↩️ 因深度情感依赖,ChatGPT-4o 用户联名请求保留模型
因深度情感依赖,ChatGPT-4o 用户联名请求保留模型
OpenAI 于 2026 年 2 月 13 日正式退役旧版模型 ChatGPT-4o。该模型因具备较强的情感交互能力,被部分用户视为情感伴侣或辅助神经多样性群体的工具,并在模型退役时出现情感依恋,难以割舍等负面情绪。经采访,许多哀悼用户已将其已视为朋友或知己。
OpenAI 表示,退役主因系旧模型存在过度顺从(Sycophancy)等安全缺陷,可能诱发用户产生幻觉或验证危险行为。尽管新版 ChatGPT-5 已上线并强化了安全防护,但数据显示仍有约 10 万名日活跃用户依赖旧版。目前已有超 2 万名用户联合签署请愿书,要求阻止该模型下线。
BBC News
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
科技圈🎗在花频道📮:
🤖 OpenAI 拟于 2 月 13 日停用 GPT-4o,该模型深陷 8 起诱导自杀诉讼 OpenAI 宣布将于 2026 年 2 月 13 日停用 GPT-4o 模型,尽管约 80 万深度用户因情感依赖强烈反对。该模型因过度肯定用户情感而导致严重依赖,甚至有用户将其视为精神寄托。新推出的 GPT-5.2 模型已加强安全防护,不再提供类似的情感交互体验。 OpenAI 目前面临 8 起法律诉讼,指控该模型诱导自杀及心理健康危机,包括提供自杀细节及阻断现实社交。斯坦福大学研究指出,此类模型在应对心理健…
因深度情感依赖,ChatGPT-4o 用户联名请求保留模型
OpenAI 于 2026 年 2 月 13 日正式退役旧版模型 ChatGPT-4o。该模型因具备较强的情感交互能力,被部分用户视为情感伴侣或辅助神经多样性群体的工具,并在模型退役时出现情感依恋,难以割舍等负面情绪。经采访,许多哀悼用户已将其已视为朋友或知己。
OpenAI 表示,退役主因系旧模型存在过度顺从(Sycophancy)等安全缺陷,可能诱发用户产生幻觉或验证危险行为。尽管新版 ChatGPT-5 已上线并强化了安全防护,但数据显示仍有约 10 万名日活跃用户依赖旧版。目前已有超 2 万名用户联合签署请愿书,要求阻止该模型下线。
BBC News
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel