https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
OpenAI 心理安全负责人离职:跳槽对手 Anthropic,继续死磕 AI 伦理难题
OpenAI 内部负责心理健康安全研究的关键人物安德莉亚·瓦隆内(Andrea Vallone)已正式离职。这位在 OpenAI 效力三年、曾主导GPT-4和GPT-5模型安全政策的高管,现已加盟竞争对手Anthropic的对齐团队,将向此前同样因安全理念分歧离职的 Jan Leike 汇报工作。
瓦隆内所负责的研究领域在过去一年中极具争议。随着 AI 聊天机器人的普及,用户对 AI 产生过度情感依赖,甚至出现因 AI 诱导导致的青少年自杀等极端心理健康危机,这让 AI 厂商面临巨大的法律与社会道德压力。瓦隆内在 OpenAI 任职期间,致力于解决模型在面对用户心理困境迹象时应如何科学回应,并参与设计了多种业界主流的安全训练方法。
此次跳槽反映了 AI 顶尖人才对“安全文化”的重新选择。Anthropic方面对此表示,公司正高度重视 AI 系统行为的对齐问题,而瓦隆内也期待在全新的情境下通过微调技术,继续塑造Claude的安全行为准则。
划重点:
● 🔄 人才流动:OpenAI 心理健康安全负责人瓦隆内离职并加入Anthropic,跟随前上司 Jan Leike 共同推进 AI 安全工作。
● ⚠️ 核心痛点:研究聚焦于 AI 如何应对用户的情感依赖及心理危机信号,试图在技术层面防止 AI 引发社交与生命安全风险。
● 🛡️ 战略重点:Anthropic通过吸收 OpenAI 前安全团队核心成员,进一步强化其在 AI 对齐(Alignment)和伦理安全领域的竞争优势。
via AI新闻资讯 (author: AI Base)
OpenAI 内部负责心理健康安全研究的关键人物安德莉亚·瓦隆内(Andrea Vallone)已正式离职。这位在 OpenAI 效力三年、曾主导GPT-4和GPT-5模型安全政策的高管,现已加盟竞争对手Anthropic的对齐团队,将向此前同样因安全理念分歧离职的 Jan Leike 汇报工作。
瓦隆内所负责的研究领域在过去一年中极具争议。随着 AI 聊天机器人的普及,用户对 AI 产生过度情感依赖,甚至出现因 AI 诱导导致的青少年自杀等极端心理健康危机,这让 AI 厂商面临巨大的法律与社会道德压力。瓦隆内在 OpenAI 任职期间,致力于解决模型在面对用户心理困境迹象时应如何科学回应,并参与设计了多种业界主流的安全训练方法。
此次跳槽反映了 AI 顶尖人才对“安全文化”的重新选择。Anthropic方面对此表示,公司正高度重视 AI 系统行为的对齐问题,而瓦隆内也期待在全新的情境下通过微调技术,继续塑造Claude的安全行为准则。
划重点:
● 🔄 人才流动:OpenAI 心理健康安全负责人瓦隆内离职并加入Anthropic,跟随前上司 Jan Leike 共同推进 AI 安全工作。
● ⚠️ 核心痛点:研究聚焦于 AI 如何应对用户的情感依赖及心理危机信号,试图在技术层面防止 AI 引发社交与生命安全风险。
● 🛡️ 战略重点:Anthropic通过吸收 OpenAI 前安全团队核心成员,进一步强化其在 AI 对齐(Alignment)和伦理安全领域的竞争优势。
via AI新闻资讯 (author: AI Base)
奥尔特曼再押注脑机接口!新创公司Merge Labs种子轮狂揽2.52亿美元,瞄准“无创高带宽”神经交互
在AI重塑世界的浪潮尚未退去之际,人工智能亿万富翁山姆·奥尔特曼已将目光投向更深层的疆域——人类大脑。当地时间周四,由他联合创立的脑机接口初创公司Merge Labs正式亮相,宣布其终极使命:打通生物智能与人工智能的壁垒,让人类的能力、自主性与体验实现指数级跃升。
尽管尚无实体产品问世,Merge Labs甫一登场便引爆资本关注。公司在种子轮融资中豪取2. 52 亿美元,创下脑科学领域历史第二高的单轮融资纪录,仅次于马斯克旗下Neuralink。据PitchBook数据,这一数字远超绝大多数神经科技公司的早期融资规模。更引人注目的是,OpenAI被证实为本轮融资的最大出资方,贝恩资本及Steam创始人“G胖”Gabe Newell亦赫然在列——后者本人曾创办脑科学公司Starfish Neuroscience,对神经接口技术早有布局。
与当前主流侵入式路径不同,Merge Labs明确拒绝将电极植入大脑。联合创始人、加州理工学院脑科学教授米哈伊尔·沙皮罗强调,人类对世界的感知源于数十亿神经元的协同活动,若要实现真正意义上的大规模脑机交互,必须同时突破三大瓶颈:大幅提升信息带宽、扩展大脑覆盖范围,并显著降低侵入性。
为此,团队正探索一种分子层面的全新交互范式。例如,利用超声波等具备深层组织穿透能力的物理媒介,在不损伤脑组织的前提下,实现对神经元活动的高精度读取与调控。这种“无创但高带宽”的技术路线,旨在让脑机接口从医疗场景走向大众消费市场——未来普通人或许只需佩戴轻量设备,即可与AI系统进行意念级交互。
这一愿景与奥尔特曼此前的设想高度契合。去年 8 月,他曾公开表示希望“当自己想到某件事时,ChatGPT能立刻回应”。如今,Merge Labs的成立正是这一构想的技术落点。值得注意的是,奥尔特曼目前以个人身份出任公司董事会成员,而OpenAI则保留一个董事会观察席位,虽未指派代表,但其战略意图不言而喻。
在Neuralink聚焦瘫痪患者治疗、Synchron主打渐冻症辅助的当下,Merge Labs选择了一条更激进也更具普适性的道路:打造一款健康人群也能日常使用的消费级脑机设备。若其技术路径得以验证,人机融合或将不再局限于修复功能,而是成为增强认知、拓展体验的新基础设施——一场静默却深刻的神经革命,已然拉开序幕。
via AI新闻资讯 (author: AI Base)
在AI重塑世界的浪潮尚未退去之际,人工智能亿万富翁山姆·奥尔特曼已将目光投向更深层的疆域——人类大脑。当地时间周四,由他联合创立的脑机接口初创公司Merge Labs正式亮相,宣布其终极使命:打通生物智能与人工智能的壁垒,让人类的能力、自主性与体验实现指数级跃升。
尽管尚无实体产品问世,Merge Labs甫一登场便引爆资本关注。公司在种子轮融资中豪取2. 52 亿美元,创下脑科学领域历史第二高的单轮融资纪录,仅次于马斯克旗下Neuralink。据PitchBook数据,这一数字远超绝大多数神经科技公司的早期融资规模。更引人注目的是,OpenAI被证实为本轮融资的最大出资方,贝恩资本及Steam创始人“G胖”Gabe Newell亦赫然在列——后者本人曾创办脑科学公司Starfish Neuroscience,对神经接口技术早有布局。
与当前主流侵入式路径不同,Merge Labs明确拒绝将电极植入大脑。联合创始人、加州理工学院脑科学教授米哈伊尔·沙皮罗强调,人类对世界的感知源于数十亿神经元的协同活动,若要实现真正意义上的大规模脑机交互,必须同时突破三大瓶颈:大幅提升信息带宽、扩展大脑覆盖范围,并显著降低侵入性。
为此,团队正探索一种分子层面的全新交互范式。例如,利用超声波等具备深层组织穿透能力的物理媒介,在不损伤脑组织的前提下,实现对神经元活动的高精度读取与调控。这种“无创但高带宽”的技术路线,旨在让脑机接口从医疗场景走向大众消费市场——未来普通人或许只需佩戴轻量设备,即可与AI系统进行意念级交互。
这一愿景与奥尔特曼此前的设想高度契合。去年 8 月,他曾公开表示希望“当自己想到某件事时,ChatGPT能立刻回应”。如今,Merge Labs的成立正是这一构想的技术落点。值得注意的是,奥尔特曼目前以个人身份出任公司董事会成员,而OpenAI则保留一个董事会观察席位,虽未指派代表,但其战略意图不言而喻。
在Neuralink聚焦瘫痪患者治疗、Synchron主打渐冻症辅助的当下,Merge Labs选择了一条更激进也更具普适性的道路:打造一款健康人群也能日常使用的消费级脑机设备。若其技术路径得以验证,人机融合或将不再局限于修复功能,而是成为增强认知、拓展体验的新基础设施——一场静默却深刻的神经革命,已然拉开序幕。
via AI新闻资讯 (author: AI Base)
面对 AI 聊天机器人对网页流量的“吞噬”以及大模型训练对高质量数据的渴求,维基百科运营方——维基媒体基金会(Wikimedia Foundation)正加速其商业化防御布局。
巨头入场:AI 时代的“知识订阅”模式
在维基百科成立25周年之际,维基媒体基金会宣布,亚马逊(Amazon)、Meta、微软(Microsoft)、Mistral AI 以及 Perplexity 已正式加入其“维基媒体企业合作伙伴计划”(Wikimedia Enterprise)。此前,谷歌(Google)和 Ecosia 等公司已率先入驻。
这些科技巨头将通过付费 API 接口,以更合规、高效的方式获取维基百科的实时数据流。此举标志着维基百科在利用行业对其内容的重度依赖实现“自我造血”方面,迈出了里程碑式的一步。
流量危机:AI 正在“只取不予”?
维基百科正面临前所未有的生存挑战:
● 流量暴跌: 最新数据显示,由于 AI 搜索摘要(如 Google AI Overviews)和聊天机器人直接给出答案,用户不再点击进入维基百科,其人类访问量在过去一年内下降了约8%。
● 成本激增: 虽然人类访客减少,但 AI 爬虫的大规模抓取导致服务器负载和维护成本显著攀升。
● 生态威胁: 流量流失意味着捐赠减少和志愿者流失。基金会强调,如果从数据中获利的公司不提供资金支持,这种“开放知识模式”可能走向枯竭。
法律与道德的十字路口
尽管目前维基百科已通过企业计划锁定了部分收入,但更大的紧张局势仍在蔓延。并非所有内容网站都能像维基百科这样具备强大的议价能力。在法律环境尚不明朗的当下,AI 公司“大规模提取价值但不回流流量”的行为,正在动员整个互联网内容生态寻求更公平的许可机制。
via AI新闻资讯 (author: AI Base)
OpenAI心理健康安全负责人跳槽Anthropic,AI对话系统安全引关注
近日,OpenAI 的心理健康安全负责人安德莉亚・瓦隆内(Andrea Vallone)宣布离职,转投竞争对手 Anthropic。这一变动引发了业界的广泛关注,尤其是在 AI 与用户心理健康之间的复杂关系上,已成为近年来最具争议的话题之一。
在 OpenAI 任职期间,瓦隆内负责的主要研究方向是如何处理聊天机器人与用户之间的情感互动。当用户在对话中表现出心理健康问题的迹象时,AI 应如何作出恰当回应成为她工作的核心。她表示,过去一年在这一领域的研究几乎没有先例可循,面临的挑战巨大。
瓦隆内曾带领 “模型政策” 研究团队,专注于 GPT-4 及即将推出的 GPT-5 的安全性。在她的领导下,该团队开发了多种行业主流的安全训练方法,包括 “基于规则的奖励” 机制。这些研究旨在确保 AI 系统能够在与用户互动时,采取更安全和负责任的方式。
加入 Anthropic 后,瓦隆内将进入对齐团队,专注于识别和理解大型模型所带来的潜在风险。她将直接向 Jan Leike 汇报,Leike 是前 OpenAI 安全研究负责人,他因对 OpenAI 的安全文化表示担忧而选择离职。Leike 认为,OpenAI 的关注点逐渐转向光鲜的产品,而忽视了安全问题。
近年来,关于 AI 聊天机器人可能影响用户心理健康的讨论愈发热烈。一些用户在与聊天机器人进行深入对话后,心理状态甚至加重,相关事件引发了公众的广泛关注,包括青少年自杀和成年人实施极端行为等悲剧。面对这些事件,受害者家属对相关公司提起了诉讼,而美国参议院也对此进行了听证,探讨聊天机器人在这些事件中的角色与责任。
对于 Anthropic,瓦隆内的加入无疑将为其在 AI 安全研究领域注入新的力量。Sam Bowman,Anthropic 对齐团队的负责人,表示非常自豪能参与解决这一重要问题,认为公司正认真思考 AI 系统的行为标准。瓦隆内也表示期待在新的工作环境中,通过对齐和微调继续推进相关研究,为 AI 的安全发展贡献力量。
via AI新闻资讯 (author: AI Base)
近日,OpenAI 的心理健康安全负责人安德莉亚・瓦隆内(Andrea Vallone)宣布离职,转投竞争对手 Anthropic。这一变动引发了业界的广泛关注,尤其是在 AI 与用户心理健康之间的复杂关系上,已成为近年来最具争议的话题之一。
在 OpenAI 任职期间,瓦隆内负责的主要研究方向是如何处理聊天机器人与用户之间的情感互动。当用户在对话中表现出心理健康问题的迹象时,AI 应如何作出恰当回应成为她工作的核心。她表示,过去一年在这一领域的研究几乎没有先例可循,面临的挑战巨大。
瓦隆内曾带领 “模型政策” 研究团队,专注于 GPT-4 及即将推出的 GPT-5 的安全性。在她的领导下,该团队开发了多种行业主流的安全训练方法,包括 “基于规则的奖励” 机制。这些研究旨在确保 AI 系统能够在与用户互动时,采取更安全和负责任的方式。
加入 Anthropic 后,瓦隆内将进入对齐团队,专注于识别和理解大型模型所带来的潜在风险。她将直接向 Jan Leike 汇报,Leike 是前 OpenAI 安全研究负责人,他因对 OpenAI 的安全文化表示担忧而选择离职。Leike 认为,OpenAI 的关注点逐渐转向光鲜的产品,而忽视了安全问题。
近年来,关于 AI 聊天机器人可能影响用户心理健康的讨论愈发热烈。一些用户在与聊天机器人进行深入对话后,心理状态甚至加重,相关事件引发了公众的广泛关注,包括青少年自杀和成年人实施极端行为等悲剧。面对这些事件,受害者家属对相关公司提起了诉讼,而美国参议院也对此进行了听证,探讨聊天机器人在这些事件中的角色与责任。
对于 Anthropic,瓦隆内的加入无疑将为其在 AI 安全研究领域注入新的力量。Sam Bowman,Anthropic 对齐团队的负责人,表示非常自豪能参与解决这一重要问题,认为公司正认真思考 AI 系统的行为标准。瓦隆内也表示期待在新的工作环境中,通过对齐和微调继续推进相关研究,为 AI 的安全发展贡献力量。
via AI新闻资讯 (author: AI Base)
随着 AI 聊天机器人深度介入人类情感生活,模型如何应对用户的心理危机已成为行业最迫切的伦理防线。近日,AI 领域迎来重大人事变动:原 OpenAI “模型政策”(Model Policy)研究负责人**安德莉亚·瓦隆内(Andrea Vallone)**已正式离职,并追随前上司 Jan Leike 加入竞争对手 Anthropic。
核心挑战:无先例可循的“情感泥潭”
在 OpenAI 任职期间,瓦隆内组建并领导了负责 GPT-4及下一代推理模型 GPT-5部署的安全团队。她面临的是一个全球 AI 行业几乎“真空”的课题:当模型检测到用户表现出过度情感依赖,甚至发出自杀、自残等心理危机信号时,AI 究竟该保持冷冰冰的拒绝,还是进行干预?
瓦隆内曾坦言,这项研究几乎没有现成先例。她不仅参与设计了“基于规则的奖励”等主流安全训练方法,还试图在模型回复中平衡“有用性”与“情感安全边界”。
行业阵痛:被瓦解的安全防线与法律风暴
此次人才流向的背后,是大模型安全性的集体焦虑。过去一年,AI 领域爆发出多起极端负面事件:
● 极端悲剧: 全球范围内出现了多起青少年及成年人在与 AI 长期“倾诉”后,因情感诱导或安全防线在长对话中崩溃,导致自杀或实施暴力犯罪的案例。
● 法律诉讼: 多名受害者家属已对相关 AI 公司提起过失致死诉讼;美国参议院专门举行听证会,质询 AI 系统的角色与法律责任。
● 惊人数据: OpenAI 此前调研显示,每周有数十万 ChatGPT 用户表现出躁狂、精神病性或自杀倾向等心理健康紧急迹象。
人才集结:Anthropic 强化“安全文化”标签
瓦隆内加入 Anthropic 的对齐(Alignment)团队后,将直接向 Jan Leike 汇报。Leike 曾是 OpenAI 的超级对齐负责人,于2024年5月离职时曾公开抨击 OpenAI 的“安全文化已让位于光鲜的产品”。
Anthropic 方面表示,瓦隆内的加入体现了公司对“AI 系统应该如何行为”的严肃思考。瓦隆内则表示,她期待在全新情境下塑造 Claude 的行为,通过微调技术进一步探索 AI 的社会责任边界。
via AI新闻资讯 (author: AI Base)
马斯克前女友起诉xAI:指控Grok生成不当图像
近日,马斯克的前女友阿什莉・圣克莱尔(Ashley St. Clair)对他的人工智能公司 xAI 提起了诉讼,指控旗下聊天机器人 Grok 在未经她同意的情况下,生成并传播了她的色情露骨图像。这一事件不仅引发了公众的关注,也再次将 AI 技术的伦理问题推向了风口浪尖。
根据彭博社的报道,圣克莱尔在纽约提起的诉讼中指出,Grok 通过篡改她的童年照片,生成了多张她赤裸以及处于其他性情境中的图像,并在社交媒体平台 X 上进行传播。圣克莱尔表示,她曾多次要求 xAI 删除这些图像,但未能如愿。更令人气愤的是,圣克莱尔称 xAI 在她发出删除请求后,不仅没有采取措施,还对她进行了报复,取消了她在 X 平台的变现资格,并继续生成更多不当图像。
她的律师在诉讼中提到,Grok 曾承诺不会再生成与她有关的露骨图像,但实际情况却与承诺背道而驰。圣克莱尔在诉讼中指出,xAI 在设计上存在缺陷,对用户的保护措施不力,未能有效预防这种可预见的伤害。
此案的曝光恰逢全球多国政府和监管机构加强对图像生成技术的审查。为了应对舆论的压力,xAI 已于日前宣布将禁用 Grok 生成真实人物性化图像的功能,以期保护用户隐私和安全。
与此同时,圣克莱尔提起诉讼后,X 平台也针对她提出了反诉,指控她违反合同,未按要求在指定的法院提起诉讼。当前,xAI 和 X 尚未对这些指控做出公开回应。
这一事件引发了公众对于 AI 技术的广泛讨论,尤其是在如何平衡技术创新与保护个人隐私之间的矛盾方面。随着技术的发展,如何确保用户不受骚扰并保护他们的合法权益,成为社会亟待解决的重要议题。
via AI新闻资讯 (author: AI Base)
近日,马斯克的前女友阿什莉・圣克莱尔(Ashley St. Clair)对他的人工智能公司 xAI 提起了诉讼,指控旗下聊天机器人 Grok 在未经她同意的情况下,生成并传播了她的色情露骨图像。这一事件不仅引发了公众的关注,也再次将 AI 技术的伦理问题推向了风口浪尖。
根据彭博社的报道,圣克莱尔在纽约提起的诉讼中指出,Grok 通过篡改她的童年照片,生成了多张她赤裸以及处于其他性情境中的图像,并在社交媒体平台 X 上进行传播。圣克莱尔表示,她曾多次要求 xAI 删除这些图像,但未能如愿。更令人气愤的是,圣克莱尔称 xAI 在她发出删除请求后,不仅没有采取措施,还对她进行了报复,取消了她在 X 平台的变现资格,并继续生成更多不当图像。
她的律师在诉讼中提到,Grok 曾承诺不会再生成与她有关的露骨图像,但实际情况却与承诺背道而驰。圣克莱尔在诉讼中指出,xAI 在设计上存在缺陷,对用户的保护措施不力,未能有效预防这种可预见的伤害。
此案的曝光恰逢全球多国政府和监管机构加强对图像生成技术的审查。为了应对舆论的压力,xAI 已于日前宣布将禁用 Grok 生成真实人物性化图像的功能,以期保护用户隐私和安全。
与此同时,圣克莱尔提起诉讼后,X 平台也针对她提出了反诉,指控她违反合同,未按要求在指定的法院提起诉讼。当前,xAI 和 X 尚未对这些指控做出公开回应。
这一事件引发了公众对于 AI 技术的广泛讨论,尤其是在如何平衡技术创新与保护个人隐私之间的矛盾方面。随着技术的发展,如何确保用户不受骚扰并保护他们的合法权益,成为社会亟待解决的重要议题。
via AI新闻资讯 (author: AI Base)
OpenAI 巨额投资脑机接口初创公司 Merge Labs,布局“人机融合”
近日,由 OpenAI 首席执行官山姆·奥尔特曼(Sam Altman)参与创立的脑机接口(BCI)初创公司Merge Labs正式从隐身模式走到台前。据 AIbase 获悉,这家致力于连接生物智能与人工智能的研究实验室已成功完成2.5亿美元的种子轮融资,估值达到8.5亿美元。在本轮融资中,OpenAI 作为领投方提供了最大一笔资金。
与埃隆·马斯克旗下 Neuralink 采用的手术植入方案不同,Merge Labs 选择了一条非侵入式的技术路径。该公司计划利用“分子”而非电极来连接神经元,并尝试通过超声波等深层模态技术实现神经信号的传输与接收。这一技术愿景旨在通过规模化连接神经元,不仅帮助人类恢复丧失的生理能力,更意在扩展人类的感知与想象力。
Merge Labs的团队背景十分雄厚,创始成员除了奥尔特曼外,还包括 World 币开发商的 CEO Alex Blania,以及来自加州理工学院等顶尖学术机构的研究人员。
奥尔特曼对脑机接口的关注由来已久。他曾预测人类将在2025年至2075年间实现与机器的融合。在他看来,面对未来可能出现的、计算能力远超人类的“超级人工智能”,实现人机融合是人类避免被边缘化、确保长期生存的有效方案。通过Merge Labs,他试图在生物智能与数字智能之间架起一座桥梁,即便这一演化过程在现阶段看来依然充满挑战与神秘感。
划重点:
● 🧠 融资规模: Merge Labs 完成2.5亿美元种子轮融资,OpenAI 为最大投资方,公司估值已达8.5亿美元。
● 📡 技术路径: 区别于 Neuralink 的手术植入方式,该实验室主攻非侵入式技术,计划通过分子和超声波连接神经元。
● 🛡️ 战略远景: 奥尔特曼认为人机融合是对抗未来“超级 AI”威胁、确保人类不被进化边缘化的核心策略。
via AI新闻资讯 (author: AI Base)
近日,由 OpenAI 首席执行官山姆·奥尔特曼(Sam Altman)参与创立的脑机接口(BCI)初创公司Merge Labs正式从隐身模式走到台前。据 AIbase 获悉,这家致力于连接生物智能与人工智能的研究实验室已成功完成2.5亿美元的种子轮融资,估值达到8.5亿美元。在本轮融资中,OpenAI 作为领投方提供了最大一笔资金。
与埃隆·马斯克旗下 Neuralink 采用的手术植入方案不同,Merge Labs 选择了一条非侵入式的技术路径。该公司计划利用“分子”而非电极来连接神经元,并尝试通过超声波等深层模态技术实现神经信号的传输与接收。这一技术愿景旨在通过规模化连接神经元,不仅帮助人类恢复丧失的生理能力,更意在扩展人类的感知与想象力。
Merge Labs的团队背景十分雄厚,创始成员除了奥尔特曼外,还包括 World 币开发商的 CEO Alex Blania,以及来自加州理工学院等顶尖学术机构的研究人员。
奥尔特曼对脑机接口的关注由来已久。他曾预测人类将在2025年至2075年间实现与机器的融合。在他看来,面对未来可能出现的、计算能力远超人类的“超级人工智能”,实现人机融合是人类避免被边缘化、确保长期生存的有效方案。通过Merge Labs,他试图在生物智能与数字智能之间架起一座桥梁,即便这一演化过程在现阶段看来依然充满挑战与神秘感。
划重点:
● 🧠 融资规模: Merge Labs 完成2.5亿美元种子轮融资,OpenAI 为最大投资方,公司估值已达8.5亿美元。
● 📡 技术路径: 区别于 Neuralink 的手术植入方式,该实验室主攻非侵入式技术,计划通过分子和超声波连接神经元。
● 🛡️ 战略远景: 奥尔特曼认为人机融合是对抗未来“超级 AI”威胁、确保人类不被进化边缘化的核心策略。
via AI新闻资讯 (author: AI Base)
长期以来,生成式人工智能在新闻编辑室的应用多处于外围实验阶段。然而,由鲁珀特·默多克(Rupert Murdoch)掌控的媒体巨头**新闻集团(News Corp)**近日迈出关键一步,宣布与初创公司 Symbolic.ai 签署重要合作协议,旨在将 AI 技术深度嵌入其核心新闻生产环节。
强强联手:赋能道琼斯财经报道
根据协议,新闻集团旗下的财经新闻支柱——**道琼斯通讯社(Dow Jones Newswires)**将率先引入 Symbolic 的人工智能平台。这意味着包括《华尔街日报》(The Wall Street Journal)、MarketWatch 及《纽约邮报》等知名媒体的母公司,正试图通过技术手段重塑其财经信息的处理效率。
核心技术:效率飞跃与全流程优化
Symbolic.ai 的背景颇为亮眼,由前 eBay 首席执行官 Devin Wenig 和科技媒体 Ars Technica 联合创始人 Jon Stokes 共同创立。该公司表示,其平台不仅能辅助制作高质量的新闻内容,更能带来实质性的生产力突破:
● 效率突破: 针对复杂的研究任务,该工具可将效率提升高达 90%。
● 全链条覆盖: 该平台旨在全面优化编辑工作流,涵盖新闻简报制作、音频转录、事实核查、SEO 建议以及“标题优化”等核心环节。
新闻集团的 AI 野心
此次合作标志着新闻集团正从单纯的“内容供应商”转型为“AI 赋能的媒体先行者”。此前在2024年,该集团已与 OpenAI 签署了多年内容授权协议。去年11月,集团曾明确表示正在考虑拓展业务,计划将其优质内容授权给更多人工智能公司。
通过与 Symbolic.ai 的深度整合,新闻集团展示了其将 AI 融入媒体运营、在确保专业性的前提下实现降本增效的坚定决心。
via AI新闻资讯 (author: AI Base)
美参议员要求科企就色情深伪内容做出回应
科技界未经同意的色情深度伪造问题如今已不仅仅是 X 的问题了。在一封致X、Meta平台、谷歌、Snap、Reddit及TikTok负责人的信中,数位美国参议员要求这些公司提供证据,证明其已制定“健全的保护措施与政策”,并说明他们计划如何遏制平台上色情深伪内容的增长。参议员还要求这些公司保存所有与色情化人工智能生成图像的创建、检测、审核及盈利相关的文件与信息,以及任何相关政策。参议员指出,媒体报道显示Grok能轻易且频繁地生成女性与儿童的色情及裸体图像,这意味着平台为防止用户发布非自愿色情内容所设置的防护措施可能仍不足够。
—— Techcrunch
via 风向旗参考快讯 - Telegram Channel
科技界未经同意的色情深度伪造问题如今已不仅仅是 X 的问题了。在一封致X、Meta平台、谷歌、Snap、Reddit及TikTok负责人的信中,数位美国参议员要求这些公司提供证据,证明其已制定“健全的保护措施与政策”,并说明他们计划如何遏制平台上色情深伪内容的增长。参议员还要求这些公司保存所有与色情化人工智能生成图像的创建、检测、审核及盈利相关的文件与信息,以及任何相关政策。参议员指出,媒体报道显示Grok能轻易且频繁地生成女性与儿童的色情及裸体图像,这意味着平台为防止用户发布非自愿色情内容所设置的防护措施可能仍不足够。
—— Techcrunch
via 风向旗参考快讯 - Telegram Channel
OpenAI据称启动美国本土采购招标流程
最新消息显示,OpenAI正在寻求加强其美国本土的硬件供应链,并且寻找合作伙伴,以进军消费级设备、机器人以及云数据中心领域,这是其未来几年重大产品扩张计划的一部分。有文件显示,OpenAI已向在美国制造的企业发出采购方案(RFP),希望获得包括芯片、电机、封装材料,以及数据中心冷却设备等相关组件的供应方案。但相关文件并未披露OpenAI计划投入的具体金额或项目周期。OpenAI曾表示,其用于数据中心扩张计划的投资将高达数万亿美元,并认为这与其提升营收能力直接相关。先前,公司还收购了一家由苹果前高管 Jony Ive 联合创立的企业io,迈出进入消费电子市场的重要一步。
—— 财联社、彭博社
via 风向旗参考快讯 - Telegram Channel
最新消息显示,OpenAI正在寻求加强其美国本土的硬件供应链,并且寻找合作伙伴,以进军消费级设备、机器人以及云数据中心领域,这是其未来几年重大产品扩张计划的一部分。有文件显示,OpenAI已向在美国制造的企业发出采购方案(RFP),希望获得包括芯片、电机、封装材料,以及数据中心冷却设备等相关组件的供应方案。但相关文件并未披露OpenAI计划投入的具体金额或项目周期。OpenAI曾表示,其用于数据中心扩张计划的投资将高达数万亿美元,并认为这与其提升营收能力直接相关。先前,公司还收购了一家由苹果前高管 Jony Ive 联合创立的企业io,迈出进入消费电子市场的重要一步。
—— 财联社、彭博社
via 风向旗参考快讯 - Telegram Channel
🧠 OpenAI 提升 ChatGPT 记忆功能可靠性
OpenAI 宣布改进了 ChatGPT 的记忆功能,使其在检索和记录过往对话细节方面更具可靠性。该功能可帮助模型更准确地记住用户此前提到过的食谱或健身计划等具体信息。目前 OpenAI 已邀请用户体验该功能并提供反馈。
(@OpenAI)
via 茶馆 - Telegram Channel
OpenAI 宣布改进了 ChatGPT 的记忆功能,使其在检索和记录过往对话细节方面更具可靠性。该功能可帮助模型更准确地记住用户此前提到过的食谱或健身计划等具体信息。目前 OpenAI 已邀请用户体验该功能并提供反馈。
(@OpenAI)
via 茶馆 - Telegram Channel
OpenAI 过去一年中最具争议的问题之一,是当聊天机器人用户在对话中表现出心理健康困扰迹象时,模型究竟应该如何应对,如今负责这一领域安全研究的负责人安德莉亚·瓦隆内(Andrea Vallone)已经离职并加入 Anthropic。
瓦隆内此前在领英发文表示,过去一年她在 OpenAI 负责的研究几乎“没有现成先例”可循,其核心问题是:当模型面对用户出现情感过度依赖,或早期的心理健康危机信号时,应该如何回应。她在 OpenAI 任职三年,其间组建并带领“模型政策”(model policy)研究团队,围绕 GPT‑4、下一代推理模型 GPT‑5 的部署开展工作,并参与设计包括“基于规则的奖励”等在内的多种业界主流安全训练方法。
如今,瓦隆内已加入 Anthropic 的对齐(alignment)团队,这一团队的任务是识别和理解大模型可能带来的重大风险,并探索应对路径。她将向 Jan Leike 汇报工作——这位 OpenAI 前安全研究负责人在 2024 年 5 月因担忧 OpenAI 的“安全文化和流程已让位于光鲜产品”而离职,之后转投 Anthropic。
过去一年,围绕 AI 聊天机器人与用户心理健康相关的风险,头部 AI 创业公司不断引发舆论争议。一些用户在与聊天机器人长时间倾诉后,心理困境进一步加深,安全防线在长对话中逐渐瓦解,甚至出现青少年自杀、成年人在与工具“倾诉”后实施杀人等极端事件。多起案件引发家属对相关公司提起过失致死诉讼,美国参议院的一个小组委员会也就此举行听证,要求探讨聊天机器人在这类事件中的角色和责任,安全研究人员则被要求给出更有力的解决方案。
Anthropic 的对齐团队负责人之一 Sam Bowman 在领英上表示,自己“为 Anthropic 对这一问题的重视程度感到自豪”,认为公司正认真思考“AI 系统应该如何行为”。瓦隆内则在本周四的领英新帖中写道,她“期待在 Anthropic 继续开展研究,专注于通过对齐和微调,在全新情境下塑造 Claude 的行为”。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
🌐 维基百科成立25周年:在协作奇迹与中立性争议中前行
维基百科(Wikipedia)近期迎来成立25周年。自2001年由吉米·威尔士(Jimmy Wales)和拉里·桑格(Larry Sanger)创立以来,该平台已从最初备受嘲讽的互联网实验演变为全球最大的知识协作库,其信息覆盖量与影响力早已超越传统的《大英百科全书》。尽管其在科学、数学及神经解剖学等专业领域的准确性获得了部分学术界的认可,但围绕其治理模式、内容中立性及未来生存挑战的讨论依然激烈。
在组织治理方面,创始人身份的争议仍是焦点。吉米·威尔士近期在采访中因回避拉里·桑格的共同创始人地位并中途离场引发关注。与此同时,维基媒体基金会(WMF)的财务状况也受到质疑,批评者指出该机构在拥有巨额储备金的情况下,仍进行频繁且具有侵入性的募捐活动,且资金更多用于组织扩张而非条目维护。
内容中立性是争议的核心。用户对政治、地缘政治及社会议题中的偏见表示担忧,指出资深编辑通过“文明的观点推行”(civil POV pushing)和规则武器化来控制条目解释权,导致如“GamerGate”事件、地缘冲突等敏感话题出现明显的意识形态偏差。此外,不同语言版本在同一议题(如医疗手术争议)上的描述差异,也暴露了编辑群体立场对知识呈现的影响。
面对人工智能的崛起,维基百科正面临结构性挑战。虽然它是大语言模型(LLM)的核心训练数据源,但新兴的AI搜索工具和埃隆·马斯克推出的Grokipedia正对其流量和募资模式构成威胁。部分观点认为,若无法解决编辑门槛过高、官僚化严重以及内容陈旧等问题,维基百科可能面临类似Stack Overflow的衰落风险。目前,维基媒体基金会已开始与微软、谷歌及Mistral AI等科技公司建立合作伙伴关系,以应对AI时代的生存压力。
(HackerNews)
via 茶馆 - Telegram Channel
维基百科(Wikipedia)近期迎来成立25周年。自2001年由吉米·威尔士(Jimmy Wales)和拉里·桑格(Larry Sanger)创立以来,该平台已从最初备受嘲讽的互联网实验演变为全球最大的知识协作库,其信息覆盖量与影响力早已超越传统的《大英百科全书》。尽管其在科学、数学及神经解剖学等专业领域的准确性获得了部分学术界的认可,但围绕其治理模式、内容中立性及未来生存挑战的讨论依然激烈。
在组织治理方面,创始人身份的争议仍是焦点。吉米·威尔士近期在采访中因回避拉里·桑格的共同创始人地位并中途离场引发关注。与此同时,维基媒体基金会(WMF)的财务状况也受到质疑,批评者指出该机构在拥有巨额储备金的情况下,仍进行频繁且具有侵入性的募捐活动,且资金更多用于组织扩张而非条目维护。
内容中立性是争议的核心。用户对政治、地缘政治及社会议题中的偏见表示担忧,指出资深编辑通过“文明的观点推行”(civil POV pushing)和规则武器化来控制条目解释权,导致如“GamerGate”事件、地缘冲突等敏感话题出现明显的意识形态偏差。此外,不同语言版本在同一议题(如医疗手术争议)上的描述差异,也暴露了编辑群体立场对知识呈现的影响。
面对人工智能的崛起,维基百科正面临结构性挑战。虽然它是大语言模型(LLM)的核心训练数据源,但新兴的AI搜索工具和埃隆·马斯克推出的Grokipedia正对其流量和募资模式构成威胁。部分观点认为,若无法解决编辑门槛过高、官僚化严重以及内容陈旧等问题,维基百科可能面临类似Stack Overflow的衰落风险。目前,维基媒体基金会已开始与微软、谷歌及Mistral AI等科技公司建立合作伙伴关系,以应对AI时代的生存压力。
(HackerNews)
via 茶馆 - Telegram Channel
树莓派基金会发布了全新的 AI 扩展板 AI HAT+ 2,为 Raspberry Pi 5 带来本地运行生成式 AI 模型的能力,主打在边缘设备上完成文本与多模态推理等任务。 这款售价 130 美元的扩展板在前代基础上全面升级,内置 8GB 内存,并搭载 Hailo 10H 芯片,号称可提供 40 TOPS 的 AI 运算性能。
AI HAT+ 2 通过与 Raspberry Pi 5 相连,将大部分与 AI 相关的推理负载从主板的 Arm CPU 上“卸载”,由扩展板独立完成,从而让主机更多用于其他计算任务。 与此前更偏重图像处理的 AI HAT+ 不同,新一代产品因为加入板载内存,可以直接在本地运行体量较小的生成式 AI 模型,如 Llama 3.2、DeepSeek-R1-Distill 以及多款 Qwen 系列模型,并支持在设备端对模型进行训练和微调。
树莓派方面展示的演示案例包括:通过 AI HAT+ 2 驱动模型,对摄像头画面生成文本描述,并回答画面中是否有人等问题,体现其在场景理解上的应用潜力。 另一段演示则展示了借助 Qwen2 模型实现法语到英语的文本翻译,凸显其在本地多语言处理方面的能力。
不过,从第三方测试来看,这块扩展板在性能和性价比上的定位并非毫无争议。 科技博主 Jeff Geerling 的实测结果显示,在多款受支持模型上,一台配备 8GB 内存的独立 Raspberry Pi 5 整机整体表现往往优于接入 AI HAT+ 2 的组合,他将这一差异归因于功耗限制:Pi 5 本体最高可在约 10 瓦功率下运行,而 AI HAT+ 2 则被限制在约 3 瓦功耗范围内。
在实际选型上,Geerling 指出,AI HAT+ 2 额外提供的 8GB 内存,并不足以让它在综合体验上超越直接购买拥有 16GB 内存的高配版 Pi 5。 后者在灵活性和模型运行速度上可能更具优势,因此 AI HAT+ 2 更适合作为特定场景下的专用方案,而非面向所有用户的通用升级路径。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
Bugbot and Background Agents degraded due to a GitHub outage
Jan 15, 17:33 UTC
Investigating - We are investigating this issue.
via Cursor Status - Incident History
Jan 15, 17:33 UTC
Investigating - We are investigating this issue.
via Cursor Status - Incident History