https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
OpenAI 大幅下调算力支出目标至 6000 亿美元,谋划新一轮融资!
近日,OpenAI 向投资者更新了其长期资本支出规划,意外地将算力支出目标下调至 6000 亿美元,时间期限延长至 2030 年。这一消息引发了广泛关注,尤其是与几个月前 CEO 萨姆・奥特曼(Sam Altman)所提及的 1.4 万亿美元基础设施投资承诺形成鲜明对比。
在新的规划中,OpenAI 不仅调整了支出目标,还明确了未来几年的时间表。公司预计到 2030 年,其总营收将超过 2800 亿美元,且消费者业务与企业业务的贡献大致相当。这表明,OpenAI 希望通过更为稳健的财务策略,来平衡自身的支出与收入增长。
除了对算力支出目标的重新评估,OpenAI 还在积极推进一轮可能超过 1000 亿美元的融资计划。据业内人士透露,这笔资金的筹集将有助于公司进一步扩展其人工智能技术和服务,为未来的发展提供更为坚实的支持。
OpenAI 此次调整算力支出目标的举动,可能反映出其在面对不断变化的市场环境时,采取了更为务实的财务策略。尽管其预计在 2025 年将出现毛利润率下滑至 33%,但公司仍然有信心在 2030 年实现正向现金流。这显示出 OpenAI 对于自身长远发展的规划与信心,尽管短期内面临一些挑战。
随着 AI 技术的迅猛发展,OpenAI 作为行业领导者,其每一步的变化都备受瞩目。如何在保持技术创新的同时,实现财务上的可持续发展,将是 OpenAI 未来面临的重要课题。
划重点:
🌟 OpenAI 将算力支出目标下调至 6000 亿美元,时间延至 2030 年。
💰 公司正推进一轮超过 1000 亿美元的融资计划,以支持未来发展。
📈 尽管面临短期毛利润率下滑,OpenAI 仍预计 2030 年实现正向现金流。
via AI新闻资讯 (author: AI Base)
近日,OpenAI 向投资者更新了其长期资本支出规划,意外地将算力支出目标下调至 6000 亿美元,时间期限延长至 2030 年。这一消息引发了广泛关注,尤其是与几个月前 CEO 萨姆・奥特曼(Sam Altman)所提及的 1.4 万亿美元基础设施投资承诺形成鲜明对比。
在新的规划中,OpenAI 不仅调整了支出目标,还明确了未来几年的时间表。公司预计到 2030 年,其总营收将超过 2800 亿美元,且消费者业务与企业业务的贡献大致相当。这表明,OpenAI 希望通过更为稳健的财务策略,来平衡自身的支出与收入增长。
除了对算力支出目标的重新评估,OpenAI 还在积极推进一轮可能超过 1000 亿美元的融资计划。据业内人士透露,这笔资金的筹集将有助于公司进一步扩展其人工智能技术和服务,为未来的发展提供更为坚实的支持。
OpenAI 此次调整算力支出目标的举动,可能反映出其在面对不断变化的市场环境时,采取了更为务实的财务策略。尽管其预计在 2025 年将出现毛利润率下滑至 33%,但公司仍然有信心在 2030 年实现正向现金流。这显示出 OpenAI 对于自身长远发展的规划与信心,尽管短期内面临一些挑战。
随着 AI 技术的迅猛发展,OpenAI 作为行业领导者,其每一步的变化都备受瞩目。如何在保持技术创新的同时,实现财务上的可持续发展,将是 OpenAI 未来面临的重要课题。
划重点:
🌟 OpenAI 将算力支出目标下调至 6000 亿美元,时间延至 2030 年。
💰 公司正推进一轮超过 1000 亿美元的融资计划,以支持未来发展。
📈 尽管面临短期毛利润率下滑,OpenAI 仍预计 2030 年实现正向现金流。
via AI新闻资讯 (author: AI Base)
前 DeepMind 首席科学家辞职创业,瞄准超级智能新篇章!
前谷歌 DeepMind 的首席科学家、曾在 AlphaGo 项目中发挥关键作用的席尔瓦(David Silver)日前正式辞职,并在伦敦创办了 AI 初创公司 Ineffable Intelligence。这一举动引发了科技界的广泛关注,席尔瓦正在为其公司推进一轮高达 10 亿美元的种子轮融资,几乎达到安全超级智能(Safe Superintelligence)的融资纪录。
席尔瓦在 DeepMind 的职业生涯中积累了丰富的经验,而他如今的创业计划则显得颇具前瞻性。Ineffable Intelligence 将不再依赖传统的大型语言模型(LLM),而是回归强化学习的根基,致力于构建一种能够自主探索和学习的新型智能系统。这意味着新系统将不再依赖于人类已有的知识,而是能在没有外部指导的情况下自主发掘新知识和技能,这无疑是人工智能领域的一次重大突破。
对于席尔瓦的离职,DeepMind 的发言人也发表了官方声明,感谢他多年来的贡献,并祝福他在新事业上的成功。席尔瓦的辞职被视为 DeepMind 重要的人事变动,标志着公司正在经历一个新的转型期。在人工智能技术迅速发展的背景下,席尔瓦的创业选择可能会为未来的 AI 发展带来新的思路。
随着 Ineffable Intelligence 的融资进展,席尔瓦的愿景也将更进一步,或许会改变我们对人工智能的理解与应用。未来,我们或许能看到一款全新智能系统的诞生,开启 AI 技术的新时代。
划重点:
🔍 ** 席尔瓦辞职创业 **:前 DeepMind 首席科学家席尔瓦正式离职,成立 AI 初创公司 Ineffable Intelligence。
💰 **10 亿美元融资 **:该公司正在推进一轮接近 10 亿美元的种子轮融资,可能创造新纪录。
🤖 ** 突破传统范式 **:新公司将采用强化学习,构建不依赖人类知识的自主学习智能系统。
via AI新闻资讯 (author: AI Base)
前谷歌 DeepMind 的首席科学家、曾在 AlphaGo 项目中发挥关键作用的席尔瓦(David Silver)日前正式辞职,并在伦敦创办了 AI 初创公司 Ineffable Intelligence。这一举动引发了科技界的广泛关注,席尔瓦正在为其公司推进一轮高达 10 亿美元的种子轮融资,几乎达到安全超级智能(Safe Superintelligence)的融资纪录。
席尔瓦在 DeepMind 的职业生涯中积累了丰富的经验,而他如今的创业计划则显得颇具前瞻性。Ineffable Intelligence 将不再依赖传统的大型语言模型(LLM),而是回归强化学习的根基,致力于构建一种能够自主探索和学习的新型智能系统。这意味着新系统将不再依赖于人类已有的知识,而是能在没有外部指导的情况下自主发掘新知识和技能,这无疑是人工智能领域的一次重大突破。
对于席尔瓦的离职,DeepMind 的发言人也发表了官方声明,感谢他多年来的贡献,并祝福他在新事业上的成功。席尔瓦的辞职被视为 DeepMind 重要的人事变动,标志着公司正在经历一个新的转型期。在人工智能技术迅速发展的背景下,席尔瓦的创业选择可能会为未来的 AI 发展带来新的思路。
随着 Ineffable Intelligence 的融资进展,席尔瓦的愿景也将更进一步,或许会改变我们对人工智能的理解与应用。未来,我们或许能看到一款全新智能系统的诞生,开启 AI 技术的新时代。
划重点:
🔍 ** 席尔瓦辞职创业 **:前 DeepMind 首席科学家席尔瓦正式离职,成立 AI 初创公司 Ineffable Intelligence。
💰 **10 亿美元融资 **:该公司正在推进一轮接近 10 亿美元的种子轮融资,可能创造新纪录。
🤖 ** 突破传统范式 **:新公司将采用强化学习,构建不依赖人类知识的自主学习智能系统。
via AI新闻资讯 (author: AI Base)
维基百科创始人直言不讳:马斯克的 Grokipedia 是 “拙劣模仿”!
近日,维基百科创始人吉米・威尔士(Jimmy Wales)在一场采访中针对人工智能生成内容的崛起发表了看法,特别提到了特斯拉 CEO 埃隆・马斯克推出的 AI 百科全书 Grokipedia。威尔士表示,他对 AI 生成内容并不感到担忧,并指出这种内容往往存在错误。
威尔士强调,维基百科的条目都是由志愿者撰写和编辑,经过人工审核,确保信息的准确性。他明确表示,目前并不考虑让 AI 直接撰写条目,因为 AI 生成的内容存在严重的 “幻觉” 问题,即生成的信息可能完全不真实,尤其是在冷门话题上,这种现象更为明显。
“人工撰写的条目得益于领域专家的贡献,能够有效防止不准确信息的出现。” 威尔士说。对于马斯克的 Grokipedia,他称其为 “滑稽模仿”,并认为在信息准确性和可信度上,Grokipedia 很难与维基百科相提并论。
根据 OpenAI 的研究,先进的大语言模型在某些测试中的幻觉率高达 79%。这意味着,AI 生成的内容在实际应用中可能产生大量不实信息,影响用户对知识的理解。威尔士的观点提醒我们,在信息泛滥的时代,维基百科依然是一个值得信赖的知识平台。
他进一步指出,虽然 AI 技术在不断发展,但与人类的创造力和判断力相比,AI 仍有很大的提升空间。维基百科的成功在于其社区驱动的模式,能够保证信息的权威性和准确性,AI 在这一点上尚未能取代人类。
总的来说,吉米・威尔士的讲话不仅是对 AI 内容生成的一种警醒,也反映出他对维基百科未来的信心。在信息多元化的今天,维基百科将继续发挥其不可替代的作用。
划重点:
🌟 维基百科创始人吉米・威尔士不担心 AI 内容生成的威胁,称其容易出错。
🛡️ 维基百科条目由志愿者撰写并经过人工审核,确保信息准确性。
📉 OpenAI 研究显示,AI 生成内容存在高达 79% 的 “幻觉” 现象,可信度存疑。
via AI新闻资讯 (author: AI Base)
近日,维基百科创始人吉米・威尔士(Jimmy Wales)在一场采访中针对人工智能生成内容的崛起发表了看法,特别提到了特斯拉 CEO 埃隆・马斯克推出的 AI 百科全书 Grokipedia。威尔士表示,他对 AI 生成内容并不感到担忧,并指出这种内容往往存在错误。
威尔士强调,维基百科的条目都是由志愿者撰写和编辑,经过人工审核,确保信息的准确性。他明确表示,目前并不考虑让 AI 直接撰写条目,因为 AI 生成的内容存在严重的 “幻觉” 问题,即生成的信息可能完全不真实,尤其是在冷门话题上,这种现象更为明显。
“人工撰写的条目得益于领域专家的贡献,能够有效防止不准确信息的出现。” 威尔士说。对于马斯克的 Grokipedia,他称其为 “滑稽模仿”,并认为在信息准确性和可信度上,Grokipedia 很难与维基百科相提并论。
根据 OpenAI 的研究,先进的大语言模型在某些测试中的幻觉率高达 79%。这意味着,AI 生成的内容在实际应用中可能产生大量不实信息,影响用户对知识的理解。威尔士的观点提醒我们,在信息泛滥的时代,维基百科依然是一个值得信赖的知识平台。
他进一步指出,虽然 AI 技术在不断发展,但与人类的创造力和判断力相比,AI 仍有很大的提升空间。维基百科的成功在于其社区驱动的模式,能够保证信息的权威性和准确性,AI 在这一点上尚未能取代人类。
总的来说,吉米・威尔士的讲话不仅是对 AI 内容生成的一种警醒,也反映出他对维基百科未来的信心。在信息多元化的今天,维基百科将继续发挥其不可替代的作用。
划重点:
🌟 维基百科创始人吉米・威尔士不担心 AI 内容生成的威胁,称其容易出错。
🛡️ 维基百科条目由志愿者撰写并经过人工审核,确保信息准确性。
📉 OpenAI 研究显示,AI 生成内容存在高达 79% 的 “幻觉” 现象,可信度存疑。
via AI新闻资讯 (author: AI Base)
OpenAI 将推出 AI 音箱,前苹果设计大咖亲自操刀,售价或在 300 美元左右!
近日,有消息传出,OpenAI 正在全力研发其首款配备摄像头的人工智能音箱,预计在 2027 年正式发布。这款音箱不仅将会是 OpenAI 进军硬件市场的重要产品,还将与智能眼镜、智能台灯等一系列智能设备共同推出。根据科技媒体《The Information》的报道,目前 OpenAI 内部已有超过 200 名员工专注于硬件研发,显示出该公司在硬件领域的雄心。
这款即将问世的智能音箱预计售价在 200 至 300 美元之间(约合人民币 1382 元至 2073 元),并有望在 2027 年初开始出货。与市场上现有的音箱产品,如 Apple 的 HomePod 或 Google 的 Nest Audio 相比,这款音箱在设计理念上将会有所不同,主要体现在其独特的摄像头功能上。该摄像头不仅可以捕捉周围环境的细节,还能够持续监听附近的对话,甚至具备人脸识别功能,允许用户通过 “刷脸” 进行身份验证或支付。
此外,OpenAI 还计划在智能眼镜领域发力,但由于 Meta 目前在这一市场占据主导地位,预计要到 2028 年才能推出相关产品。而智能台灯的原型设计已经完成,但是否进入量产仍存在不确定性。
为了确保产品的设计质量与用户体验,OpenAI 去年以 65 亿美元收购了由苹果前首席设计官 Jony Ive 创办的设计公司 io,Ive 将主导硬件产品的整体设计。这位曾在苹果工作超过 20 年的设计巨匠,参与了包括 iPhone、iPad 在内的众多经典产品的设计,能否将其在苹果的成功经验延续到 OpenAI 的硬件产品上,值得期待。
然而,打造可大规模量产的 AI 硬件并非易事。根据报道,OpenAI 的硬件项目多次推迟,原因包括技术整合难度、对算力的需求以及日益严峻的隐私安全问题。尽管如此,OpenAI 的探索与尝试无疑将在智能家居领域掀起新一轮的浪潮。
划重点:
🛠️ OpenAI 计划在 2027 年推出首款配备摄像头的 AI 音箱,售价预计在 200 至 300 美元之间。
👁️ 该音箱将具备摄像头和人脸识别功能,能够持续监听环境和识别物体。
🎨 前苹果设计大咖 Jony Ive 将主导硬件设计,OpenAI 希望通过优质设计提升用户体验。
via AI新闻资讯 (author: AI Base)
近日,有消息传出,OpenAI 正在全力研发其首款配备摄像头的人工智能音箱,预计在 2027 年正式发布。这款音箱不仅将会是 OpenAI 进军硬件市场的重要产品,还将与智能眼镜、智能台灯等一系列智能设备共同推出。根据科技媒体《The Information》的报道,目前 OpenAI 内部已有超过 200 名员工专注于硬件研发,显示出该公司在硬件领域的雄心。
这款即将问世的智能音箱预计售价在 200 至 300 美元之间(约合人民币 1382 元至 2073 元),并有望在 2027 年初开始出货。与市场上现有的音箱产品,如 Apple 的 HomePod 或 Google 的 Nest Audio 相比,这款音箱在设计理念上将会有所不同,主要体现在其独特的摄像头功能上。该摄像头不仅可以捕捉周围环境的细节,还能够持续监听附近的对话,甚至具备人脸识别功能,允许用户通过 “刷脸” 进行身份验证或支付。
此外,OpenAI 还计划在智能眼镜领域发力,但由于 Meta 目前在这一市场占据主导地位,预计要到 2028 年才能推出相关产品。而智能台灯的原型设计已经完成,但是否进入量产仍存在不确定性。
为了确保产品的设计质量与用户体验,OpenAI 去年以 65 亿美元收购了由苹果前首席设计官 Jony Ive 创办的设计公司 io,Ive 将主导硬件产品的整体设计。这位曾在苹果工作超过 20 年的设计巨匠,参与了包括 iPhone、iPad 在内的众多经典产品的设计,能否将其在苹果的成功经验延续到 OpenAI 的硬件产品上,值得期待。
然而,打造可大规模量产的 AI 硬件并非易事。根据报道,OpenAI 的硬件项目多次推迟,原因包括技术整合难度、对算力的需求以及日益严峻的隐私安全问题。尽管如此,OpenAI 的探索与尝试无疑将在智能家居领域掀起新一轮的浪潮。
划重点:
🛠️ OpenAI 计划在 2027 年推出首款配备摄像头的 AI 音箱,售价预计在 200 至 300 美元之间。
👁️ 该音箱将具备摄像头和人脸识别功能,能够持续监听环境和识别物体。
🎨 前苹果设计大咖 Jony Ive 将主导硬件设计,OpenAI 希望通过优质设计提升用户体验。
via AI新闻资讯 (author: AI Base)
奥尔特曼批评太空数据中心构想:马斯克的太空梦想是否太过理想化?
近日,OpenAI 首席执行官萨姆・奥尔特曼在接受采访时对太空数据中心的构想提出了质疑,这一话题引发了与 SpaceX 创始人埃隆・马斯克的激烈讨论。马斯克计划在太空中建立数据中心,认为这是未来发展的关键,而奥尔特曼则对此表示 “十分荒谬”。
在新德里的直播采访中,奥尔特曼指出,尽管太空技术不断进步,但目前的技术条件并不支持太空数据中心的建设。他表示:“老实说,以当前的技术来看,把数据中心建在太空的想法十分荒谬。” 他的言论引发了现场观众的笑声。奥尔特曼承认,未来或许有可能实现这一构想,但在现阶段,发射成本和在太空进行计算机芯片维修的难度依然是亟待解决的重大障碍。
马斯克显然不会同意奥尔特曼的看法。他一直积极推动太空技术的发展,并在去年 12 月的 xAI 全员大会上提到,轨道数据中心是他的下一个目标。SpaceX 的计划是发射一个由一百万颗卫星组成的 “轨道数据中心星群”,目前已经开始招聘工程师以推进这一计划。
尽管奥尔特曼对此持怀疑态度,但科技行业的其他领军企业并未放慢探索太空数据中心的步伐。谷歌于 2025 年推出的 “捕日者项目”(Project Suncatcher)正是为此而来。谷歌首席执行官桑达尔・皮查伊在最近的采访中表示,公司的目标是在 2027 年前将太阳能驱动的数据中心送入太空。
科技与人工智能企业依赖数据中心来提供强大的计算能力支持,但与此同时,数据中心的快速扩张也带来了资源消耗、环境污染和社区反对等问题。根据 Business Insider 的数据,预计到 2024 年底,美国将有超过 1200 个数据中心获批建设,数量是 2010 年的四倍,这显示了这一趋势的严重性。
在这一背景下,围绕太空数据中心的争论引发了人们对未来科技发展的深入思考,究竟科技的发展能否平衡与环境和社区的关系,仍然需要时间来检验。
划重点:
🌌 ** 奥尔特曼:太空数据中心在当前技术下 “十分荒谬”**
🛰️ ** 马斯克积极推进轨道数据中心计划,SpaceX 已开始招聘工程师 **
☀️ ** 谷歌计划在 2027 年前推出太阳能驱动的数据中心,科技巨头们纷纷布局太空 **
via AI新闻资讯 (author: AI Base)
近日,OpenAI 首席执行官萨姆・奥尔特曼在接受采访时对太空数据中心的构想提出了质疑,这一话题引发了与 SpaceX 创始人埃隆・马斯克的激烈讨论。马斯克计划在太空中建立数据中心,认为这是未来发展的关键,而奥尔特曼则对此表示 “十分荒谬”。
在新德里的直播采访中,奥尔特曼指出,尽管太空技术不断进步,但目前的技术条件并不支持太空数据中心的建设。他表示:“老实说,以当前的技术来看,把数据中心建在太空的想法十分荒谬。” 他的言论引发了现场观众的笑声。奥尔特曼承认,未来或许有可能实现这一构想,但在现阶段,发射成本和在太空进行计算机芯片维修的难度依然是亟待解决的重大障碍。
马斯克显然不会同意奥尔特曼的看法。他一直积极推动太空技术的发展,并在去年 12 月的 xAI 全员大会上提到,轨道数据中心是他的下一个目标。SpaceX 的计划是发射一个由一百万颗卫星组成的 “轨道数据中心星群”,目前已经开始招聘工程师以推进这一计划。
尽管奥尔特曼对此持怀疑态度,但科技行业的其他领军企业并未放慢探索太空数据中心的步伐。谷歌于 2025 年推出的 “捕日者项目”(Project Suncatcher)正是为此而来。谷歌首席执行官桑达尔・皮查伊在最近的采访中表示,公司的目标是在 2027 年前将太阳能驱动的数据中心送入太空。
科技与人工智能企业依赖数据中心来提供强大的计算能力支持,但与此同时,数据中心的快速扩张也带来了资源消耗、环境污染和社区反对等问题。根据 Business Insider 的数据,预计到 2024 年底,美国将有超过 1200 个数据中心获批建设,数量是 2010 年的四倍,这显示了这一趋势的严重性。
在这一背景下,围绕太空数据中心的争论引发了人们对未来科技发展的深入思考,究竟科技的发展能否平衡与环境和社区的关系,仍然需要时间来检验。
划重点:
🌌 ** 奥尔特曼:太空数据中心在当前技术下 “十分荒谬”**
🛰️ ** 马斯克积极推进轨道数据中心计划,SpaceX 已开始招聘工程师 **
☀️ ** 谷歌计划在 2027 年前推出太阳能驱动的数据中心,科技巨头们纷纷布局太空 **
via AI新闻资讯 (author: AI Base)
谷歌重磅推出 Lyria 3!AI 音乐生成新纪元,合规与创作的双重挑战
谷歌最近在其 Gemini 生态系统中正式推出了最新的音乐生成模型 ——Lyria 3。这一由 Google DeepMind 研发的模型标志着谷歌在 AI 音乐领域的又一重大进展,也为用户带来了更多创作可能性。此次发布的 Lyria 3 不仅支持文本、图片和视频等多模态输入,还能生成高保真的 30 秒音乐曲目,适用于多种语言,如英语、德语、西班牙语和印地语。目前,用户在桌面端已经可以逐步体验,移动端访问也将很快开放。
Lyria 3 的核心创新在于其技术升级,具体包括三大亮点:首先是其自动生成歌词的能力,用户无需额外输入即可自动匹配歌词与旋律;其次,模型对节拍、人声风格等元素进行了精细的控制,能够满足创作者的个性化需求;最后,Lyria 3 具备多模态协同合成的能力,用户只需上传一张图片,模型就能生成与之情绪相符的音乐。
与此同时,谷歌在 Lyria 3 的设计上特别考虑了合规性,以应对日益严格的音乐版权法规。所有生成的音频中都嵌入了 SynthID 水印技术,这使得音乐的来源可追溯,增强了用户对平台的信任感。此外,Lyria 3 在处理著名音乐人姓名时也采取了谨慎的策略,确保不会直接复制其特有风格,避免了潜在的版权问题。
不过,尽管 Lyria 3 在流行音乐等主流领域表现优异,但在一些小众和前卫风格上,其灵活性仍有所欠缺。同时,生成的曲目长度限制在 30 秒,显示出谷歌当前更侧重短内容创作,特别是为 YouTube Shorts 提供配乐,这也使其在与 TikTok 等平台的竞争中更具优势。
随着 Lyria 3 的推出,谷歌正在积极布局 AI 音乐生态,意在通过 Lyria 3 与 Gemini 的联动,打造 “一体化创意套件”。用户在使用中可享受到更高的生成额度,并得到定制的音乐封面,形成一个闭环的创作体验。
总的来说,Lyria 3 的发布不仅是一项技术突破,更在音乐产业的未来发展中带来了新的挑战与机遇。谷歌的合规措施与技术创新之间的平衡,将是未来 AI 音乐行业发展的重要课题。
via AI新闻资讯 (author: AI Base)
谷歌最近在其 Gemini 生态系统中正式推出了最新的音乐生成模型 ——Lyria 3。这一由 Google DeepMind 研发的模型标志着谷歌在 AI 音乐领域的又一重大进展,也为用户带来了更多创作可能性。此次发布的 Lyria 3 不仅支持文本、图片和视频等多模态输入,还能生成高保真的 30 秒音乐曲目,适用于多种语言,如英语、德语、西班牙语和印地语。目前,用户在桌面端已经可以逐步体验,移动端访问也将很快开放。
Lyria 3 的核心创新在于其技术升级,具体包括三大亮点:首先是其自动生成歌词的能力,用户无需额外输入即可自动匹配歌词与旋律;其次,模型对节拍、人声风格等元素进行了精细的控制,能够满足创作者的个性化需求;最后,Lyria 3 具备多模态协同合成的能力,用户只需上传一张图片,模型就能生成与之情绪相符的音乐。
与此同时,谷歌在 Lyria 3 的设计上特别考虑了合规性,以应对日益严格的音乐版权法规。所有生成的音频中都嵌入了 SynthID 水印技术,这使得音乐的来源可追溯,增强了用户对平台的信任感。此外,Lyria 3 在处理著名音乐人姓名时也采取了谨慎的策略,确保不会直接复制其特有风格,避免了潜在的版权问题。
不过,尽管 Lyria 3 在流行音乐等主流领域表现优异,但在一些小众和前卫风格上,其灵活性仍有所欠缺。同时,生成的曲目长度限制在 30 秒,显示出谷歌当前更侧重短内容创作,特别是为 YouTube Shorts 提供配乐,这也使其在与 TikTok 等平台的竞争中更具优势。
随着 Lyria 3 的推出,谷歌正在积极布局 AI 音乐生态,意在通过 Lyria 3 与 Gemini 的联动,打造 “一体化创意套件”。用户在使用中可享受到更高的生成额度,并得到定制的音乐封面,形成一个闭环的创作体验。
总的来说,Lyria 3 的发布不仅是一项技术突破,更在音乐产业的未来发展中带来了新的挑战与机遇。谷歌的合规措施与技术创新之间的平衡,将是未来 AI 音乐行业发展的重要课题。
via AI新闻资讯 (author: AI Base)
加拿大校园枪击案枪手作案数月前曾与人工智能发生涉枪支暴力对话
OpenAI公司称,不列颠哥伦比亚省塔布勒岭校园枪击案发生前几个月,枪手与ChatGPT聊天机器人互动,OpenAI曾考虑提醒执法部门。枪手杰西·范·鲁特塞拉尔在 2025 年 6 月使用ChatGPT时,描述了涉及枪支暴力的场景,并被自动审查系统标记。OpenAI一些员工将鲁特塞拉尔的行为解释为潜在现实世界暴力的迹象,并敦促公司领导提醒加拿大执法部门注意,不过公司领导最终决定不联系当局。OpenAI表示,该公司封禁了鲁特塞拉尔的帐户,但确定其活动并不符合向执法部门报告的标准。2月 10日,加拿大不列颠哥伦比亚省发生校园枪击事件,目前已造成包括嫌疑人在内9人死亡、逾25人受伤。
—— 财联社、彭博社
via 风向旗参考快讯 - Telegram Channel
OpenAI公司称,不列颠哥伦比亚省塔布勒岭校园枪击案发生前几个月,枪手与ChatGPT聊天机器人互动,OpenAI曾考虑提醒执法部门。枪手杰西·范·鲁特塞拉尔在 2025 年 6 月使用ChatGPT时,描述了涉及枪支暴力的场景,并被自动审查系统标记。OpenAI一些员工将鲁特塞拉尔的行为解释为潜在现实世界暴力的迹象,并敦促公司领导提醒加拿大执法部门注意,不过公司领导最终决定不联系当局。OpenAI表示,该公司封禁了鲁特塞拉尔的帐户,但确定其活动并不符合向执法部门报告的标准。2月 10日,加拿大不列颠哥伦比亚省发生校园枪击事件,目前已造成包括嫌疑人在内9人死亡、逾25人受伤。
—— 财联社、彭博社
via 风向旗参考快讯 - Telegram Channel
Opus 4.6 elevated error rates
Feb 21, 22:16 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
Feb 21, 22:16 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
Some Windows users unable to use Cowork
Feb 21, 05:00 UTC
Resolved - Some Windows users on v1.1.3918 of Desktop saw a "Virtualization is not enabled" message and were not able to use Cowork
Resolved in v1.1.3963
via Claude Status - Incident History
Feb 21, 05:00 UTC
Resolved - Some Windows users on v1.1.3918 of Desktop saw a "Virtualization is not enabled" message and were not able to use Cowork
Resolved in v1.1.3963
via Claude Status - Incident History
今日正月初五,腾讯旗下新推出的AI原生社群“元宝派”宣布,用户只需在群内保持活跃,与派友聊天、一起听音乐、观看视频,共同迎接财神,当群内气氛达到高潮时,“元宝”便会化身财神,派发惊喜红包。
此次红包发放方式简单易懂,无需复杂操作,即便是父母长辈也能轻松参与领取。红包类型为拼手气红包,抢到多少金额全凭个人运气,增添了活动的趣味性和刺激性。
据了解,“元宝派”是腾讯今年1月最新推出的社群服务,每个社群上限100人,元宝AI作为群内常驻助手,基于腾讯混元大模型,深度打通了微信、QQ社交链以及腾讯视频、QQ音乐、腾讯会议等丰富生态。它不仅能主动接梗,与群内用户进行斗图、生成表情包和梗图等互动,有效调节群聊氛围,还能区分群成员、记住对话细节,适配不同用户的说话风格。
此外,“元宝派”还支持用户@元宝一键提炼群聊要点、过滤冗余信息,为群内交流提供了极大便利。
via AI新闻资讯 (author: AI Base)
阿里云百炼推出 AI 编码订阅计划 Qwen Coding Plan,覆盖 Qwen3.5-Plus、Qwen3-Max 以及 glm-4.7、kimi-k2.5 等模型,面向日常开发与代码生成、补全、重构等场景。
该计划提供 Lite 与 Pro 两个版本:Lite 每月 1.8 万次请求,¥40/月,Pro 每月 9 万次请求,¥200/月,目前首月优惠为 Lite ¥7.9、Pro ¥39.9,并支持首月续费五折。
阿里云
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
Anthropic 发布 Claude Code Security 限量预览版,检出 500 余个陈年漏洞,网络安全板块应声下跌 8%
Anthropic 于 2026 年 2 月 20 日推出 Claude Code Security 限量研究预览版,该功能内置于网页版 Claude Code 且可自动扫描代码库漏洞并建议补丁。官方数据显示,Claude Opus 4.6 在生产环境开源代码中发现了 500 多个此前未被察觉的漏洞。该工具目前向企业和团队客户开放,所有补丁建议均需经过人工审核方可应用。
受此消息影响,Crowdstrike 与 Cloudflare 等传统网络安全公司股价于周五下跌超过 8%。投资者担忧 AI 原生工具将重塑软件开发流程,进而削弱传统安全产品的市场需求。虽然研究人员认为高等级威胁仍需人类专家管理,但 AI 自动化防御能力的提升已引发市场对行业竞争格局的重新评估。
Anthropic | CyberScoop | Bloomberg
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
Anthropic 于 2026 年 2 月 20 日推出 Claude Code Security 限量研究预览版,该功能内置于网页版 Claude Code 且可自动扫描代码库漏洞并建议补丁。官方数据显示,Claude Opus 4.6 在生产环境开源代码中发现了 500 多个此前未被察觉的漏洞。该工具目前向企业和团队客户开放,所有补丁建议均需经过人工审核方可应用。
受此消息影响,Crowdstrike 与 Cloudflare 等传统网络安全公司股价于周五下跌超过 8%。投资者担忧 AI 原生工具将重塑软件开发流程,进而削弱传统安全产品的市场需求。虽然研究人员认为高等级威胁仍需人类专家管理,但 AI 自动化防御能力的提升已引发市场对行业竞争格局的重新评估。
Anthropic | CyberScoop | Bloomberg
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
OpenAI 曾于半年前识别加拿大校园枪击案嫌疑人风险但未报警
OpenAI 于 2026 年 2 月 20 日证实,公司曾在 2025 年 6 月识别出加拿大校园枪击案嫌疑人 Jesse Van Rootselaar 的账户存在暴力倾向并将其封禁。当时 OpenAI 评估认为该账户活动未达到向执法部门通报的门槛,直到该嫌疑人于上周杀害 8 人后,公司才主动联系警方提供相关数据。
OpenAI 表示报警标准取决于是否存在紧迫且可信的严重身体伤害风险,而当时并未发现具体计划。加拿大皇家骑警确认已收到 OpenAI 提供的 ChatGPT 使用记录,目前正在对嫌疑人的电子设备及在线活动进行全面审查。
US News & World Report
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
OpenAI 于 2026 年 2 月 20 日证实,公司曾在 2025 年 6 月识别出加拿大校园枪击案嫌疑人 Jesse Van Rootselaar 的账户存在暴力倾向并将其封禁。当时 OpenAI 评估认为该账户活动未达到向执法部门通报的门槛,直到该嫌疑人于上周杀害 8 人后,公司才主动联系警方提供相关数据。
OpenAI 表示报警标准取决于是否存在紧迫且可信的严重身体伤害风险,而当时并未发现具体计划。加拿大皇家骑警确认已收到 OpenAI 提供的 ChatGPT 使用记录,目前正在对嫌疑人的电子设备及在线活动进行全面审查。
US News & World Report
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
2月21日,据彭博社报道,维基百科创始人吉米·威尔士(Jimmy Wales)表示,他并不担心AI生成内容对维基百科构成的威胁,包括埃隆·马斯克(Elon Musk)的AI百科Grokipedia,因为这类信息往往容易出错。
威尔士
维基百科是知名互联网百科全书,其条目由人类志愿者撰写和编辑。
“我为何要用维基百科?因为上面的知识经过了人工审核。我们目前丝毫不会考虑让AI直接撰写维基百科条目,因为我们清楚它们可能有多糟糕。所以我认为这不足为虑。”威尔士表示。
他指出,OpenAI旗下ChatGPT和GoogleGemini等大语言模型的生成内容存在一些问题, 其中之一就是仍然频繁出现“幻觉”,即生成错误或误导性信息。
正因如此,他并不担心来自竞争对手的挑战,例如马斯克旗下xAI去年推出的在线AI百科全书Grokipedia。他将Grokipedia称为“对百科全书的拙劣模仿”。
威尔士表示,随着话题变得愈发冷门或小众,AI的“幻觉”现象会变得更加明显和常见。他指出,人工撰写条目的价值在于,它们得益于领域专家的贡献,这有助于防止不准确信息的出现,并使文章内容更加翔实。
OpenAI在2025年进行的一项研究发现,即便是其先进模型,幻觉现象依然普遍存在,在某些测试中幻觉率高达79%。
威尔士表示:“话题越冷门,幻觉问题就越严重。因此,在你们可能认为我们需要借助AI的领域,它的表现实际上非常、非常糟糕。”
via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)