https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
Yann LeCun于LinkedIn评论中以“I use Gemini”公开表态使用Google Gemini。 他是图灵奖得主,曾任Meta首席AI科学家、长期批评自回归大型语言模型,2025年11月离开Meta创立Advanced Machine Intelligence Labs。
PPC
我是(前)Meta 杨立昆,我为 Gemini 代言。
🍀在花频道🍵茶馆聊天📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
智能交通新时代:大模型网关如何改变 AI 应用的格局
随着这些技术的普及,AI 相关的 API 流量激增,催生了 “智能交通枢纽”—— 大模型网关。这个新兴的技术解决方案旨在高效管理 AI 流量,确保企业能够顺利使用各种 AI 模型。
在现实业务中,企业面临着如何有效接入和管理多种 AI 模型的挑战。这些模型可能来自于不同的提供商,API 接口和数据格式各异,如果各部门单独搭建接入能力,势必导致资源浪费和技术碎片化。因此,企业需要一个集中统一的解决方案来管理这些 AI 模型。
大模型网关正是为此而生。它不仅连接业务与 AI 基础设施,还能够提供针对 AI 请求的优化管理能力。与传统的 API 网关不同,大模型网关专注于处理长时与流式响应、复杂的输入输出,以及高资源消耗的 AI 工作负载。它能够有效管理模型的使用成本、保障数据安全、提升服务的稳定性。
以得物为例,该平台在引入多种 AI 模型的过程中,遇到了模型调用成本激增、数据安全隐患以及服务稳定性等一系列挑战。为了解决这些问题,得物决定自建大模型网关,以实现资源的高效利用和成本的严格控制。
在实施过程中,得物采取了六项策略,首先是建立一个信息丰富的 “模型市场”,方便业务团队选择合适的 AI 模型。其次,构建统一的访问 API,让不同业务线可以轻松接入 AI 服务。此外,得物还推出了全流程的成本管控体系,通过优化模型使用,显著降低了运营成本。
大模型网关的出现,标志着企业在 AI 应用管理上的新突破。通过提升接入效率、保障数据安全和优化成本,企业能够更灵活地应对市场需求,实现业务的可持续发展。
via AI新闻资讯 (author: AI Base)
随着这些技术的普及,AI 相关的 API 流量激增,催生了 “智能交通枢纽”—— 大模型网关。这个新兴的技术解决方案旨在高效管理 AI 流量,确保企业能够顺利使用各种 AI 模型。
在现实业务中,企业面临着如何有效接入和管理多种 AI 模型的挑战。这些模型可能来自于不同的提供商,API 接口和数据格式各异,如果各部门单独搭建接入能力,势必导致资源浪费和技术碎片化。因此,企业需要一个集中统一的解决方案来管理这些 AI 模型。
大模型网关正是为此而生。它不仅连接业务与 AI 基础设施,还能够提供针对 AI 请求的优化管理能力。与传统的 API 网关不同,大模型网关专注于处理长时与流式响应、复杂的输入输出,以及高资源消耗的 AI 工作负载。它能够有效管理模型的使用成本、保障数据安全、提升服务的稳定性。
以得物为例,该平台在引入多种 AI 模型的过程中,遇到了模型调用成本激增、数据安全隐患以及服务稳定性等一系列挑战。为了解决这些问题,得物决定自建大模型网关,以实现资源的高效利用和成本的严格控制。
在实施过程中,得物采取了六项策略,首先是建立一个信息丰富的 “模型市场”,方便业务团队选择合适的 AI 模型。其次,构建统一的访问 API,让不同业务线可以轻松接入 AI 服务。此外,得物还推出了全流程的成本管控体系,通过优化模型使用,显著降低了运营成本。
大模型网关的出现,标志着企业在 AI 应用管理上的新突破。通过提升接入效率、保障数据安全和优化成本,企业能够更灵活地应对市场需求,实现业务的可持续发展。
via AI新闻资讯 (author: AI Base)
随着人工智能生成内容(AIGC)的泛滥,针对影视经典及英雄模范人物的恶意篡改行为正面临严厉监管。记者从国家广播电视总局获悉,自2026年1月1日起,全国范围内开展了为期一个月的“AI 魔改”视频专项治理行动。
核心整治:守护经典与英模形象
本次专项行动将重点指向了对社会主流价值及文化遗产的保护。治理范围包括但不限于:
● 古典名著: 严禁对“四大名著”等经典电视剧作品进行扭曲原意的 AI 篡改。
● 严肃题材: 重点整治涉及历史题材、革命题材视频的违规“魔改”。
● 人物尊严: 坚决打击针对英模人物等影视作品内容的 AI 二次创作乱象。
平台战报:数千条违规视频被清理
近日,多家网络视听平台相继公布了本次专项治理的最终处理结果,通过技术识别与人工审核双重手段清理违规内容:
● 抖音: 专项治理期间,平台累计处置涉“AI 魔改”违规视频 6713条。
● 小红书: 累计清理处置违规内容 1394条,并对 61个 违规账号进行了封禁或处罚。
未来展望:常态化监管已成定局
国家广电总局表示,专项行动虽暂告一段落,但治理不会止步。后续各平台将建立常态化治理机制,严防“AI 魔改”视频回潮,确保网络视听空间清朗有序,尊重原创版权与历史事实。
via AI新闻资讯 (author: AI Base)
前 OpenAI 专家发出警示:AI 不会“吃一堑长一智”,AGI面临关键瓶颈
尽管当前的AI大模型在逻辑推理和任务处理上表现惊人,但一个长期被忽视的技术缺陷可能正成为通往通用人工智能(AGI)道路上的巨大障碍。近日,曾参与 OpenAI 推理模型 o1和 o3开发的核心研究员 Jerry Tworek 在受访时直言:目前的AI模型根本无法从错误中汲取教训。
Tworek 指出,当现有的AI模型在处理问题失败时,开发者往往会陷入一种无力感,因为目前还缺乏有效的机制让模型根据失败经验来更新其内在的知识体系或信念。他形容当前的AI训练过程本质上是“极其脆弱的”,一旦遇到训练模式之外的新挑战,模型就很容易陷入“推理崩溃”的困境,这与人类那种具备自我稳定和自我修复能力的鲁棒性学习方式形成了鲜明对比。
正是为了攻克这一难题,Tworek 已于近期离开 OpenAI,专注于寻找让AI能够自主解决困难、摆脱困境的技术路径。他强调,如果一个模型不能在面对挫折时自我进化,那么它就很难被称为真正的 AGI。在他看来,智能的本质应该像生命一样“总能找到出路”,而当前的AI显然还远未达到这种境界。
划重点:
● 🧠 核心缺陷:前 OpenAI 研究员 Jerry Tworek 指出当前AI模型缺乏从失败中学习的机制,无法像人类一样通过纠错来更新内部知识。
● 🚧 AGI障碍:模型在处理未知模式时的“脆弱性”和容易“卡死”的状态,被认为是实现通用人工智能(AGI)的主要技术壁垒。
● 🛠️ 专家动向:为解决这一根本性难题,o1系列模型的幕后功臣 Tworek 已离职并投身于研发能自主摆脱困境的新一代AI架构。
via AI新闻资讯 (author: AI Base)
尽管当前的AI大模型在逻辑推理和任务处理上表现惊人,但一个长期被忽视的技术缺陷可能正成为通往通用人工智能(AGI)道路上的巨大障碍。近日,曾参与 OpenAI 推理模型 o1和 o3开发的核心研究员 Jerry Tworek 在受访时直言:目前的AI模型根本无法从错误中汲取教训。
Tworek 指出,当现有的AI模型在处理问题失败时,开发者往往会陷入一种无力感,因为目前还缺乏有效的机制让模型根据失败经验来更新其内在的知识体系或信念。他形容当前的AI训练过程本质上是“极其脆弱的”,一旦遇到训练模式之外的新挑战,模型就很容易陷入“推理崩溃”的困境,这与人类那种具备自我稳定和自我修复能力的鲁棒性学习方式形成了鲜明对比。
正是为了攻克这一难题,Tworek 已于近期离开 OpenAI,专注于寻找让AI能够自主解决困难、摆脱困境的技术路径。他强调,如果一个模型不能在面对挫折时自我进化,那么它就很难被称为真正的 AGI。在他看来,智能的本质应该像生命一样“总能找到出路”,而当前的AI显然还远未达到这种境界。
划重点:
● 🧠 核心缺陷:前 OpenAI 研究员 Jerry Tworek 指出当前AI模型缺乏从失败中学习的机制,无法像人类一样通过纠错来更新内部知识。
● 🚧 AGI障碍:模型在处理未知模式时的“脆弱性”和容易“卡死”的状态,被认为是实现通用人工智能(AGI)的主要技术壁垒。
● 🛠️ 专家动向:为解决这一根本性难题,o1系列模型的幕后功臣 Tworek 已离职并投身于研发能自主摆脱困境的新一代AI架构。
via AI新闻资讯 (author: AI Base)
AI 学霸遭遇重创!GPT-4o 专家考试仅得 2.7 分
最近一项名为 “人类终极考试”(HLE)的测试结果让我们重新审视 AI 的真实能力。根据《自然》杂志的报道,GPT-4o 在这 2500 道由全球专家出题的测试中,仅获得了可怜的 2.7 分(满分 100 分),而表现最好的 AI 模型也仅得 8 分。这一结果让人质疑,AI 的强大究竟是实打实的实力,还是表面的繁荣?
传统的 AI 测试越来越无法反映真实能力,主要原因有两个。一是 “基准饱和”,即 AI 系统已经将常规测试题目背得滚瓜烂熟,得分的高低与真正的理解能力无关;二是 “答案作弊”,很多测试的答案可以直接在网上找到,使得 AI 看似答对问题,但实际上只是依赖于检索和记忆,而非真正的推理能力。
为了解决这些问题,HLE 的设计者们集结了来自 50 个国家的近 1000 名专家,确保每道题目都要求深层的专业知识,难度大幅提升。HLE 的题目不仅覆盖了数学、物理、化学等多个领域,还设定了严格的审核流程,确保题目难度足够,难以被 AI 轻易破解。比如数学题需要深入逻辑推理,化学题涉及复杂的反应机制,绝不是简单的检索就能得到答案。
测试结果一目了然:GPT-4o 仅得 2.7 分,Claude 3.5 Sonnet 和 Gemini 1.5 Pro 也只分别获得 4.1% 和 4.6% 的准确率,表现最好的 o1 也仅得 8%。这些数据清楚地表明,即便是最新一代的 AI,在面对真正需要深厚专业知识的问题时,依然显得无能为力。
通过 HLE 的测试,我们可以看到 AI 的真实能力与传统基准测试中的高分形成了鲜明对比。这也促使我们重新思考,AI 是否真的如我们想象中那样聪明,还是只是一种表象的成功。
via AI新闻资讯 (author: AI Base)
最近一项名为 “人类终极考试”(HLE)的测试结果让我们重新审视 AI 的真实能力。根据《自然》杂志的报道,GPT-4o 在这 2500 道由全球专家出题的测试中,仅获得了可怜的 2.7 分(满分 100 分),而表现最好的 AI 模型也仅得 8 分。这一结果让人质疑,AI 的强大究竟是实打实的实力,还是表面的繁荣?
传统的 AI 测试越来越无法反映真实能力,主要原因有两个。一是 “基准饱和”,即 AI 系统已经将常规测试题目背得滚瓜烂熟,得分的高低与真正的理解能力无关;二是 “答案作弊”,很多测试的答案可以直接在网上找到,使得 AI 看似答对问题,但实际上只是依赖于检索和记忆,而非真正的推理能力。
为了解决这些问题,HLE 的设计者们集结了来自 50 个国家的近 1000 名专家,确保每道题目都要求深层的专业知识,难度大幅提升。HLE 的题目不仅覆盖了数学、物理、化学等多个领域,还设定了严格的审核流程,确保题目难度足够,难以被 AI 轻易破解。比如数学题需要深入逻辑推理,化学题涉及复杂的反应机制,绝不是简单的检索就能得到答案。
测试结果一目了然:GPT-4o 仅得 2.7 分,Claude 3.5 Sonnet 和 Gemini 1.5 Pro 也只分别获得 4.1% 和 4.6% 的准确率,表现最好的 o1 也仅得 8%。这些数据清楚地表明,即便是最新一代的 AI,在面对真正需要深厚专业知识的问题时,依然显得无能为力。
通过 HLE 的测试,我们可以看到 AI 的真实能力与传统基准测试中的高分形成了鲜明对比。这也促使我们重新思考,AI 是否真的如我们想象中那样聪明,还是只是一种表象的成功。
via AI新闻资讯 (author: AI Base)