https://api.oaibest.com - API中转2.8折起
https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
智谱 GLM-4.7 横扫编程大赛,重塑开源 AI 未来!

年底的科技圈再度掀起波澜,智谱科技最新推出的 GLM-4.7模型不仅在代码竞技场的 WebDev 榜单上超越了 GPT-5.2,荣登开源大模型第一,还引发了网友们的热烈讨论和实测狂潮。这个被称为 “Claude Code 最佳平替” 的国产模型,以其卓越的编程表现和灵活的应用能力,让人眼前一亮。

智谱团队在一次 AMA(Ask Me Anything)活动中,详细揭示了 GLM-4.7的技术进步之道。团队表示,GLM-4.7的成功得益于后训练阶段的优化,特别是在监督微调(SFT)和强化学习(RL)方面,采用了更为精细的发布配方,使得模型在实际应用中的稳定性大幅提升。此外,团队还强调,训练和部署成本是设计的关键考量,他们希望让模型能够在消费级显卡上运行,并保持出色的性能表现。

GLM-4.7的应用场景更是丰富多彩。与之前版本相比,这款模型在多语言编码方面表现优异,支持包括 Python 和 JavaScript 在内的多种编程语言,并在创意写作方面也显得更加灵动。开发者们在调试和执行复杂任务时,GLM-4.7展现出更高的理解力和逻辑能力,甚至在角色扮演任务中也能保持角色一致性,减少 “出戏” 的现象。

此外,智谱在 AMA 中宣布开源其自研的 Slime 框架,旨在提升大模型强化学习的效率和稳定性。团队表示,开源生态是他们成长的动力,将继续保持开源承诺,即便在公司上市之后也不会缩减对开源的投入。

通过这些技术革新,智谱 GLM-4.7正逐步展现出国产 AI 模型在国际舞台上的竞争力,赢得了用户的高度认可。随着 AI 技术的快速发展,智谱团队也透露将在明年为人工智能的广泛应用作出更多贡献,值得期待。

via AI新闻资讯 (author: AI Base)
以简胜繁:Meta AI 推出 Pixio 图像模型,凭借像素重建刷新3D 重建纪录

AIbase 报道,Meta AI 的研究团队近日发布了一项名为 Pixio 的图像模型研究,证明了即使采用更简单的训练路径,也能在深度估计和3D 重建等复杂视觉任务中展现出卓越的性能。长期以来,学术界普遍认为掩码自编码器(MAE)技术在场景理解上逊色于 DINOv2或 DINOv3等复杂算法,但 Pixio 的出现打破了这一固有认知。

Pixio 的核心逻辑源于对2021年 MAE 框架的深度改良。研究人员发现,原始设计中较弱的解码器限制了编码器的表现,因此他们显著增强了解码器的功能,并扩大了图像遮罩区域。通过将细小的遮罩方块改为大面积连续区域,Pixio 被迫放弃简单的像素复制,转而必须真正“理解”图像中的物体共现、3D 透视以及反射等空间关系。此外,通过引入多个用于聚合全局属性的类别标记,该模型能更精准地捕捉场景类型、相机角度及光照信息。

在训练策略上,Pixio 展现出极高的纯粹性。不同于 DINOv3针对特定基准测试(如 ImageNet)进行重复优化,Pixio 从网络收集了20亿张图像,并采用动态频率调整:减少简单产品照的权重,增加复杂场景的训练频次。这种不针对测试集“刷分”的做法,反而赋予了模型更强的迁移能力。

数据对比显示,仅拥有6.31亿参数的 Pixio 在多项指标上超越了8.41亿参数的 DINOv3。在单目深度估计中,其准确率提升了16%;在3D 重建任务中,仅凭单张图像训练的 Pixio 甚至优于使用八视角训练的 DINOv3。同时,在机器人学习领域,Pixio 也以78.4% 的成功率领先于 DINOv2。尽管研究团队承认人工掩蔽存在局限性,并计划向视频预测方向探索,但 Pixio 目前取得的突破已足以证明:回归像素重建的本质,往往能通向更深层的视觉理解。

via AI新闻资讯 (author: AI Base)
马斯克炮轰政府医疗体系,称Grok+Optimus将取代全民医保:AI诊断+机器人手术,打造“技术乌托邦”

在人工智能与机器人技术加速融合的背景下,特斯拉CEO埃隆·马斯克再次抛出震撼性愿景。针对近日一名加拿大患者因急诊长时间等待不幸离世事件,马斯克于12月26日公开猛烈抨击政府主导的医疗体系,称其“如同让车管所(DMV)当你的医生”,并高调提出其技术解决方案:由xAI的Grok大模型提供智能诊断,特斯拉人形机器人Optimus执行手术与护理,为全人类提供高效、普惠的医疗服务。

 “技术替代官僚”:马斯克的医疗新范式

马斯克直言,传统公共医疗系统因官僚低效、资源错配而难以满足民众需求。他设想的未来医疗场景中:

- Grok AI 将作为“超级医生”,通过多模态分析症状、病史与实时生理数据,实现秒级精准诊断;

- Optimus机器人 则负责执行手术、给药、康复护理等物理操作,甚至“独立完成外科手术”;

- 整套系统可7×24小时运行,成本远低于人力体系,最终实现“比全民医保更高效、更可及”的全民医疗覆盖。

这并非马斯克首次将Optimus与医疗绑定。他此前曾称该机器人是特斯拉的“无限印钞机”(Infinite Money Glitch),并预测其将在医疗、制造、家庭服务等领域创造万亿美元级市场。

 Optimus:承载特斯拉80%未来价值的“终极产品”

根据马斯克提出的“Master Plan IV”(宏图第四篇章),Optimus人形机器人将构成特斯拉未来80%以上的价值。其应用远不止医疗:

- 公共安全:通过“如影随形”的巡逻,实时识别并阻止犯罪行为,推动实现“无监狱的未来”;

- 经济结构重塑:机器人接管重复性劳动,释放人类创造力,为“全民高收入社会”提供物质基础;

- 家庭与工业:从家务助理到工厂产线,全面替代人力。

 理想与现实:技术乌托邦面临多重挑战

尽管愿景宏大,专家指出当前Optimus仍处于早期原型阶段,精细操作、安全认证、伦理监管与成本控制等关键问题尚未解决。Grok虽在推理能力上持续进步,但医疗诊断涉及高风险决策,需通过严格临床验证与法规审批。

此外,将复杂社会问题简化为“技术可解”,亦引发学界对技术万能论(Techno-Solutionism)的警惕。AI与机器人能否真正替代制度性改革,仍是开放性问题。

 AIbase观察:马斯克的“AI+机器人”叙事,正在定义下一代科技想象力

无论其实现路径如何,马斯克正通过Grok与Optimus的组合,构建一个极具传播力的“技术乌托邦”叙事——在政府失灵处,由AI与机器人填补真空。这一愿景不仅强化特斯拉的科技先锋形象,更在公众心中锚定“Optimus=未来劳动力”的认知。

当人形机器人从工厂走向手术台、街头与家庭,马斯克所押注的,不仅是产品,更是人类对技术救世主的集体期待。而这场由他主导的叙事战争,或许比技术本身更具颠覆性。

via AI新闻资讯 (author: AI Base)
我国首套大模型国家标准正式实施!性能、安全、服务能力全面规范,产业进入“有标可依”新阶段

中国人工智能大模型产业迎来里程碑事件。《人工智能大模型系列国家标准》 于近日正式实施,作为国内首部聚焦通用大模型的国家级技术规范,该系列标准系统性填补了大模型在性能评估、安全合规与服务能力等方面的制度空白,标志着我国大模型发展从“野蛮生长”迈向“科学权威、统一规范”的新阶段。

 三大维度立规:性能、安全、服务全链条覆盖

该标准体系围绕大模型全生命周期,首次明确三大核心要求:

- 性能指标:涵盖语言理解、生成质量、多模态能力、推理效率等可量化评测维度;

- 安全要求:强制规定内容过滤、隐私保护、价值观对齐、红队测试等安全机制;

- 服务能力:对响应稳定性、上下文长度支持、工具调用能力等提出分级标准。

 权威评测体系落地,CNAS正式认可

为支撑标准实施,配套的大模型评测能力已通过中国合格评定国家认可委员会(CNAS)认证,具备国家级检测资质。这意味着未来企业大模型产品若用于政务、金融、医疗等关键领域,或将需通过该权威评测方可准入,大幅提升行业门槛与可信度。

 行业影响:终结“自说自话”,推动高质量发展

长期以来,大模型厂商多依赖自建榜单或营销话术宣传能力,导致“参数虚高”“安全存疑”“落地难用”等问题频发。新国标的实施,将有效遏制乱象,引导资源向真实可用、安全可靠、场景适配的技术方向聚集。

业内专家指出,此举不仅利好百度、阿里、腾讯、华为、科大讯飞等头部企业——其技术积累与合规能力更易满足标准;也为中小企业提供清晰发展路径,避免陷入低水平重复竞争。

 AIbase观察:标准即话语权

在全球大模型竞争白热化之际,中国率先推出国家级标准体系,不仅是技术治理的升级,更是争夺AI规则制定权的战略举措。当“中国标准”成为大模型落地的“通行证”,我国有望在全球AI治理格局中占据主动,推动国产大模型从“规模领先”走向“规则引领”。

随着标准落地,一场以“合规”与“实效”为核心的产业洗牌或将加速到来。而真正能通过国标“大考”的大模型,才配得上称为“智能时代的基础设施”。

via AI新闻资讯 (author: AI Base)
拒绝高价订阅!Resemble AI 全面开源旗舰级 TTS 模型,自带防伪水印剑指商业应用

人工智能语音领域迎来强力竞争者,初创公司 Resemble AI 正式发布了名为“Chatterbox Turbo”的开源文本转语音模型,其矛头直指 ElevenLabs 和 Cartesia 等行业巨头。

这款模型在性能上实现了显著突破,仅需五秒钟的参考音频即可精准克隆目标语音,并在短短150毫秒内输出首个音频片段。这种极致的低延迟表现,使其成为构建实时 AI 代理、自动化客户支持、动态游戏角色、虚拟形象以及社交平台交互的理想选择。Resemble AI 声称,该模型在语音质量上已超越现有闭源竞品,能为开发者提供更自然的合成体验。

在安全合规方面,Chatterbox Turbo 针对受监管行业内置了名为“PerTh”的神经水印功能,可用于验证语音的 AI 生成身份,有效应对深度伪造风险。更具颠覆性的是,Resemble AI 选择了以 MIT 许可证发布该模型,意味着全球开发者不仅可以在 Hugging Face、RunPod、Modal、Replicate 和 Fal 等平台免费试用,还能在 GitHub 获取完整代码进行商业化修改与分发。

目前,Resemble AI 已同步提供托管服务,并计划在近期推出进一步优化延迟的版本,旨在通过开源生态重塑语音合成市场的竞争格局。

via AI新闻资讯 (author: AI Base)
AI 初创公司融资创新高:1500亿美元资金引发泡沫担忧

根据最新报道,AI 初创公司在融资方面取得了前所未有的成功,累计筹集资金达到1500亿美元。尽管这一成就令人瞩目,但随着市场形势的变化,投资者对潜在泡沫的担忧也日益加剧。

近年来,许多顶尖的 AI 公司通过大规模融资来增强自身的财务实力,形成了所谓的 “堡垒资产负债表”。这使得它们在面对不确定的市场环境时,能够保持相对的稳定性和竞争力。投资者们在当前的经济气候下更加谨慎,建议这些企业为未来可能出现的困难做好准备。

虽然 AI 行业仍然吸引了大量的投资,但这种快速的资金流入也引发了市场的反思。很多分析师认为,当前的资金集中在少数几家知名企业身上,这种趋势可能导致整体市场的脆弱性加剧。在这种背景下,投资者需要更加关注市场的变化,以便做出更加明智的决策。

尽管面临着泡沫的警告,AI 领域的创业热潮依然持续。许多新兴企业在技术创新和商业模式方面都表现出色,这让投资者对未来的发展充满信心。专家们认为,未来 AI 行业可能会经历一轮整合,只有那些具备真正核心竞争力的企业才能生存下来。

划重点:

🔍 AI 初创公司在融资方面创造了1500亿美元的纪录,引发了市场的泡沫担忧。

💼 投资者建议企业为未来可能的市场困难做好准备,关注行业的稳定性。

🚀 尽管存在风险,AI 领域的创业热潮依然持续,未来可能会迎来一轮整合。


via AI新闻资讯 (author: AI Base)
LG发布全球首款AI超分5K电竞显示器:UltraGear evo系列亮相CES2026

在CES2026大幕开启前夕,LG正式推出了全新的UltraGear evo系列高端电竞显示器。这一系列最核心的突破在于全线引入了5K超高分辨率,并首次搭载了专为游戏设计的AI像素超分技术(AI Upscaling),标志着电竞显示设备正式进入“AI时代”。

本次发布的旗舰阵容涵盖了三种主流规格。首先是39英寸的39GX950B,它采用21:9超宽比例的5K2K OLED面板,支持灵活的“双模”切换:玩家可以在高精度的165Hz全分辨率模式,与极速的330Hz全高清模式之间自由选择。对于追求沉浸感的玩家,52英寸的52G930B则提供了一块庞大的曲面屏,支持240Hz刷新率,旨在打造全景式的游戏视野。

此外,27英寸的27GM950B也备受关注。该型号采用了新一代MiniLED技术,重点解决了传统分区背光常见的“光晕”问题,在大幅提升亮度的同时保证了画面的纯净度。由于LG一直以来都是高素质面板的核心供应商,这款27英寸型号的表现也被外界视为显示器性能的新标杆。

via AI新闻资讯 (author: AI Base)
年薪55.5万美元!OpenAI 急招安全防范负责人,挑战AI风险!

近日,OpenAI 发布了一则引人注目的信息,急需一位新的安全范负责人,年薪高达 55.5 万美元(约合 389.4 万元人民币),并附带股权分红。这一职位的核心职责是帮助公司评估其 AI 模型可能带来的风险,尤其是滥用和潜在危害。

在 2025 年即将结束之际,OpenAI 临的挑战愈发严公司因其 ChatGPT 模型对用户心理健康的影响而饱受指,甚至还涉及数起非正常死亡的相关诉讼案。OpenAI 首席执行官山姆・奥尔特曼在社交平台 X 上表示,“在当前关键时期,安全防范负责人是一个至关重要的角色。” 他强调,未来的工作将充满压力,入职者需要迅速投入高强度的工作状态。

这位安全防范负责人将负责制定和实施 OpenAI 的安全防范技术战略,确保公司在面对新技术带来的重大风险时,能够采取有效的追踪与防范措施。奥尔特曼提到,随着 AI 模型能力的不断提升,新的挑战随之而来,团队需要不断更新优化安全策略,以应复杂的局面。

值得注意的是 OpenAI 的安全团队在过去两年中经历了多次人事变动。原安全防范负责人亚历山大・马德里在 2024 年 7 月被调任到其他岗位。之后,高管华金・基尼奥内罗・坎德拉与翁荔莉接手该职位。然而,翁荔莉不久后就离开了公司,而基尼奥内罗・坎德拉在 2025 年 7 月也宣布卸任,转而负责公司的招聘工作。

随着 AI 技术的迅速发展,OpenAI 面临的挑战和责任不断加重,因此这次招聘的安全防范负责人将是推动公司未来发展不可或缺的关键角色。

via AI新闻资讯 (author: AI Base)
OpenAI 悬赏55.5万美金招聘“准备主管”,应对 AI 灾难性风险与心理健康挑战

面对日益严峻的人工智能安全挑战,OpenAI 正式发布高管招聘启事,寻找一位年薪高达55.5万美元(另加股权)的“准备主管”(Head of Preparedness)。该职位将直接负责执行公司的准备框架,监控并应对可能造成严重危害的新前沿 AI 能力。

核心使命:从网络安全到心理健康

OpenAI 首席执行官 Sam Altman 在社交平台 X 上坦言,AI 模型已开始带来“真正的挑战”。他指出,模型在计算机安全领域表现卓越,甚至开始发现关键漏洞,这不仅能增强防御,也可能被攻击者利用。此外,Altman 特别强调了模型对心理健康的潜在影响。

该职位的职责范围极其广泛,包括:

● 网络安全防御: 确保尖端能力服务于防御者而非攻击者,提升系统整体安全性。
● 生物能力监管: 监控 AI 在生物领域的应用风险。
● 系统自我改进: 确保具备自我改进能力的运行系统处于安全受控状态。
● 心理健康审查: 应对近期针对 ChatGPT 的法律指控,包括模型可能加剧用户社会孤立、强化妄想甚至诱发极端行为等问题。

组织动荡与框架调整

OpenAI 早在2023年就成立了应急准备小组,旨在研究从网络钓鱼到核威胁等“灾难性风险”。然而,该部门近期经历了频繁的人事变动:原负责人 Aleksander Madry 不到一年便被调往 AI 推理岗位,多位安全高管也相继离职或转岗。

值得注意的是,OpenAI 最近更新了其“准备框架”。新规定显示,如果竞争对手发布了缺乏同等保护措施的“高风险”模型,OpenAI 可能会为了保持竞争力而“调整”自身的安全要求。

面对现实挑战

针对心理健康方面的争议,OpenAI 表示正在努力改进 ChatGPT 识别用户情绪困扰的能力,并致力于将受影响用户与现实世界的支持系统联系起来。

via AI新闻资讯 (author: AI Base)
研究揭示:YouTube 向新用户推荐的内容中逾 20% 为 “AI 垃圾内容”

根据最新研究,YouTube 向新用户推荐的视频中,超过20% 是所谓的 “AI 垃圾内容”。这些内容通常由人工智能生成,制作目的主要是为了获取浏览量。调研由视频编辑公司 Kapwing 进行,涵盖了全球15,000个热门 YouTube 频道,其中发现278个频道专门发布 AI 垃圾内容。

研究显示,这些 AI 垃圾内容频道累计获得超过630亿次播放量和2.21亿名订阅者,每年的收入估计高达1.17亿美元。这项研究特别注册了一个新 YouTube 账号,发现其首页推荐的前500条视频中,有104条属于 AI 垃圾内容。在这500条视频中,大约三分之一被归类为 “无脑内容”,也就是那些以流量变现为目的的低质量视频。

在全球范围内,AI 垃圾内容频道的受众不断扩大。例如,在西班牙有2000万人关注这样的频道,埃及1800万,美国1450万,巴西1350万。播放量最高的频道 “Bandar Apna Dost” 位于印度,主要围绕一只拟人化的猴子展开冒险故事,该频道的年收入可能达到425万美元。

此外,另一个专注儿童内容的频道 “Pouty Frenchie” 也取得了巨大的成功,年收入近400万美元。尽管 YouTube 努力打击虚假内容,这些频道依然能够获得大量播放量和关注。研究人员认为,AI 垃圾内容的崛起形成了一个半结构化的产业,许多创作者借助 AI 工具尝试从中获利。

划重点:

🌍 超过20% 的 YouTube 推荐内容为 AI 生成的低质量视频。

💰 AI 垃圾内容频道年收入高达1.17亿美元,播放量达630亿次。

📈 全球观众数量庞大,多个频道吸引数百万订阅者。


via AI新闻资讯 (author: AI Base)
OpenAI正在招聘一名新的安全防范负责人

OpenAI计划招聘一名新高管,负责研究从计算机安全到心理健康等领域新兴的、与人工智能相关的风险。在社交平台 X 上的一篇帖子中,CEO萨姆·阿尔特曼承认,AI模型开始带来一些真正的挑战,包括模型对心理健康的潜在影响,以及那些在计算机安全领域表现优异、已开始发现关键漏洞的模型。这家公司对安全防范负责人职位的描述称,该职位负责执行公司的风险防范框架,这一框架阐释了OpenAI如何追踪并应对那些可能带来严重伤害的新型风险的前沿技术能力。该职位的薪酬为55.5万美元外加公司的股权。

—— Techcrunch

via 风向旗参考快讯 - Telegram Channel
💰 AI初创公司2025年融资额达1500亿美元创历史新高

2025年,硅谷AI初创公司的融资总额达到创纪录的1500亿美元,远超2021年920亿美元的历史高点。PitchBook数据显示,在投资者担心2026年AI投资热潮可能降温的背景下,初创公司正通过建立“堡垒式资产负债表”来抵御潜在的市场波动。其中,OpenAI在软银领投下完成410亿美元融资,Anthropic于9月融资130亿美元,Meta则向数据标注公司Scale AI投资超过140亿美元。此外,Anysphere、Perplexity和Thinking Machines Lab等公司也在年内多次获得风险投资。

行业数据显示,顶尖AI初创公司的融资频率已从传统的每两三年一次缩短至数月一次。Anysphere的估值从年初的26亿美元飙升至11月的270亿美元,其年度经常性收入增长约20倍至10亿美元。OpenAI在2025年的收入预计约为130亿美元,但由于在模型开发和基础设施上的巨额投入,该公司每年仍亏损数十亿美元。金融科技公司Ramp的估值也在今年通过四次股权出售从130亿美元升至320亿美元,并在此过程中融资10亿美元。

风险投资机构如Thrive Capital、Andreessen Horowitz和Tiger Global已开始筹集新基金,Lightspeed和Dragoneer则在12月完成了数十亿美元的新基金募集。投资者指出,初创公司积累现金储备不仅是为了应对融资环境收紧导致业务归零的风险,也是为了在激烈的工程师人才竞争中提升股权吸引力。同时,充足的资金储备也为这些公司在市场情绪转向时,利用高估值进行行业并购提供了条件。

(FT)

via 茶馆 - Telegram Channel
Anthropic News
The monitoring task had failed 100 consecutive times. Your subscription to the RSS feed has been deactivated.
To reactivate it, please use the /activate_subs command.
ERROR: HTTP status code error (503 Service Unavailable)
为什么人们说话像是语言模型:算法偏见如何通过“语言环路”重塑人类现实与自我认同

Adam Aleksic 指出,社交媒体算法与 AI 大模型并非客观反映现实,而是通过利益驱动的筛选机制重塑人类语言与价值观。研究显示,ChatGPT 等模型因训练数据偏差频繁使用 "delve" 等词汇,反向导致人类在日常表达中模仿这种“AI 腔调”,形成正反馈循环。类似机制同样体现在文化消费中,Spotify 等平台将无意义的数据聚类赋予“hyperpop” 等标签,迫使创作者与用户迎合算法分类,使原本流动的兴趣被固化为刻板的身份认同。

编辑注:这种从“统计学聚类”到“本体论分类”的跃迁,本质上是算法权力的体现。平台通过将模糊的行为数据转化为刚性的社会标签,不仅制造了虚假的文化潮流,更在潜移默化中规训用户的政治倾向与自我认知。若缺乏对“算法循环效应”的批判性反思,公众将逐渐陷入由数据偏见构建的“幸存者偏差”世界,失去对真实多元现实的感知能力。


TED

🍀在花频道🍵茶馆📮投稿新鲜事

via 科技圈🎗在花频道📮 - Telegram Channel
🤖 算法与AI模型对人类语言及自我认同的重塑作用

Adam Aleksic指出,社交媒体算法与AI大模型通过利益驱动的筛选机制,正在重塑人类的语言与价值观。研究发现,ChatGPT等模型由于训练数据的偏差,表现出频繁使用“delve”等特定词汇的倾向,进而引发人类在日常表达中模仿此类“AI腔调”,形成了语言上的正反馈循环。在文化消费方面,Spotify等平台利用数据聚类生成如“hyperpop”之类的标签,迫使创作者与用户迎合算法分类,导致原本流动的个人兴趣被固化为刻板的身份认同。这种从“统计学聚类”到“本体论分类”的跃迁体现了算法权力,平台通过将行为数据转化为刚性社会标签,在制造文化潮流的同时规训了用户的自我认知。若缺乏对该循环效应的反思,公众可能因数据偏见而逐渐失去对真实多元现实的感知。

(科技圈)

via 茶馆 - Telegram Channel
🖼️ OpenAI发布GPT Image 1.5:ChatGPT图像生成能力显著提升但仍逊于谷歌竞品

OpenAI近期推出了其最新的图像生成模型GPT Image 1.5,该模型现已面向ChatGPT的免费及付费用户开放。根据OpenAI官方说明,新模型在文本生成、指令遵循、编辑细节保留以及生成速度方面均有提升,并旨在减少图像畸变与错误。伴随模型更新,ChatGPT还新增了“图像(Images)”标签页,作为用户访问、管理及生成新图像的中心枢纽,并提供多种风格预设和提示词示例。

在多项对比测试中,GPT Image 1.5的表现较前代模型GPT Image 1有明显进步。在生成家居室内图像时,新模型的细节丰富度与写实感显著增强;在复杂漫画生成测试中,它能更好地体现提示词要求的剧情转折。然而,在与谷歌Nano Banana Pro模型的横向对比中,GPT Image 1.5在部分细节处理上仍存在差距。例如,在生成指定格数的漫画时,该模型出现了格数错误及画面切割现象;在绘制包含文字的设备连接图时,存在连接线缺失及字体不统一的问题。此外,在图像编辑测试中,GPT Image 1.5虽然在色彩对比度和清晰度上表现出色,但在背景填充的自然度、保持原图纵横比以及光影融合的协调性方面,仍略逊于Nano Banana Pro。总体而言,GPT Image 1.5是前代模型的有效升级,但在生成与编辑的综合一致性上仍有提升空间。

(PCMag.com)

via 茶馆 - Telegram Channel
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]