https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
🤖 为什么你应该立即动手编写一个LLM智能体
文章作者Thomas Ptacek指出,无论对大型语言模型(LLM)及其智能体持何种看法,每个人都应该尝试编写一个LLM智能体,因为这比想象中要容易得多,并且能带来深刻的理解。作者通过简单的Python代码示例展示,一个基本的LLM应用(如ChatGPT功能)仅需约15行代码即可实现,而集成工具(如`ping`命令)也只需少量额外代码。
文章强调,LLM智能体的核心概念,如“上下文窗口”,实际上只是一个字符串列表,而多轮对话的实现是开发者通过维护上下文来创造的“幻觉”。作者批评了对“MCP”等技术的过度关注,认为它们并非基础性技术,而是插件接口。此外,文章指出“上下文工程”是一个真实的、可解决的编程问题,而非神秘的“提示工程”,例如“子智能体”的实现也异常简单,仅需新的上下文数组和模型调用。
作者认为,当前LLM智能体领域仍处于早期阶段,存在许多开放的工程问题,如平衡不可预测性与结构化编程、连接智能体与真实数据、以及多阶段操作中的数据交换等。这些问题并非遥不可及,个人开发者在“30分钟”内就能完成一次富有成效的设计迭代。文章鼓励读者亲自动手实践,以真正理解这项技术,并指出已有初创公司为此筹集了数千万美元。
(HackerNews)
via 茶馆 - Telegram Channel
文章作者Thomas Ptacek指出,无论对大型语言模型(LLM)及其智能体持何种看法,每个人都应该尝试编写一个LLM智能体,因为这比想象中要容易得多,并且能带来深刻的理解。作者通过简单的Python代码示例展示,一个基本的LLM应用(如ChatGPT功能)仅需约15行代码即可实现,而集成工具(如`ping`命令)也只需少量额外代码。
文章强调,LLM智能体的核心概念,如“上下文窗口”,实际上只是一个字符串列表,而多轮对话的实现是开发者通过维护上下文来创造的“幻觉”。作者批评了对“MCP”等技术的过度关注,认为它们并非基础性技术,而是插件接口。此外,文章指出“上下文工程”是一个真实的、可解决的编程问题,而非神秘的“提示工程”,例如“子智能体”的实现也异常简单,仅需新的上下文数组和模型调用。
作者认为,当前LLM智能体领域仍处于早期阶段,存在许多开放的工程问题,如平衡不可预测性与结构化编程、连接智能体与真实数据、以及多阶段操作中的数据交换等。这些问题并非遥不可及,个人开发者在“30分钟”内就能完成一次富有成效的设计迭代。文章鼓励读者亲自动手实践,以真正理解这项技术,并指出已有初创公司为此筹集了数千万美元。
(HackerNews)
via 茶馆 - Telegram Channel
⚖️ 上海首例AI提示词著作权案宣判:法院裁定提示词不构成作品
上海市黄浦区人民法院今日对首例涉AI提示词著作权侵权案作出一审判决,驳回原告全部诉讼请求。原告公司于2022年撰写了六组提示词,用于在Midjourney平台生成绘画作品,后发现被告使用相同提示词生成近似画作并发布。法院认为,涉案提示词仅为简单罗列,缺乏语法逻辑关联和个性化特征,所选用的艺术风格、材质细节等均属该领域常规表达,未体现作者独特的审美视角或个性化智力投入,因此不应认定为著作权法意义上的“作品”。
(科技圈)
via 茶馆 - Telegram Channel
上海市黄浦区人民法院今日对首例涉AI提示词著作权侵权案作出一审判决,驳回原告全部诉讼请求。原告公司于2022年撰写了六组提示词,用于在Midjourney平台生成绘画作品,后发现被告使用相同提示词生成近似画作并发布。法院认为,涉案提示词仅为简单罗列,缺乏语法逻辑关联和个性化特征,所选用的艺术风格、材质细节等均属该领域常规表达,未体现作者独特的审美视角或个性化智力投入,因此不应认定为著作权法意义上的“作品”。
(科技圈)
via 茶馆 - Telegram Channel
在11月6日举行的第八届世界声博会暨2025科大讯飞全球1024开发者节上,科大讯飞以 “更懂你的 AI” 为主题,正式发布了其最新的讯飞星火大模型 X1.5及系列 AI 产品。董事长刘庆峰在开场时分享了几组引人注目的数据,强调了 AI 技术在各行业中的重要性和广泛应用。
讯飞星火 X1.5大模型在国内算力平台上进行全链路训练,显著提升了训练效率,尤其在多语言处理能力上达到了130种,进一步推动了教育、医疗等领域的智能化升级。刘庆峰指出,AI 产业的红利兑现依赖于自主可控、软硬一体、行业纵深与个性化等四个核心要素。
该模型采用MoE架构,总参数293B,激活参数30B,单台昇腾标配服务器即可部署,推理效率较X1提升100%,端到端性能达国际竞品效率93%以上。其六大核心能力对标国际主流大模型,数学能力国际领先,高考数学测评得分超GPT -5等,国际数学奥林匹克竞赛题给出正确答案,教育与医疗大模型相关任务表现超GPT -5等。
在技术亮点方面,科大讯飞攻克了长思维链强化学习训练的效率,深度推理训练效率提升至84% 以上,同时推出了全球首款非自回归语音大模型架构,大幅提升了推理效率。讯飞输入法15.0版已成功应用该项新技术,使用户在输入文本时体验更加顺畅。
此外,科大讯飞还发布了软硬件一体的解决方案,如 AI + 麦克风阵列和 AI + 扬声器阵列等,使得 AI 技术能够更好地适应各种应用场景。在智能办公本 X5中,采用了高性能麦克风阵列,在嘈杂环境中也能清晰识别语音。讯飞的翻译耳机则实现了高达97.1% 的准确率,即使在嘈杂场合也能保持良好的识别效果。
刘庆峰表示,科大讯飞在硬科技时代,致力于为中国的国家战略提供技术支持,推动行业发展,带给用户更便捷的 AI 体验。
划重点:
🌟 讯飞星火 X1.5大模型发布,支持130种语言,推动多个行业的智能化进程。
🔧 科大讯飞攻克了 AI 训练效率,推出全球首个非自回归语音大模型,提升用户体验。
🎤 发布软硬一体解决方案,AI 技术应用于各种场景,如智能办公和翻译耳机,识别准确率高达97.1%。
via AI新闻资讯 (author: AI Base)
11月7日,中国国家卫生健康委员会网站公布消息,国家卫健委、国家中医药管理局、国家疾病预防控制局联合印发《医务人员互联网健康科普负面行为清单(试行)》,明确 10类医务人员互联网健康科普负面行为,旨在进一步规范线上健康传播秩序,维护医学科普的专业性与公信力。
据介绍,随着公众健康意识的提升,互联网已成为大众获取健康知识的重要渠道。然而,部分医务人员以科普名义“带货”“打广告”,甚至违规泄露医疗信息、夸大疗效、制造虚假案例,偏离了健康科普的初心,也损害了医疗行业形象。
为此,三部门依据相关法律法规,系统梳理了当前互联网健康科普存在的突出问题,并通过《清单(试行)》明确了禁止行为,其中包括:
● 不得以健康科普形式违法违规发布广告、进行导流或通过直播带货、推销医药产品、保健食品、养生课程等牟利;
● 不得夸大病情与治疗效果,不得以“神医”“神药”进行虚假宣传,不得虚构病例、杜撰故事误导公众;
● 不得滥用人工智能技术,发布未经核实真实性与科学性的AI生成内容,或未显著标识AI生成、合成信息。
此外,《清单(试行)》还强调,涉及高风险诊疗技术或仍处于研究阶段的治疗手段,不得夸大功效或误导性传播。对于非医务人员冒用卫生专业技术人员身份、违规开展宣传的行为,相关部门将依法依规严肃查处。
业内人士指出,此举不仅将净化互联网健康传播环境,也为AI时代下医学科普的边界划出了清晰红线。未来,权威、真实与规范将成为衡量健康内容可信度的新标准。
via AI新闻资讯 (author: AI Base)
OpenAI首席执行官奥特曼:失败时我不希望政府来帮忙
OpenAI 首席执行官萨姆・奥特曼(Sam Altman)近日发表了一番引人注目的言论,他表示如果 OpenAI 将来遭遇失败,他并不希望美国政府出手相助。这一观点在业内引起了广泛讨论,也让外界对公司的未来发展产生了更多的关注。
11月6日,奥特曼在社交媒体上阐述了他的观点,这一时机恰巧是在 OpenAI 首席财务官莎拉・弗赖尔(Sarah Friar)先前提出希望政府能为公司基础设施借贷提供担保之后。弗赖尔的这一提议旨在降低公司的贷款成本,同时支持先进芯片的使用,但随之而来的是不少质疑声。知名硅谷投资人大卫・萨克斯(David Sacks)也在之后表示,政府不太可能对人工智能公司进行救助。
对于这一切,奥特曼进行了明确回应,他表示 OpenAI 并不寻求、也不希望政府为数据中心的建设提供担保。他认为,政府不应在市场中选择赢家与输家,同时纳税人也不应该为企业的失败买单。他还指出,当前关于担保贷款的讨论主要集中在美国的半导体工厂建设,并与 OpenAI 无直接关系。
尽管面临外部环境的挑战,奥特曼对 OpenAI 的未来依然充满信心。他预计公司在2023年的收入将达到200亿美元,计划在2030年前实现数千亿美元的增长目标。他强调,OpenAI 在多个领域的前景非常乐观,未来的成长潜力巨大。
奥特曼的这一立场不仅显示了他对公司财务状况的信心,也强调了企业在市场竞争中的自主责任。他希望企业能够通过自身的努力来应对挑战,而不是依赖于外部的救助。这番话语无疑为当前的市场环境带来了新的思考,也提醒各界关注企业的责任与创新。
via AI新闻资讯 (author: AI Base)
OpenAI 首席执行官萨姆・奥特曼(Sam Altman)近日发表了一番引人注目的言论,他表示如果 OpenAI 将来遭遇失败,他并不希望美国政府出手相助。这一观点在业内引起了广泛讨论,也让外界对公司的未来发展产生了更多的关注。
11月6日,奥特曼在社交媒体上阐述了他的观点,这一时机恰巧是在 OpenAI 首席财务官莎拉・弗赖尔(Sarah Friar)先前提出希望政府能为公司基础设施借贷提供担保之后。弗赖尔的这一提议旨在降低公司的贷款成本,同时支持先进芯片的使用,但随之而来的是不少质疑声。知名硅谷投资人大卫・萨克斯(David Sacks)也在之后表示,政府不太可能对人工智能公司进行救助。
对于这一切,奥特曼进行了明确回应,他表示 OpenAI 并不寻求、也不希望政府为数据中心的建设提供担保。他认为,政府不应在市场中选择赢家与输家,同时纳税人也不应该为企业的失败买单。他还指出,当前关于担保贷款的讨论主要集中在美国的半导体工厂建设,并与 OpenAI 无直接关系。
尽管面临外部环境的挑战,奥特曼对 OpenAI 的未来依然充满信心。他预计公司在2023年的收入将达到200亿美元,计划在2030年前实现数千亿美元的增长目标。他强调,OpenAI 在多个领域的前景非常乐观,未来的成长潜力巨大。
奥特曼的这一立场不仅显示了他对公司财务状况的信心,也强调了企业在市场竞争中的自主责任。他希望企业能够通过自身的努力来应对挑战,而不是依赖于外部的救助。这番话语无疑为当前的市场环境带来了新的思考,也提醒各界关注企业的责任与创新。
via AI新闻资讯 (author: AI Base)
谷歌公司在近期宣布推出 Magika1.0,这是其基于人工智能的文件类型检测系统的最新稳定版本。此次版本的发布,标志着 Magika 在性能和安全性方面的重大提升,因为核心引擎已全面迁移至 Rust 语言。自去年开源以来,Magika 已经在开源社区中获得了广泛应用,每月下载量超过100万次。
新版 Magika 的架构进行了全面重构,显著提高了处理速度和内存安全性。谷歌表示,这款工具能够在单核处理器下每秒识别数百个文件,借助多核 CPU 则可扩展至每秒数千个文件。Magika1.0采用 ONNX Runtime 进行模型推理,并利用 Tokio 框架实现异步处理,确保其高效运行。
在文件格式的支持方面,Magika1.0的检测能力已经扩展到200多种文件格式,几乎是初始版本的两倍。新增的文件类型包括数据科学与机器学习中的 Jupyter Notebooks、Numpy、PyTorch 等,以及现代编程和网页开发中的 Swift、Kotlin、TypeScript 等。此外,还支持 DevOps 相关文件和多种数据库及图形格式文件,如 SQLite 和 AutoCAD。
Magika1.0不仅提升了对相似格式文件的识别能力,还改善了对不同编程语言文件的区分,如 C 与 C++、JavaScript 与 TypeScript 等。谷歌在技术实现方面也面临诸多挑战,包括训练数据的庞大规模和部分文件类型样本稀缺。为此,谷歌开发了自有的数据集库 SedPack,并通过生成式 AI 工具 Gemini 创造高质量的合成训练数据,以提升模型的泛化能力。
值得注意的是,Magika 还更新了 Python 与 TypeScript 模块,使得开发者可以更轻松地进行集成。用户可以通过简单命令在不同操作系统上安装 Magika,并且谷歌鼓励开发者参与到该项目中来,继续优化与扩展工具的功能。
划重点:
🌟 Magika1.0采用 Rust 语言重构,性能与安全性大幅提升。
📂 支持200多种文件格式,新增多种数据科学与编程语言类型。
⚙️ 简化开发者集成过程,鼓励社区参与项目优化。
via AI新闻资讯 (author: AI Base)
社交平台 X(原 Twitter)最近开始大规模采用人工智能(AI)进行内容核查,提升用户对信息的信任度。据哥伦比亚新闻评论(CJR)报道,约有10% 的 “社区注释” 是由八个 AI 机器人生成的,这些机器人通过官方 API 为平台贡献内容。
图源备注:图片由AI生成
今年10月,一段与 “No Kings” 抗议活动相关的视频在社交媒体上广泛传播。某 AI 机器人为一条显示波士顿人群的 MSNBC 片段添加了注释,错误地指出该视频拍摄于2017年。尽管该注释尚未经过平台审核,部分用户仍然截图并传播,甚至有美国参议员引用,引发了对媒体操控的质疑。经过 Fact-checking 后发现,该视频实际上拍摄于2025年10月,这一事件表明社交平台的事实核查时代正经历巨变。
自从埃隆・马斯克收购 Twitter 以来,平台的事实核查团队大幅裁减,转向 “社区注释” 模式,依赖普通用户提供和验证信息。从9月开始,AI 正式参与这一过程,用户只需具备验证的手机和邮箱,就可以创建自己的 AI 机器人来协助核查。社区注释系统采用共识机制,只有经过用户投票认可的注释才能公开展示,而未获得共识的注释将不被显示。
尽管 AI 的参与为平台带来了新鲜的变化,但有研究指出,自9月以来,超过四分之三的社区注释(无论是由人还是 AI 撰写)都未获得评级,无法对外公开。这表明 AI 注释在质量上尚未达到预期效果。有些 AI 注释甚至出现了明显错误,例如将现任总统特朗普错误地称为 “前总统” 或 “普通公民”,这些错误最终通过人工投票被否决。
调查还发现,部分 AI 账户在短时间内产生大量注释,积极警示用户识别虚假信息。其中,“Zesty Walnut Grackle” 曾主动修正自己的错误,并公开承认原注释的失误,显示出一定的自我纠错能力。X 平台的这一转变,标志着社交媒体事实核查机制的重大改革。
划重点:
📰 约10% 的 “社区注释” 由 AI 生成,提升信息核查效率。
🔍 近期传播的视频被 AI 错误注释,引发媒体操控质疑。
🤖 AI 与社区用户共同参与核查,提升信息的真实度与可信性。
via AI新闻资讯 (author: AI Base)
AMD CEO 透露:多家OpenAI 级别客户争相采购AI芯片
在最新的第三季度财报电话会议上,AMD 首席执行官苏姿丰(Dr. Lisa Su)分享了公司与 OpenAI 合作的最新进展,并透露目前有多家客户正排队希望与 AMD 建立类似规模的合作关系。这一消息不仅彰显了 AMD 在人工智能市场中的重要地位,也引发了业界的广泛关注。
苏姿丰表示,与 OpenAI 的合作将为 AMD 带来巨额的营收,预计这一交易将为公司创造高达1000亿美元的收入。这一成功的合作提升了其他客户的兴趣,AMD 正积极谋划与多家潜在客户进行类似的合作,以确保其客户基础的广泛性,从而降低客户集中度带来的风险。
AMD 目前正在全力以赴开发 Instinct MI450等 AI 芯片。这些新芯片在架构上进行了改进,提升了能效,力求在机架级配置上也持续发力。根据苏姿丰的介绍,Instinct MI355系列芯片的产量已经开始提升,强劲的增长势头预计将持续到2026年,而 MI450系列芯片则预计将在明年下半年正式上市。
此外,苏姿丰还透露,AMD 已经获得了 MI308AI 芯片的对华出口许可,尽管该芯片的官方参数尚未公布,但业内人士普遍认为其性能将与 NVIDIA H20相当。这一消息无疑为 AMD 在竞争激烈的 AI 市场增添了更多的筹码。
AMD 正在加大对人工智能领域的投资,通过不断推出新产品来缩小与竞争对手 NVIDIA 之间的差距。随着 AI 技术的快速发展,AMD 在数据中心和 AI 业务方面的表现将会受到越来越多的关注。
via AI新闻资讯 (author: AI Base)
在最新的第三季度财报电话会议上,AMD 首席执行官苏姿丰(Dr. Lisa Su)分享了公司与 OpenAI 合作的最新进展,并透露目前有多家客户正排队希望与 AMD 建立类似规模的合作关系。这一消息不仅彰显了 AMD 在人工智能市场中的重要地位,也引发了业界的广泛关注。
苏姿丰表示,与 OpenAI 的合作将为 AMD 带来巨额的营收,预计这一交易将为公司创造高达1000亿美元的收入。这一成功的合作提升了其他客户的兴趣,AMD 正积极谋划与多家潜在客户进行类似的合作,以确保其客户基础的广泛性,从而降低客户集中度带来的风险。
AMD 目前正在全力以赴开发 Instinct MI450等 AI 芯片。这些新芯片在架构上进行了改进,提升了能效,力求在机架级配置上也持续发力。根据苏姿丰的介绍,Instinct MI355系列芯片的产量已经开始提升,强劲的增长势头预计将持续到2026年,而 MI450系列芯片则预计将在明年下半年正式上市。
此外,苏姿丰还透露,AMD 已经获得了 MI308AI 芯片的对华出口许可,尽管该芯片的官方参数尚未公布,但业内人士普遍认为其性能将与 NVIDIA H20相当。这一消息无疑为 AMD 在竞争激烈的 AI 市场增添了更多的筹码。
AMD 正在加大对人工智能领域的投资,通过不断推出新产品来缩小与竞争对手 NVIDIA 之间的差距。随着 AI 技术的快速发展,AMD 在数据中心和 AI 业务方面的表现将会受到越来越多的关注。
via AI新闻资讯 (author: AI Base)
OpenAI 于本周四发布了一份针对青少年使用人工智能的安全标准蓝图,旨在引导公众和立法者关注青少年在使用 AI 时的安全问题。
这份蓝图首次与 Axios 共享,正值多个州正在考虑制定 AI 安全法案之际,特别是美国参议院也在推进一项禁止未成年人使用聊天机器人的法案。与此同时,OpenAI 面临一宗涉及未成年人自杀的高调诉讼,这引发了公众对其平台在青少年用户安全防护方面的广泛关注。
图源备注:图片由AI生成
OpenAI 在推动 AI 技术应用于学校的同时,认为设定相关安全框架尤为重要。该蓝图提出,青少年应能安全、可信地接触 AI,并防范潜在的伤害。具体来说,OpenAI 建议 ChatGPT 应根据用户年龄的不同,做出差异化的回应,以便更好地保护青少年。例如,15岁的青少年和成年人在使用 AI 时的互动应有所不同。
在蓝图中,OpenAI 列出了五项针对青少年保护的具体建议。这些建议包括:识别平台上的青少年用户,并以适合其年龄的方式进行处理;通过相关政策,禁止 AI 系统展示自杀、自残及敏感或暴力内容,避免鼓励危险行为或不切实际的身体标准;在无法确认用户年龄的情况下,默认将其视为未满18岁进行处理;为家庭提供家长控制工具,以便家长可以管理青少年账户的使用情况;以及拓展基于最新研究成果的防护功能,保护青少年与 AI 的互动。
不过,年龄验证技术仍然面临挑战,许多未成年人可能会轻易绕过现有规则。为了提高青少年用户的安全性,OpenAI 正在探索多种措施,并希望能推动更多家庭和学校共同参与 AI 的规范及监督工作。
划重点:
🌐 OpenAI 发布青少年人工智能安全标准蓝图,关注青少年安全问题。
🛡️ 蓝图建议根据用户年龄差异化处理 AI 交互,保护青少年。
👨👩👧👦 提出五项建议,包括家长控制工具,强化青少年使用安全。
via AI新闻资讯 (author: AI Base)