https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
AI 创作不再“裸奔”!小红书重磅新规:不标 AI 标识将限流,整治恶搞经典与虚假信息
为了维护清朗的网络空间并保护用户权益,小红书近日发布公告,将针对平台上的 AI 生成内容实施更加严格的管理措施。此次新规的核心在于**“强制标识”**,旨在解决近期频发的仿冒公众人物、制造虚假视频等乱象。
新规亮点:不标识即限流
根据企查查汇总的信息,小红书的治理措施主要包括:
自动识别与标识:平台将依据《人工智能生成合成内容标识办法》,利用技术手段加强对 AI 内容的检测。
分发限制:对于那些明显由 AI 生成但未主动添加标识的内容,平台将强制添加提醒标签;若开发者拒不配合,内容将面临**限制分发(限流)**的处罚。
打击黑产:平台明确表示,将严厉打击售卖“去 AI 标识教程”的行为,从源头切断违规链路。
专项行动:整治 AI 垃圾信息与恶搞
此次调整正值中央网信办启动 “清朗·2026年营造喜庆祥和春节网络环境” 专项行动期间。针对 AI 技术可能带来的负面影响,相关部门将重点打击:
虚假信息:利用 AI 编造假火灾、假灾难等恐慌性信息。
低俗恶搞:通过 AI “魔改”动画角色、恶搞经典艺术作品或歪曲传统文化。
矛盾渲染:利用 AI 刻意制造和放大家庭、地域冲突等垃圾内容。
行业观察:透明度成为 AI 创作的底层要求
作为国内重要的内容社区,行吟信息科技(上海)有限公司(小红书关联公司)此举释放了明确信号:AI 创作虽受鼓励,但必须建立在**“知情权”**之上。提高内容透明度,不仅是为了防范虚假信息,更是为了在 AGI 时代重塑用户对数字内容的信任。
via AI新闻资讯 (author: AI Base)
为了维护清朗的网络空间并保护用户权益,小红书近日发布公告,将针对平台上的 AI 生成内容实施更加严格的管理措施。此次新规的核心在于**“强制标识”**,旨在解决近期频发的仿冒公众人物、制造虚假视频等乱象。
新规亮点:不标识即限流
根据企查查汇总的信息,小红书的治理措施主要包括:
自动识别与标识:平台将依据《人工智能生成合成内容标识办法》,利用技术手段加强对 AI 内容的检测。
分发限制:对于那些明显由 AI 生成但未主动添加标识的内容,平台将强制添加提醒标签;若开发者拒不配合,内容将面临**限制分发(限流)**的处罚。
打击黑产:平台明确表示,将严厉打击售卖“去 AI 标识教程”的行为,从源头切断违规链路。
专项行动:整治 AI 垃圾信息与恶搞
此次调整正值中央网信办启动 “清朗·2026年营造喜庆祥和春节网络环境” 专项行动期间。针对 AI 技术可能带来的负面影响,相关部门将重点打击:
虚假信息:利用 AI 编造假火灾、假灾难等恐慌性信息。
低俗恶搞:通过 AI “魔改”动画角色、恶搞经典艺术作品或歪曲传统文化。
矛盾渲染:利用 AI 刻意制造和放大家庭、地域冲突等垃圾内容。
行业观察:透明度成为 AI 创作的底层要求
作为国内重要的内容社区,行吟信息科技(上海)有限公司(小红书关联公司)此举释放了明确信号:AI 创作虽受鼓励,但必须建立在**“知情权”**之上。提高内容透明度,不仅是为了防范虚假信息,更是为了在 AGI 时代重塑用户对数字内容的信任。
via AI新闻资讯 (author: AI Base)
自2022年底ChatGPT问世以来,全球掀起AI监管热潮,美、英、欧及亚洲多国相继成立安全机构。然而,随着生成式AI能力的加速演进,受经济增长压力、特朗普政府的去监管倾向以及美中技术竞争(如中国DeepSeek模型的崛起)影响,全球监管势头正面临停滞。文章指出,AI政策陷入了“国家安全、经济安全与社会安全”的“不可能三角”:追求军事与经济领先往往需牺牲社会安全(如放缓发布以识别风险);而优先社会安全则可能削弱商业竞争力和军事优势。
针对AI发展的“奇点”假说,即AI将实现自我进化并引发智能爆炸,文章认为这是一种误导。AI的扩张受到物理设施、电力供应、数据获取及人类制度约束等现实摩擦的限制,其演进将是渐进式的。因此,监管者应摒弃不切实际的幻想,将重点从无法实现的芯片出口禁令或全面禁止开源模型,转向更具操作性的政策。
为打破治理僵局,文章提出两项核心方案:首先是征收“风险税”,对AI开发投入征税,但允许公司通过安全研究投入获得税收抵免,以此激励私营实验室承担社会责任并支持学术研究。其次是建立国家数据存储库,由政府提供高价值的匿名化科学、医疗或经济数据供企业付费训练,所得收入用于资助AI标准与创新中心(CAISI)等监管机构。此外,应赋予监管机构类似食品药品监督管理局(FDA)的权力,在必要时否决危险模型的发布。
文章强调,尽管面临全球竞争压力,美国仍应率先规范其领先的闭源模型,通过确立行业安全基准来引导全球市场。这种国内治理体系的建立,将为未来达成类似《核不扩散条约》的国际AI治理框架奠定基础。政府必须在技术发展的关键期做出主动选择,以避免技术演进反向主导社会决策。
(foreignaffairs)
via 茶馆 - Telegram Channel