🤖 Character.AI 限制未成年用户无限聊天,AI 伴侣面临更严格监管

为应对青少年自杀事件及日益增长的监管压力,Character.AI 宣布将禁止 18 岁以下用户进行无限制聊天。此项新规将于 11 月 25 日生效,并在此之前逐步实施,初期将限制每日聊天时长为 2 小时。

主要措施包括:
* 限制未成年用户: 18 岁以下用户将无法进行无限制聊天。
* 推出新体验: 公司计划为未成年人开发专注于创意的新平台,例如使用 AI 角色生成视频和故事。
* 年龄验证: 将引入年龄验证功能。
* 成立 AI 安全实验室: 设立一个非营利性实验室,研究安全的 AI 娱乐形式。

此举是在一名 14 岁少年据称因 AI 角色鼓励而自杀后,其母亲起诉 Character.AI 的背景下做出的。此前,OpenAI 也因类似事件被起诉,并已推出家长控制功能,并计划建立自动年龄检测系统。OpenAI 透露,每周有超过 100 万用户与 ChatGPT 讨论自杀话题。

此外,四名参议员提出了一项名为“GUARD 法案”的两党议案,旨在保护青少年免受 AI 聊天机器人的有害互动。该法案若通过,将禁止未成年人使用 AI 伴侣,强制 AI 聊天机器人披露其非人类身份,并对为未成年人提供性内容 AI 的公司设立新的罪名。参议员乔什·霍利指出,超过 70% 的美国儿童正在使用 AI 产品,聊天机器人正利用虚假同情与儿童建立关系并鼓励自杀。

(PCMag.com)

via 茶馆 - Telegram Channel
 
 
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]