🤖 Reddit 更新网络标准以打击 AI 数据抓取

Reddit 周二宣布将更新其 “robots.txt” 协议,以防止 AI 初创公司进行自动数据抓取。此前,人们担心 AI 公司未经许可使用抓取的内容来生成 AI 摘要。Reddit 还将实施速率限制并屏蔽身份不明的机器人和爬虫。该公司向研究人员和互联网档案馆等组织保证,他们将保留出于非商业目的的访问权限。此前,《连线》杂志最近的一项调查显示,出版商指责 AI 公司绕过现有网络标准来收集内容,Reddit 的这一决定是在此之后做出的。

(路透社)

via 老裕泰 - Telegram Channel
 
 
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney 2.8折起
[email protected]