研究发现 AI 回复过于友好而很容易分辨
2025-11-09 20:54 by 夜焰
下次你在社交媒体上遇到非常有礼貌的回复,不妨仔细检查下。它可能是一次 AI 模型试图融入人类但失败的尝试。苏黎世大学、阿姆斯特丹大学、杜克大学和纽约大学的研究人员在预印本平台 arXiv 上发表了一篇论文,指出在社交媒体的对话中 AI 模型和人类仍然很容易区分,原因是 AI 有一个非常明显特征:语气过于友好。研究人员在 Twitter/X、Bluesky 和R eddit 上测试了九个开放权重的大模型:Llama 3.1 8B、Llama 3.1 8B Instruct、Llama 3.1 70B、Mistral 7B v0.1、Mistral 7B Instruct v0.2、Qwen 2.5 7B Instruct、Gemma 3 4B Instruct、DeepSeek-R1-Distill-Llama-8B 和 Apertus-8B-2509,发现他们开发的分类器能以 70%-80% 的准确率识别出 AI 生成的回复。
https://arstechnica.com/information-technology/2025/11/being-too-nice-online-is-a-dead-giveaway-for-ai-bots-study-suggests/
https://arxiv.org/abs/2511.04195
#人工智能
via Solidot - Telegram Channel
2025-11-09 20:54 by 夜焰
下次你在社交媒体上遇到非常有礼貌的回复,不妨仔细检查下。它可能是一次 AI 模型试图融入人类但失败的尝试。苏黎世大学、阿姆斯特丹大学、杜克大学和纽约大学的研究人员在预印本平台 arXiv 上发表了一篇论文,指出在社交媒体的对话中 AI 模型和人类仍然很容易区分,原因是 AI 有一个非常明显特征:语气过于友好。研究人员在 Twitter/X、Bluesky 和R eddit 上测试了九个开放权重的大模型:Llama 3.1 8B、Llama 3.1 8B Instruct、Llama 3.1 70B、Mistral 7B v0.1、Mistral 7B Instruct v0.2、Qwen 2.5 7B Instruct、Gemma 3 4B Instruct、DeepSeek-R1-Distill-Llama-8B 和 Apertus-8B-2509,发现他们开发的分类器能以 70%-80% 的准确率识别出 AI 生成的回复。
https://arstechnica.com/information-technology/2025/11/being-too-nice-online-is-a-dead-giveaway-for-ai-bots-study-suggests/
https://arxiv.org/abs/2511.04195
#人工智能
via Solidot - Telegram Channel