🤖 大模型生成虚假临床信息风险高:研究显示幻觉率达50%-82%
纽约西奈山医疗中心在《Communications Medicine》期刊发表研究,指出大型语言模型(LLMs)在生成临床信息时,产生虚假信息(即“幻觉”)的概率高达50%至82%。研究测试了六种大模型,发现通过基于提示词的缓解措施,整体幻觉率可从66%降至44%。其中,OpenAI的GPT-4o表现最佳,其幻觉率从53%显著降至23%。研究同时指出,调整模型温度对减少幻觉率效果不明显。
(科技情报)
via 茶馆 - Telegram Channel
纽约西奈山医疗中心在《Communications Medicine》期刊发表研究,指出大型语言模型(LLMs)在生成临床信息时,产生虚假信息(即“幻觉”)的概率高达50%至82%。研究测试了六种大模型,发现通过基于提示词的缓解措施,整体幻觉率可从66%降至44%。其中,OpenAI的GPT-4o表现最佳,其幻觉率从53%显著降至23%。研究同时指出,调整模型温度对减少幻觉率效果不明显。
(科技情报)
via 茶馆 - Telegram Channel