https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持OpenAI, Claude, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持OpenAI, Claude, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
瑞典首相承认使用ChatGPT帮助管理政府
瑞典首相乌尔夫·克里斯特松近日表示他会借助ChatGPT辅助政府治理工作,此言一出立即在北欧国家引发舆论风暴。在接受一家北欧媒体采访时,克里斯特松表示,他有时会向ChatGPT征求 “第二意见”,以参考治理策略。他声称:“我自己经常用 ChatGPT,哪怕只是为了听个不同的意见,别人是怎么做的?我们是否该反其道而行之?我会问类似的问题。”此番言论不出意料地招致了大量批评。批评者指出,选民投票选出的领袖是克里斯特松,而不是ChatGPT。瑞典多位技术专家也公开质疑官员依赖AI的风险,一旦政治决策基于错误信息,后果将难以估量。
—— 财联社
via 风向旗参考快讯 - Telegram Channel
瑞典首相乌尔夫·克里斯特松近日表示他会借助ChatGPT辅助政府治理工作,此言一出立即在北欧国家引发舆论风暴。在接受一家北欧媒体采访时,克里斯特松表示,他有时会向ChatGPT征求 “第二意见”,以参考治理策略。他声称:“我自己经常用 ChatGPT,哪怕只是为了听个不同的意见,别人是怎么做的?我们是否该反其道而行之?我会问类似的问题。”此番言论不出意料地招致了大量批评。批评者指出,选民投票选出的领袖是克里斯特松,而不是ChatGPT。瑞典多位技术专家也公开质疑官员依赖AI的风险,一旦政治决策基于错误信息,后果将难以估量。
—— 财联社
via 风向旗参考快讯 - Telegram Channel
软银集团(SoftBank Group Corp)正收购富士康科技集团(Foxconn Technology Group)位于美国俄亥俄州的电动汽车工厂,旨在推进这家日本公司的 “星际之门”(Stargate)数据中心项目。
今年 1 月,美国总统唐纳德・特朗普宣布了 “星际之门” 计划,这是一项由软银、OpenAI 和甲骨文资助、规模高达 5000 亿美元的私营部门人工智能基础设施投资计划。
报道援引知情人士的话称,软银此前一直难以制定 “星际之门” 计划的财务方案,于是接洽富士康,希望这家苹果供应商参与其在美国各地建设数据中心及相关基础设施的计划,此次工厂出售正是这一过程的结果。
彭博社表示,俄亥俄州的这一地点可能会被用于建设数据中心。
路透社暂未核实该报道的真实性。软银拒绝置评,富士康也未立即回应对路透社的置评请求。
“星门” 项目预计将为美国创造超过 10 万个就业岗位。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
Search is Partially Down for Free ChatGPT Users
Status: Investigating
We are investigating an issue with Search functionality.
Affected components
● Search (Partial outage)
via OpenAI status
Status: Investigating
We are investigating an issue with Search functionality.
Affected components
● Search (Partial outage)
via OpenAI status
🤖 大模型生成虚假临床信息风险高:研究显示幻觉率达50%-82%
纽约西奈山医疗中心在《Communications Medicine》期刊发表研究,指出大型语言模型(LLMs)在生成临床信息时,产生虚假信息(即“幻觉”)的概率高达50%至82%。研究测试了六种大模型,发现通过基于提示词的缓解措施,整体幻觉率可从66%降至44%。其中,OpenAI的GPT-4o表现最佳,其幻觉率从53%显著降至23%。研究同时指出,调整模型温度对减少幻觉率效果不明显。
(科技情报)
via 茶馆 - Telegram Channel
纽约西奈山医疗中心在《Communications Medicine》期刊发表研究,指出大型语言模型(LLMs)在生成临床信息时,产生虚假信息(即“幻觉”)的概率高达50%至82%。研究测试了六种大模型,发现通过基于提示词的缓解措施,整体幻觉率可从66%降至44%。其中,OpenAI的GPT-4o表现最佳,其幻觉率从53%显著降至23%。研究同时指出,调整模型温度对减少幻觉率效果不明显。
(科技情报)
via 茶馆 - Telegram Channel