https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
年轻人兴起“社交外包”:利用 AI 处理分手、拒绝等棘手社交场合
越来越多的年轻人正将 AI 聊天机器人作为“社交拐杖”,用于处理拒绝表白或分手等棘手的人际沟通。这种现象被研究人员称为“社交外包”(Social Offloading),即通过外部代理来减轻自身的社交认知负担。近期有案例显示,一名耶鲁大学学生因缺乏处理敏感对话的经验,使用 ChatGPT 撰写了长达六段的拒绝信,虽然因措辞过于客套被对方识破,但他表示此举是为了避免表达时的犹豫不决。
专家指出,这种趋势意味着沟通行为本身正在被“外包”。非营利组织 Common Sense Media 的研究负责人 Michael Robb 认为,过度依赖 AI 介入复杂对话,可能会让年轻人产生“自己的直觉和语言永远不够好”的错觉,长期以往将削弱其独立应对社交挑战的能力,对人类的心理发育和社交技能产生负面影响。
Futurism
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
越来越多的年轻人正将 AI 聊天机器人作为“社交拐杖”,用于处理拒绝表白或分手等棘手的人际沟通。这种现象被研究人员称为“社交外包”(Social Offloading),即通过外部代理来减轻自身的社交认知负担。近期有案例显示,一名耶鲁大学学生因缺乏处理敏感对话的经验,使用 ChatGPT 撰写了长达六段的拒绝信,虽然因措辞过于客套被对方识破,但他表示此举是为了避免表达时的犹豫不决。
专家指出,这种趋势意味着沟通行为本身正在被“外包”。非营利组织 Common Sense Media 的研究负责人 Michael Robb 认为,过度依赖 AI 介入复杂对话,可能会让年轻人产生“自己的直觉和语言永远不够好”的错觉,长期以往将削弱其独立应对社交挑战的能力,对人类的心理发育和社交技能产生负面影响。
Futurism
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
NVIDIA发明新技术KVTC 内存使用量缩减20倍
NVIDIA研究人员推出一项全新技术KVTC(KV快取转换编码),能把大型语言模型(LLM)追踪对话历史的内存用量,最高缩减20倍,而且不用修改模型本身。这一突破有望解决大型语言模型长对话推理时的内存不够用问题,大大降低企业使用AI的硬件成本,同时还能把模型首次生成回应的时间,最高提速8倍。
简单来说,KVTC技术的核心就是压缩大型语言模型背后的KV缓存——它相当于AI模型的“短期记忆”。我们可以把KV缓存理解成学生记笔记:模型处理对话时,会把关键信息(也就是Key和Value)记下来,下次生成回应时,不用从头重新计算整段对话,响应速度就能大幅提升。
但问题是,对话越长,这份“笔记”就越大,甚至会膨胀到几个GB,占用大量GPU内存,反而拖慢模型运行、限制其处理能力。
NVIDIA资深深度学习工程师Adrian Lancucki表示:“大型语言模型进行推论时,性能瓶颈往往不在运算能力,而在GPU内存。”那些暂时不用的KV缓存,会一直占用宝贵的GPU资源,逼得系统只能把它们转移到CPU内存或硬盘里,这样不仅会增加数据传输的负担,还可能出现新的卡顿问题,这些额外成本最终也会体现在企业的使用费用中。
和现有压缩技术相比,KVTC没有那些明显的局限,它借鉴了我们熟悉的JPEG图片压缩思路,通过“主成分分析、自适应量化、熵编码”三个简单步骤,就能实现高效压缩。
更方便的是,这项技术不用改动模型的核心设置和代码,属于“非侵入式”设计,企业拿来就能快速部署。它的核心优势是,能抓住KV缓存“数据高度相关”的特点,在保留关键信息的同时,去掉冗余数据,而且解压时可以分块、逐层进行,不会影响模型实时回应。
多轮测试显示,KVTC的表现远超现有主流方法。在参数量从15亿到700亿的多种模型(包括Llama 3系列、R1-Qwen 2.5等)上,即便将内存压缩20倍,模型准确率也几乎不受影响,损失不到1%,与未压缩时相差无几;而传统压缩方法仅压缩5倍,就会出现明显的准确率下降。
另外,在H100 GPU上处理8000个Token的提示时,不使用KVTC需要3秒才能生成第一个回应,使用后仅需380毫秒,提速整整8倍。
需要注意的是,KVTC更适合长对话、多轮互动场景,比如编程助手、迭代式代理推理等,若对话较短,很难发挥其压缩价值。
目前,NVIDIA正计划将这项技术整合进Dynamo框架的KV块管理器,使其能与vLLM等主流开源推论引擎兼容。
业内人士认为,随着大型语言模型可处理的对话长度不断增加,KVTC这类标准化压缩技术,未来可能会像视频压缩一样普及,助力AI更广泛地落地应用。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
Invalid media: image
NVIDIA研究人员推出一项全新技术KVTC(KV快取转换编码),能把大型语言模型(LLM)追踪对话历史的内存用量,最高缩减20倍,而且不用修改模型本身。这一突破有望解决大型语言模型长对话推理时的内存不够用问题,大大降低企业使用AI的硬件成本,同时还能把模型首次生成回应的时间,最高提速8倍。
简单来说,KVTC技术的核心就是压缩大型语言模型背后的KV缓存——它相当于AI模型的“短期记忆”。我们可以把KV缓存理解成学生记笔记:模型处理对话时,会把关键信息(也就是Key和Value)记下来,下次生成回应时,不用从头重新计算整段对话,响应速度就能大幅提升。
但问题是,对话越长,这份“笔记”就越大,甚至会膨胀到几个GB,占用大量GPU内存,反而拖慢模型运行、限制其处理能力。
NVIDIA资深深度学习工程师Adrian Lancucki表示:“大型语言模型进行推论时,性能瓶颈往往不在运算能力,而在GPU内存。”那些暂时不用的KV缓存,会一直占用宝贵的GPU资源,逼得系统只能把它们转移到CPU内存或硬盘里,这样不仅会增加数据传输的负担,还可能出现新的卡顿问题,这些额外成本最终也会体现在企业的使用费用中。
和现有压缩技术相比,KVTC没有那些明显的局限,它借鉴了我们熟悉的JPEG图片压缩思路,通过“主成分分析、自适应量化、熵编码”三个简单步骤,就能实现高效压缩。
更方便的是,这项技术不用改动模型的核心设置和代码,属于“非侵入式”设计,企业拿来就能快速部署。它的核心优势是,能抓住KV缓存“数据高度相关”的特点,在保留关键信息的同时,去掉冗余数据,而且解压时可以分块、逐层进行,不会影响模型实时回应。
多轮测试显示,KVTC的表现远超现有主流方法。在参数量从15亿到700亿的多种模型(包括Llama 3系列、R1-Qwen 2.5等)上,即便将内存压缩20倍,模型准确率也几乎不受影响,损失不到1%,与未压缩时相差无几;而传统压缩方法仅压缩5倍,就会出现明显的准确率下降。
另外,在H100 GPU上处理8000个Token的提示时,不使用KVTC需要3秒才能生成第一个回应,使用后仅需380毫秒,提速整整8倍。
需要注意的是,KVTC更适合长对话、多轮互动场景,比如编程助手、迭代式代理推理等,若对话较短,很难发挥其压缩价值。
目前,NVIDIA正计划将这项技术整合进Dynamo框架的KV块管理器,使其能与vLLM等主流开源推论引擎兼容。
业内人士认为,随着大型语言模型可处理的对话长度不断增加,KVTC这类标准化压缩技术,未来可能会像视频压缩一样普及,助力AI更广泛地落地应用。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
Invalid media: image
日招12人!OpenAI冲刺8000人员工规模
OpenAI公司正以前所未有的力度推进组织扩张,以缩小与竞争对手的差距。正筹备年底前 IPO 的OpenAI计划在今年实现日均新增约12名员工的招聘速度,在年底前将员工人数从目前约4500人提升至8000人,几乎实现翻倍。此次招聘的新员工将集中在产品开发、工程、研究以及销售等领域。同时,OpenAI还将引入一种被称为“技术大使”的新型岗位,这类专业人才将直接进入企业内部,帮助客户更高效地部署和使用AI工具,从而提升商业转化能力。这种模式在一定程度上借鉴了Palantir前线工程师的成功经验,通过深度嵌入客户业务流程来产生更多收入。
—— 科创板日报
via 风向旗参考快讯 - Telegram Channel
OpenAI公司正以前所未有的力度推进组织扩张,以缩小与竞争对手的差距。正筹备年底前 IPO 的OpenAI计划在今年实现日均新增约12名员工的招聘速度,在年底前将员工人数从目前约4500人提升至8000人,几乎实现翻倍。此次招聘的新员工将集中在产品开发、工程、研究以及销售等领域。同时,OpenAI还将引入一种被称为“技术大使”的新型岗位,这类专业人才将直接进入企业内部,帮助客户更高效地部署和使用AI工具,从而提升商业转化能力。这种模式在一定程度上借鉴了Palantir前线工程师的成功经验,通过深度嵌入客户业务流程来产生更多收入。
—— 科创板日报
via 风向旗参考快讯 - Telegram Channel