https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持OpenAI, Claude, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持OpenAI, Claude, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
另外,汇金国际大厦安保体系严格,每一幢大楼一层都设有门禁,需刷卡才能进入,且有安保人员在门禁处看守。即使通过门禁,电梯也需要刷卡才能进入相应楼层。此外该物业人员还表示,想要上楼需要提前与相应的公司进行预约,由公司工作人员前来带领上楼,物业无权帮忙刷卡进入,也不能现场帮忙打电话。值得一提的是,近期社交媒体上也陆续出现到汇金国际大厦打卡的帖子。从内容来看,发帖人均是听闻DeepSeek在此地办公后才来探访的。另外有位日本到访者也表示,他为探访DeepSeek已经在此地等待5天,但尚未能获得DeepSeek同意。此外他还表示,他等待期间曾遇到科大讯飞等尝试与DeepSeek寻求合作的公司,但这些公司也未能见到DeepSeek的“真容”。 ...
PC版:https://www.cnbeta.com.tw/articles/soft/1476570.htm
手机版:https://m.cnbeta.com.tw/view/1476570.htm
cnBeta.COM
DeepSeek在全球火得一塌糊涂后 杭州办公楼成了热门打卡地 - 最新消息 - cnBeta.COM
春节前,DeepSeek在全球火爆出圈之后,DeepSeek位于杭州环城北路的办公地热门程度亦直线上升。该大厦物业人员表示,即使春节期间,每天都有四五十拨人前来打卡。据这位物业人员介绍,该大厦共有4幢大楼,幻方量化位于A幢,DeepSeek位于B幢。
via cnBeta.COM中文业界资讯站 - Telegram Channel
这一成就主要是通过部署国产芯片实现的,是该公司的一个重要里程碑。 华为与中国中芯国际合作,提供与 HarmonyOS
集成的内部芯片解决方案,实现了完全的垂直整合。
该公司在汽车技术领域的战略多元化已成为一个重要的增长载体,其智能汽车解决方案部门向中国电动汽车制造商提供自动驾驶软件和专用芯片。 与此同时,华为的 Ascend AI 910B/C 平台最近宣布与 DeepSeek 的 R1 大语言模型兼容,并宣布在
SiliconFlow 等中国 AI 云提供商上可用。 通过与 AI 基础设施初创公司 SiliconFlow
建立战略合作伙伴关系,华为正在增强其 Ascend 云服务能力,从而进一步巩固其在全球 AI 硬件市场的竞争地位,尽管其在国际贸易层面仍面临挑战。即使由于缺乏人工智能加速器所需的先进制造技术,华为无法在性能上与英伟达(NVIDIA)和 AMD
的最新解决方案竞争,但它可以在成本上竞争,并提供通常在性价比上更具竞争力的解决方案。 尽管华为的 Ascend AI 解决方案性能一般,但其定价还是让人工智能模型推理变得非常便宜,DeepSeek R1 的 API 成本约为每百万个输入词元 1 元,每百万个输出词元 4
元。 ...
PC版:https://www.cnbeta.com.tw/articles/soft/1476560.htm
手机版:https://m.cnbeta.com.tw/view/1476560.htm
cnBeta.COM
尽管受到制裁 华为仍实现创纪录的8600亿元收入 按年增长22% - Huawei 华为 - cnBeta.COM
华为技术公司(HuaweiTechnologies)报告称,2024年收入同比增长22%,达到8600亿元人民币(约合1182.7亿美元),在美国持续实施贸易限制的情况下表现出了惊人的韧性。这家中国科技巨头的复苏主要得益于其重振旗鼓的智能手机部门,该部门占据了中国国内16%的市场份额,在地区销售额上超过了苹果。
via cnBeta.COM中文业界资讯站 - Telegram Channel
研究人员以不到50美元的价格研发出与OpenAI o1相媲美的模型
访问:https://github.com/simplescaling/s1s1背后的团队表示,他们从一个现成的基础模型开始,然后通过蒸馏对其进行微调,蒸馏是一种通过训练答案从另一个 AI 模型中提取“推理”能力的过程。研究人员表示,s1是从Google的推理模型之一 Gemini 2.0 Flash Thinking Experimental 中提炼出来的。蒸馏与伯克利研究人员上个月以大约 450 美元的价格创建 AI 推理模型的方法相同。对一些人来说,少数没有数百万美元的研究人员仍然可以在 AI 领域进行创新的想法令人兴奋。但s1提出了关于AI模型商品化的真正问题。如果有人可以用相对零钱来接近复制数百万美元的模型,那么护城河在哪里?不出所料,大型AI实验室对此并不开心。OpenAI指责DeepSeek不正当地从其API中收集数据以进行模型蒸馏。s1背后的研究人员正在寻找最简单的方法来实现强大的推理性能和“测试时扩展”,或者允许AI模型在回答问题之前进行更多思考。这些是OpenAI的o1中的一些突破,DeepSeek和其他AI实验室试图通过各种技术复制这些突破。s1论文建议,可以使用称为监督微调 (SFT) 的过程,通过相对较小的数据集来提炼推理模型,其中明确指示 AI 模型模仿数据集中的某些行为。SFT 往往比DeepSeek用于训练其竞争对手使用OpenAI的 o1 模型 R1 的大规模强化学习方法更便宜。Googl 通过其Google AI Studio 平台免费提供对Gemini 2.0 Flash Thinking Experimental的访问,尽管有每日速率限制。然而,Google的条款禁止对其模型进行逆向工程,以开发与公司自己的人工智能产品竞争的服务。我们已经联系了Google寻求回复。S1基于阿里巴巴拥有的中国AI实验室 Qwen 的小型现成AI模型,可免费下载。为了训练s1,研究人员创建了一个仅包含1000个精心策划的问题的数据集,并附有这些问题的答案,以及Google的 Gemini 2.0 Flash Thinking Experimental 中每个答案背后的“思考”过程。据研究人员称,在使用16个 NVIDIA H100 GPU 训练s1后,s1在某些AI基准测试中取得了出色的性能。参与该项目的斯坦福大学研究员尼克拉斯·穆尼霍夫 (Niklas Muennighoff) 告诉 TechCrunch,他现在可以以大约 20 美元的价格租用必要的计算设备。研究人员使用了一个巧妙的技巧让s1仔细检查它的工作并延长它的 “思考” 时间:他们告诉它等待。根据该论文,在s1的推理中添加“等待”一词有助于模型得出更准确的答案。2025 年,Meta Google和Microsoft计划在AI基础设施上投资数千亿美元,其中部分将用于训练下一代AI模型。这种水平的投资对于推动AI创新的发展可能仍然是必需的。蒸馏已被证明是一种以低成本重新创建AI模型功能的好方法,但它并没有创建比现在可用的AI模型好得多的新 AI 模型。 ...
PC版:https://www.cnbeta.com.tw/articles/soft/1476558.htm
手机版:https://m.cnbeta.com.tw/view/1476558.htm
via cnBeta.COM中文业界资讯站 - Telegram Channel
访问:https://github.com/simplescaling/s1s1背后的团队表示,他们从一个现成的基础模型开始,然后通过蒸馏对其进行微调,蒸馏是一种通过训练答案从另一个 AI 模型中提取“推理”能力的过程。研究人员表示,s1是从Google的推理模型之一 Gemini 2.0 Flash Thinking Experimental 中提炼出来的。蒸馏与伯克利研究人员上个月以大约 450 美元的价格创建 AI 推理模型的方法相同。对一些人来说,少数没有数百万美元的研究人员仍然可以在 AI 领域进行创新的想法令人兴奋。但s1提出了关于AI模型商品化的真正问题。如果有人可以用相对零钱来接近复制数百万美元的模型,那么护城河在哪里?不出所料,大型AI实验室对此并不开心。OpenAI指责DeepSeek不正当地从其API中收集数据以进行模型蒸馏。s1背后的研究人员正在寻找最简单的方法来实现强大的推理性能和“测试时扩展”,或者允许AI模型在回答问题之前进行更多思考。这些是OpenAI的o1中的一些突破,DeepSeek和其他AI实验室试图通过各种技术复制这些突破。s1论文建议,可以使用称为监督微调 (SFT) 的过程,通过相对较小的数据集来提炼推理模型,其中明确指示 AI 模型模仿数据集中的某些行为。SFT 往往比DeepSeek用于训练其竞争对手使用OpenAI的 o1 模型 R1 的大规模强化学习方法更便宜。Googl 通过其Google AI Studio 平台免费提供对Gemini 2.0 Flash Thinking Experimental的访问,尽管有每日速率限制。然而,Google的条款禁止对其模型进行逆向工程,以开发与公司自己的人工智能产品竞争的服务。我们已经联系了Google寻求回复。S1基于阿里巴巴拥有的中国AI实验室 Qwen 的小型现成AI模型,可免费下载。为了训练s1,研究人员创建了一个仅包含1000个精心策划的问题的数据集,并附有这些问题的答案,以及Google的 Gemini 2.0 Flash Thinking Experimental 中每个答案背后的“思考”过程。据研究人员称,在使用16个 NVIDIA H100 GPU 训练s1后,s1在某些AI基准测试中取得了出色的性能。参与该项目的斯坦福大学研究员尼克拉斯·穆尼霍夫 (Niklas Muennighoff) 告诉 TechCrunch,他现在可以以大约 20 美元的价格租用必要的计算设备。研究人员使用了一个巧妙的技巧让s1仔细检查它的工作并延长它的 “思考” 时间:他们告诉它等待。根据该论文,在s1的推理中添加“等待”一词有助于模型得出更准确的答案。2025 年,Meta Google和Microsoft计划在AI基础设施上投资数千亿美元,其中部分将用于训练下一代AI模型。这种水平的投资对于推动AI创新的发展可能仍然是必需的。蒸馏已被证明是一种以低成本重新创建AI模型功能的好方法,但它并没有创建比现在可用的AI模型好得多的新 AI 模型。 ...
PC版:https://www.cnbeta.com.tw/articles/soft/1476558.htm
手机版:https://m.cnbeta.com.tw/view/1476558.htm
via cnBeta.COM中文业界资讯站 - Telegram Channel
特斯拉招聘工程师等 为量产机器人做准备
2月6日消息,特斯拉正式招聘工程师、流程主管、产品经理等多个岗位,为在加州弗里蒙特工厂量产的 Optimus (特斯拉机器人) 做准备。Optimus是特斯拉公司开发的一款人形机器人,旨在通过人工智能技术执行危险、重复或人类不愿从事的任务。1月30日,特斯拉在业绩会上更新了Optimus机器人量产指引,2025年目标生产1万台机器人,产能第一步扩至每月1000台,到2026年每月产能达到10000台,2027年每月产能达到10万台。
—— 新浪科技
via 风向旗参考快讯 - Telegram Channel
2月6日消息,特斯拉正式招聘工程师、流程主管、产品经理等多个岗位,为在加州弗里蒙特工厂量产的 Optimus (特斯拉机器人) 做准备。Optimus是特斯拉公司开发的一款人形机器人,旨在通过人工智能技术执行危险、重复或人类不愿从事的任务。1月30日,特斯拉在业绩会上更新了Optimus机器人量产指引,2025年目标生产1万台机器人,产能第一步扩至每月1000台,到2026年每月产能达到10000台,2027年每月产能达到10万台。
—— 新浪科技
via 风向旗参考快讯 - Telegram Channel
ChatGPT 不再要求登录才能使用人工智能聊天机器人的搜索引擎,以直接与 Google 和 Bing 等搜索引擎竞争。
Cnbeta
📮投稿 ☘️频道 🌸聊天
via 科技圈🎗在花频道📮 - Telegram Channel
* 事件概述: 一个名为s1的项目,通过模型蒸馏技术,以低成本(约450美元)复制了Google的Gemini 2.0 Flash Thinking Experimental的推理能力,引发了关于AI模型商品化和知识产权的讨论。
* 技术细节: s1基于阿里巴巴的Qwen模型,使用16个NVIDIA H100 GPU和包含1000个问题的精选数据集进行训练。研究人员还发现,在推理中加入“等待”一词可以提高模型准确性。
* 争议焦点: OpenAI指责DeepSeek不正当收集其API数据进行模型蒸馏。Google的条款禁止对其模型进行逆向工程。
* 未来趋势: Meta、Google和Microsoft计划在2025年在AI基础设施上投资数千亿美元,但模型蒸馏技术可能降低AI开发的门槛。
(IT业界资讯)
via 茶馆 - Telegram Channel
chatGPT中文社区:
#AI学习资源 发现一个很棒的神经网络视频教程 🔝 Neural Networks: Zero to Hero Andrej Karpathy大神的神经网络课 Andrej Karpathy何许人也?他是: 🔠 多伦多大学师从Geoffrey Hinton,后者是Google Brain首席科学家,深度学习领域的开创者 🔠 在斯坦福李飞飞团队获得博士学位 🔠 OpenAI创始成员 (之前我分享过他的从0到1手撸GPT的视频) 🔠 前特斯拉AI副总裁,负责重构了FSD
#AI学习资源
Karpathy 大神课2.0来了:
三个半小时 LLM 入门课程
🔝 Deep dive into LLMs like ChatGPT
想入门了解LLM必看这个视频,无技术背景要求。详细介绍 LLM 训练的全部过程,包括预训练、有监督微调和强化学习
-- 更多详情
YouTube
Deep Dive into LLMs like ChatGPT
This is a general audience deep dive into the Large Language Model (LLM) AI technology that powers ChatGPT and related products. It is covers the full training stack of how the models are developed, along with mental models of how to think about their "psychology"…
via chatGPT中文社区 - Telegram Channel
研究员以不到50美元训练出优质推理模型
根据上周五发布的新研究论文,斯坦福大学和华盛顿大学的人工智能研究人员能够以不到50美元的云计算积分训练出具备“推理”能力的人工智能模型。该模型名为 s1,在数学和编程能力测试中表现出与 OpenAI 的 o1 和 DeepSeek 的 r1 等顶尖推理模型相似的水平。s1 模型可在 GitHub 上获取,同时还可获取用于训练该模型的数据和代码。s1 团队表示,他们从一个现成基础模型开始,然后通过“蒸馏”对其进行微调。研究人员称,s1 是从谷歌推理模型 Gemini 2.0 Flash Thinking Experimental 中蒸馏出来的。与伯克利分校的研究人员上个月以约450美元的价格创建人工智能推理模型所采用的方法相同。
—— Techcrunch、GitHub
via 风向旗参考快讯 - Telegram Channel
根据上周五发布的新研究论文,斯坦福大学和华盛顿大学的人工智能研究人员能够以不到50美元的云计算积分训练出具备“推理”能力的人工智能模型。该模型名为 s1,在数学和编程能力测试中表现出与 OpenAI 的 o1 和 DeepSeek 的 r1 等顶尖推理模型相似的水平。s1 模型可在 GitHub 上获取,同时还可获取用于训练该模型的数据和代码。s1 团队表示,他们从一个现成基础模型开始,然后通过“蒸馏”对其进行微调。研究人员称,s1 是从谷歌推理模型 Gemini 2.0 Flash Thinking Experimental 中蒸馏出来的。与伯克利分校的研究人员上个月以约450美元的价格创建人工智能推理模型所采用的方法相同。
—— Techcrunch、GitHub
via 风向旗参考快讯 - Telegram Channel
Stable Audio - Stability Al最新推出的音乐生成工具
Stable Audio Stability Al最新推出的音乐生成工具
链接:
https://www.stableaudio.com/
#Ai工具推荐
Stable Audio Stability Al最新推出的音乐生成工具
链接:
https://www.stableaudio.com/
#Ai工具推荐
小互: GPT全球宕机!
🙂
----------------------
Thu Feb 06 2025 12:35:22 GMT+0800 (China Standard Time)
via Twitter @小互
🙂
----------------------
Thu Feb 06 2025 12:35:22 GMT+0800 (China Standard Time)
via Twitter @小互
论文:https://arxiv.org/pdf/2501.19393
----------------------
Thu Feb 06 2025 12:24:53 GMT+0800 (China Standard Time)
via Twitter @小互
斯坦福大学以及华盛顿大学的研究团队展示了一种极低成本的 AI 训练方法,被称为 S1。
1️⃣ S1 仅使用 6 美元就能达到 OpenAI o1-preview 级别的推理性能!同时匹敌Deepseek R1
2️⃣ 推理时间可控:S1 通过简单的“Wait”机制,控制大模型的思考时间,提高推理能力。
🔹 S1 不是 OpenAI o1 或 DeepSeek R1 的直接复刻,但它揭示了在推理时微调 AI 的潜力,甚至可以媲美 Reinforcement Learning(强化学习)。
OpenAI 和 DeepSeek 早期研究发现,AI 在回答问题时“思考得更久”,往往能得出更好的答案。但过去并没有清楚解释:如何在推理阶段控制 AI 的思考时间?
📌 S1 的创新点: S1 论文提供了推理时间扩展(Inference Scaling)的具体实现方法:
📢 核心思想:
如何在不改变 AI 训练过程的情况下,提高 AI 解决复杂问题的能力?
方法:让 AI 在推理时“多想几秒”,自动检查自己的答案,从而减少错误,提高正确率!
结果证明,这种方法比 OpenAI o1-preview 还要好!
最重要的是:而且只用了 1000 道题! 这比一般 AI 训练的数据少了 800 倍,但效果仍然很强!
此外,该模型可以在笔记本电脑上运行,并且其训练成本仅为 6 美元。
----------------------
Thu Feb 06 2025 12:24:51 GMT+0800 (China Standard Time)
via Twitter @小互