https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持OpenAI, Claude, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持OpenAI, Claude, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
🤖 AI发展迅猛:OpenAI揭示未来趋势
OpenAI指出,AI智能随资源投入呈对数增长,使用成本每12个月下降约10倍,且智能提升带来的社会经济价值呈超指数增长。AI代理正被推广为虚拟同事,或将彻底改变知识工作模式。OpenAI强调普及AI益处和个人赋权的重要性,以避免滥用,并建议为每个人提供“计算预算”。他们预计AI将渗透到生活的方方面面,带来重大的社会和经济变革,同时也强调需要谨慎整合和政策考量。
(@OpenAI)
via 茶馆 - Telegram Channel
OpenAI指出,AI智能随资源投入呈对数增长,使用成本每12个月下降约10倍,且智能提升带来的社会经济价值呈超指数增长。AI代理正被推广为虚拟同事,或将彻底改变知识工作模式。OpenAI强调普及AI益处和个人赋权的重要性,以避免滥用,并建议为每个人提供“计算预算”。他们预计AI将渗透到生活的方方面面,带来重大的社会和经济变革,同时也强调需要谨慎整合和政策考量。
(@OpenAI)
via 茶馆 - Telegram Channel
DeepSeek-V3、R1版本发布后,飞腾第一时间在腾云S5000C、腾锐D3000平台上本地部署验证,形成整体解决方案,构建端到端的国产平台DeepSeek大模型智算环境。在数据中心侧,腾云S5000C服务器可以与多款AI加速卡配合,实现DeepSeek蒸馏版和全量版的部署。根据官方实测,飞腾腾云S5000C搭配8块国产的AI加速卡,蒸馏版DeepSeek-R1-Distill-Llama-70B版本的推理速度可达到每秒22个tokens,本地部署的推理效率与国外同类产品架构解决方案相当,整体性能相当于国外平台性能的80%左右。同时,完整版DeepSeek R1 671B模型采用分布式推理框架,基于四机、32卡AI服务器集群,也已部署成功。在用户终端侧,基于腾锐D3000、银河麒麟V10系统的台式机,可以本地部署DeepSeek-R1 7B蒸馏版模型,再搭配1张国产推理卡,就实现了AI PC能力,能够建立安全可靠的本地知识助手。现阶段,飞腾平台已实现端到端支持DeepSeek全系列、众多开源和国产头部大模型的本地化部署,可为企业级和个人应用提供全国产化、软硬一体、性价比高、安全、开放的全栈解决方案。 ...
PC版:https://www.cnbeta.com.tw/articles/soft/1477304.htm
手机版:https://m.cnbeta.com.tw/view/1477304.htm
cnBeta.COM
国产飞腾CPU完整支持DeepSeek:可达国外平台性能80% - 硬件 - cnBeta.COM
飞腾官方宣布,飞腾腾云S5000C、飞腾腾锐D3000处理器已成功实现对DeepSeek全系列大模型的端到端支持,覆盖数据中心和终端场景,而且性能非常出色。其实在2024年,DeepSeek-V2.5236B大模型就已经在飞腾腾云S5000C平台成功稳定运行。
via cnBeta.COM中文业界资讯站 - Telegram Channel
🏷 浏览器书签分割美化工具
Bookmark Separator Pro 为你的书签栏注入秩序与美感
包含纵横两种分隔符类型,内置多种分隔符样式!
在这之前我一直用的是 separator.mayastudios.com ,现在可以考虑换一下了
📮投稿 📢频道 💬群聊 🔎索引
via 极客分享 - Telegram Channel
加拿大首席信息官多米尼克·罗雄(Dominic Rochon)在给该国政府部门的电子邮件中写道:由于不当收集和保留敏感个人信息会带来严重的隐私问题,作为保护政府网络和数据的预防措施,建议各部门和机构限制在政府设备上使用 DeepSeek 聊天机器人。负责加拿大信息技术网络的政府机构加拿大共享服务局已经禁止使用该应用程序。本周早些时候,美国立法者提出立法,禁止在所有美国政府设备上使用聊天机器人。DeepSeek 尚未立即回应评论请求。 ...
PC版:https://www.cnbeta.com.tw/articles/soft/1477290.htm
手机版:https://m.cnbeta.com.tw/view/1477290.htm
cnBeta.COM
加拿大政府将禁止使用DeepSeek聊天机器人 - AI 人工智能 - cnBeta.COM
2月9日消息,据彭博社报道,中国人工智能公司DeepSeek(DEEPSEEK)创建的生成人工智能聊天机器人将被禁止在加拿大政府设备上使用。
via cnBeta.COM中文业界资讯站 - Telegram Channel
据雷递今日报道,百度风投CEO高雪在回应此事时表示,“我们就是在DeepSeek楼上的VC,在DeepSeek 2024年5月入驻融科资讯中心的第一时间,我们便拜访其相关负责人,并保持友好互动,但因为幻方的大模型业务没有拆分独立融资计划,所以和其他VC一样,目前没能有幸成为DeepSeek的投资人。”高雪进一步介绍指出,“百度风投是BV百度风投,不是百度投资部门,百度风投是由百度集团在2017年发起设立的一个独立风险投资机构”。 ...
PC版:https://www.cnbeta.com.tw/articles/soft/1477282.htm
手机版:https://m.cnbeta.com.tw/view/1477282.htm
cnBeta.COM
百度风投CEO回应错过DeepSeek:我们是它楼上的VC 没投是因幻方不差钱 - Baidu 百度 - cnBeta.COM
近日,DeepSeek爆火引发广泛关注,其中VC们集体错过DeepSeek成为大众讨论热点,而百度风投作为DeepSeek楼上的投资机构,因错过投资DeepSeek引发不少网友讨论。
via cnBeta.COM中文业界资讯站 - Telegram Channel
AMD显卡可以本地玩DeepSeek了 附简单部署教程
AMD Radeon游戏卡本地部署DeepSeek非常简单,只需打开AMD官网(中英文均可),搜索“15.1.1”,进入第一个结果,下载AMD Adrenalin 25.1.1测试版驱动,安装并重启。直接下载地址:https://www.amd.com/zh-cn/resources/support-articles/release-notes/RN-RAD-WIN-25-1-1.html然后打开LM Studio官网网站的锐龙专栏(https://lmstudio.ai/ryzenai),并下载LM Studio for Ryzen AI安装包,安装并运行。启动之后,点击右下角设置(可选中文语言),找到并开启“Use LM Studio's Hugging Face”这个选项。回到主界面,在左侧菜单栏点击搜索图标,输入“DeepSeek R1”,就可以看到已经训练好的各种DeepSeek模型。至于如何选择,可以参考如下的AMD官方推荐列表,比如旗舰级的RX 7900 XTX可以支持到32B参数,主流的RX 7600则仅支持8G模型。然后下载合适的模型,在主界面上方选择已下载的模型,然后调高“GPU Offload”的数值,不同选项的具体含义可自行搜索或者直接询问DeepSeek。模型加载完毕后,就可以尽情地在本地体验DeepSeek了。与此同时,AMD Instinct GPU加速卡也已经部署集成DeepSeek V3模型,并优化了SGLang性能,支持完整的671B参数,开发者可以借助AMD ROCm平台快速、高效地开发AI应用。1、启动Docker容器docker run -it --ipc=host --cap-add=SYS_PTRACE --network=host --device=/dev/kfd --device=/dev/dri --security-opt seccomp=unconfined --group-add video --privileged -w /workspace lmsysorg/sglang:v0.4.2.post3-rocm6302、开始使用(1)、使用CLI登陆进入Hugging Face。huggingface-cli login (2)、启动SGLang Server,在本地部署DeepSeekV3 FP8模型。python3 -m sglang.launch_server --model-path deepseek-ai/DeepSeek-V3 --port 30000 --tp 8 --trust-remote-code(3)、服务器启动后,打开新的终端,发送请求。curl http://localhost:30000/generate -H "Content-Type: application/json" -d '{ "text": "Once upon a time,", "sampling_params": { "max_new_tokens": 16, "temperature": 0 }}'3、基准测试export HSA_NO_SCRATCH_RECLAIM=1python3 -m sglang.bench_one_batch --batch-size 32 --input 128 --output 32 --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 benchmark/gsm8k/bench_sglang.py --num-questions 2000 --parallel 2000 --num-shots 8Accuracy: 0.952Invalid: 0.000另外,如果需要BF16精度,可以自行转换:cd inferencepython fp8_cast_bf16.py --input-fp8-hf-path /path/to/fp8_weights --output-bf16-hf-path /path/to/bf16_weights ...
PC版:https://www.cnbeta.com.tw/articles/soft/1477280.htm
手机版:https://m.cnbeta.com.tw/view/1477280.htm
via cnBeta.COM中文业界资讯站 - Telegram Channel
AMD Radeon游戏卡本地部署DeepSeek非常简单,只需打开AMD官网(中英文均可),搜索“15.1.1”,进入第一个结果,下载AMD Adrenalin 25.1.1测试版驱动,安装并重启。直接下载地址:https://www.amd.com/zh-cn/resources/support-articles/release-notes/RN-RAD-WIN-25-1-1.html然后打开LM Studio官网网站的锐龙专栏(https://lmstudio.ai/ryzenai),并下载LM Studio for Ryzen AI安装包,安装并运行。启动之后,点击右下角设置(可选中文语言),找到并开启“Use LM Studio's Hugging Face”这个选项。回到主界面,在左侧菜单栏点击搜索图标,输入“DeepSeek R1”,就可以看到已经训练好的各种DeepSeek模型。至于如何选择,可以参考如下的AMD官方推荐列表,比如旗舰级的RX 7900 XTX可以支持到32B参数,主流的RX 7600则仅支持8G模型。然后下载合适的模型,在主界面上方选择已下载的模型,然后调高“GPU Offload”的数值,不同选项的具体含义可自行搜索或者直接询问DeepSeek。模型加载完毕后,就可以尽情地在本地体验DeepSeek了。与此同时,AMD Instinct GPU加速卡也已经部署集成DeepSeek V3模型,并优化了SGLang性能,支持完整的671B参数,开发者可以借助AMD ROCm平台快速、高效地开发AI应用。1、启动Docker容器docker run -it --ipc=host --cap-add=SYS_PTRACE --network=host --device=/dev/kfd --device=/dev/dri --security-opt seccomp=unconfined --group-add video --privileged -w /workspace lmsysorg/sglang:v0.4.2.post3-rocm6302、开始使用(1)、使用CLI登陆进入Hugging Face。huggingface-cli login (2)、启动SGLang Server,在本地部署DeepSeekV3 FP8模型。python3 -m sglang.launch_server --model-path deepseek-ai/DeepSeek-V3 --port 30000 --tp 8 --trust-remote-code(3)、服务器启动后,打开新的终端,发送请求。curl http://localhost:30000/generate -H "Content-Type: application/json" -d '{ "text": "Once upon a time,", "sampling_params": { "max_new_tokens": 16, "temperature": 0 }}'3、基准测试export HSA_NO_SCRATCH_RECLAIM=1python3 -m sglang.bench_one_batch --batch-size 32 --input 128 --output 32 --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-codepython3 benchmark/gsm8k/bench_sglang.py --num-questions 2000 --parallel 2000 --num-shots 8Accuracy: 0.952Invalid: 0.000另外,如果需要BF16精度,可以自行转换:cd inferencepython fp8_cast_bf16.py --input-fp8-hf-path /path/to/fp8_weights --output-bf16-hf-path /path/to/bf16_weights ...
PC版:https://www.cnbeta.com.tw/articles/soft/1477280.htm
手机版:https://m.cnbeta.com.tw/view/1477280.htm
via cnBeta.COM中文业界资讯站 - Telegram Channel
GitHub Copilot还带来了Copilot Edits功能,用户可以使用该功能一次性处理工作空间中的多个文件,并给出代码的更改意见。这些处理都可以在编辑器中直接完成,方便用户对代码进行快速审查。微软的自主SWE智能体则像一个AI工程师,在用户下达指令后,它就能自主去完成任务,这不仅提升了开发效率,还为开发者提供了更强大的编程支持。此次更新还包括引入视觉功能,GitHub Copilot可支持用户上传截图、照片或图表等非文本文件,并基于这些文件生成相应的界面、代码以及替代文本。下一步编辑建议功能则能够查看其他最近的编辑内容,预测开发者可能想要进行的下一步操作。 ...
PC版:https://www.cnbeta.com.tw/articles/soft/1477256.htm
手机版:https://m.cnbeta.com.tw/view/1477256.htm
cnBeta.COM
微软CEO官宣:GitHub Copilot全面All-in智能体 - Microsoft 微软 - cnBeta.COM
微软CEOSatyaNadella在社交媒体发文宣布,GitHubCopilot全面接入智能体,微软的自主SWE智能体也首次亮相。GitHub现任CEOThomasDohmke介绍了GitHubCopilot的主要新功能,其中,新代理模式能够迭代自己的代码,识别错误并自动修复,大大提高了开发效率和代码质量。
via cnBeta.COM中文业界资讯站 - Telegram Channel