https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
OpenAI发现AI平均每天为员工节省近1小时
根据ChatGPT开发商在市场对人工智能经济效益持持续怀疑态度之际进行的一项大规模调查,OpenAI的人工智能产品平均每天为员工在专业任务上节省大约40至60分钟。根据对一百家公司的9000名员工的调查,数据科学、工程和通信等行业的员工以及会计等特定岗位,报告称使用AI节省的时间最多。调查发现,四分之三的员工表示,在工作中使用AI提高了他们工作的速度或质量。与此同时,Anthropic公司上周发布报告估计,其AI工具Claude将人们完成工作任务所需时间缩短了80%等。该结果基于对10万条用户对话的分析。上述这些报告未经同行评审。
—— 彭博社
via 风向旗参考快讯 - Telegram Channel
根据ChatGPT开发商在市场对人工智能经济效益持持续怀疑态度之际进行的一项大规模调查,OpenAI的人工智能产品平均每天为员工在专业任务上节省大约40至60分钟。根据对一百家公司的9000名员工的调查,数据科学、工程和通信等行业的员工以及会计等特定岗位,报告称使用AI节省的时间最多。调查发现,四分之三的员工表示,在工作中使用AI提高了他们工作的速度或质量。与此同时,Anthropic公司上周发布报告估计,其AI工具Claude将人们完成工作任务所需时间缩短了80%等。该结果基于对10万条用户对话的分析。上述这些报告未经同行评审。
—— 彭博社
via 风向旗参考快讯 - Telegram Channel
Palmer Luckey:应允许AI在战场上决定谁生谁死
美国虚拟现实设备公司 Oculus 创始人、军工科技企业 Anduril 创办人 Palmer Luckey 近日在电视访谈中表示,人工智能应被允许在战争中参与生死决策,再次点燃关于“杀手机器人”的伦理争议。
iframe (www.youtube.com)
Luckey 在福克斯新闻频道的节目中表示,在涉及生死抉择的问题上,“道德负担过于沉重、风险过于关键”,因此各国应当不惜一切代价采用最先进的技术,不论是人工智能、量子技术还是其他工具。 在他看来,如果战争的目标是尽可能减少平民伤亡和附带损害,那么在打击决策中使用精度更高的系统,反而比坚持“人类掌控一切”的立场更具“道德优越性”。
他指出,关键不是人为给武器系统划定“机器人不能决定谁生谁死”的红线,而是尽可能提升效率和准确性,以减少误伤和错误决策。 Luckey 直言,选择性能更差的技术,只是为了维护一种“我们从不让机器下杀人命令”的道德姿态,并不能真正带来更高的人道标准。
这一表态与 Anduril 的业务方向高度一致,该公司自 2017 年成立以来,一直专注于为军方研发无人机、地面车辆、监视塔台和各类传感器,并通过名为 Lattice 的人工智能指挥与控制平台将这些硬件整合到统一系统中。 公司此前已经展示过包括“自杀式无人机”在内的多种 AI 军事装备,引发外界对战场“高度自动化”的更多担忧。
2024 年底,Anduril 宣布与 OpenAI 建立战略合作伙伴关系,计划在国家安全领域“负责任地部署”先进人工智能技术,首先聚焦反无人机系统等防御性用途,以提升美军在实时探测、评估和应对空中威胁方面的能力。 与此同时,科技企业在是否参与军用 AI 研发上的立场正在悄然松动,例如Google在今年年初悄然删除了此前承诺“不将 AI 应用于武器等有害用途”的关键表述,促使业界再度讨论科技公司在战争中的角色边界。
iframe (www.youtube.com)
在 AI 装备不断演进的背景下,外界也更加关注这类技术是否会被引入核武控制体系。 2024 年 5 月,美国曾公开承诺,核武器的控制权必须始终由人类掌握,并呼吁中俄做出同样保证,但不久之后五角大楼又表示,希望利用 AI 来“增强”核指挥、控制和通信系统的能力,这种微妙的表态变化引发了观察人士的警惕。
学界与业界对于让 AI 接近“核按钮”的设想尤为不安。 去年有研究团队使用 GPT-4、GPT-3.5、Claude 2.0、Llama-2-Chat 和 GPT-4-Base 等多种大模型进行国际冲突情景模拟,结果显示,这些系统在博弈过程中存在明显的升级倾向,有时会在缺乏充分理由和预警的情况下主动选择动用核武,甚至出现类似“既然有这种武器,那就用吧”的激进表述,凸显出将生死决策外包给机器的巨大风险。
随着 AI 战机、无人集群和自动化防御系统的快速发展,围绕“应否让机器决定人类生死”的讨论正在成为科技伦理与国际安全领域的核心议题之一。 Palmer Luckey 的表态,既反映出军工科技企业推动自动化战场的强烈意愿,也进一步暴露各国在追逐技术优势与坚守人道底线之间的尖锐矛盾。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
美国虚拟现实设备公司 Oculus 创始人、军工科技企业 Anduril 创办人 Palmer Luckey 近日在电视访谈中表示,人工智能应被允许在战争中参与生死决策,再次点燃关于“杀手机器人”的伦理争议。
iframe (www.youtube.com)
Luckey 在福克斯新闻频道的节目中表示,在涉及生死抉择的问题上,“道德负担过于沉重、风险过于关键”,因此各国应当不惜一切代价采用最先进的技术,不论是人工智能、量子技术还是其他工具。 在他看来,如果战争的目标是尽可能减少平民伤亡和附带损害,那么在打击决策中使用精度更高的系统,反而比坚持“人类掌控一切”的立场更具“道德优越性”。
他指出,关键不是人为给武器系统划定“机器人不能决定谁生谁死”的红线,而是尽可能提升效率和准确性,以减少误伤和错误决策。 Luckey 直言,选择性能更差的技术,只是为了维护一种“我们从不让机器下杀人命令”的道德姿态,并不能真正带来更高的人道标准。
这一表态与 Anduril 的业务方向高度一致,该公司自 2017 年成立以来,一直专注于为军方研发无人机、地面车辆、监视塔台和各类传感器,并通过名为 Lattice 的人工智能指挥与控制平台将这些硬件整合到统一系统中。 公司此前已经展示过包括“自杀式无人机”在内的多种 AI 军事装备,引发外界对战场“高度自动化”的更多担忧。
2024 年底,Anduril 宣布与 OpenAI 建立战略合作伙伴关系,计划在国家安全领域“负责任地部署”先进人工智能技术,首先聚焦反无人机系统等防御性用途,以提升美军在实时探测、评估和应对空中威胁方面的能力。 与此同时,科技企业在是否参与军用 AI 研发上的立场正在悄然松动,例如Google在今年年初悄然删除了此前承诺“不将 AI 应用于武器等有害用途”的关键表述,促使业界再度讨论科技公司在战争中的角色边界。
iframe (www.youtube.com)
在 AI 装备不断演进的背景下,外界也更加关注这类技术是否会被引入核武控制体系。 2024 年 5 月,美国曾公开承诺,核武器的控制权必须始终由人类掌握,并呼吁中俄做出同样保证,但不久之后五角大楼又表示,希望利用 AI 来“增强”核指挥、控制和通信系统的能力,这种微妙的表态变化引发了观察人士的警惕。
学界与业界对于让 AI 接近“核按钮”的设想尤为不安。 去年有研究团队使用 GPT-4、GPT-3.5、Claude 2.0、Llama-2-Chat 和 GPT-4-Base 等多种大模型进行国际冲突情景模拟,结果显示,这些系统在博弈过程中存在明显的升级倾向,有时会在缺乏充分理由和预警的情况下主动选择动用核武,甚至出现类似“既然有这种武器,那就用吧”的激进表述,凸显出将生死决策外包给机器的巨大风险。
随着 AI 战机、无人集群和自动化防御系统的快速发展,围绕“应否让机器决定人类生死”的讨论正在成为科技伦理与国际安全领域的核心议题之一。 Palmer Luckey 的表态,既反映出军工科技企业推动自动化战场的强烈意愿,也进一步暴露各国在追逐技术优势与坚守人道底线之间的尖锐矛盾。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
在2025腾冲科学家论坛上,宇树科技创始人王兴兴深入阐释了人形机器人研发背后的“拟人化”逻辑与现实挑战。王兴兴表示:“老百姓喜欢长得像人的。”现实就是,机器人长得越好看、越像人,消费者就更愿意买单。
他同时提到,当前AI技术高度依赖数据驱动,数据质量直接决定AI能力上限。而就人形机器人而言,高质量、大规模的动作与行为数据仍处于稀缺状态。
王兴兴向与会者展示了宇树科技在该领域的进展:通过预先采集真人运动数据,并在AI环境中进行训练,机器人已能够复现人类的多样化动作,实现“人怎么动,机器人就怎么动”。
王兴兴也坦言,当前具身智能领域的AI模型仍显不足,“目前阶段类似ChatGPT问世前一至三年的状态——方向已清晰,但突破性成果尚未完全显现。”
他认为,若机器人能在日常生活中80%的陌生场景中,通过语言或文字指令完成约80%的任务,便可视为具身智能领域的“GPT时刻”。目前机器人在单一任务中表现出色,但一旦物体或环境发生变化,尤其是面对多任务叠加时,成功率会显著下降,这反映出机器人在泛化与推理能力上的短板。
最后,王兴兴透露:“明年的腾冲科学家论坛,或许我不必亲自到场,可以派遣机器人代表我参会。我可以在杭州远程操控,让它同步我的语言和动作,实现实时交互。这项技术已经具备可行性,预计明年可投入实际应用。”
via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
俄罗斯AI发展:缺芯人才流失 大模型落后
俄罗斯总统普京曾多次表示,俄罗斯必须在AI领域引领世界。但现实情况是,当其他国家你追我赶时,俄罗斯却成了旁观者。就在美中竞相争夺AI模型与应用主导权,欧洲和中东各国持续投入资源建设算力基础设施之际,乌克兰战争已使俄罗斯曾经远大的AI抱负偏离了轨道。在俄语版AI模型评测平台LM Arena上,最顶尖的俄罗斯模型仅排名第二十五位,甚至落后于早期版本的ChatGPT和谷歌Gemini。西方制裁切断了俄罗斯获取计算机芯片等关键硬件的渠道,并制约了其国内生产能力。莫斯科还严重依赖中国。雪上加霜的是人才流失问题。自俄乌冲突爆发以来,顶尖人才持续逃离俄罗斯。
—— 凤凰网科技、华尔街日报
via 风向旗参考快讯 - Telegram Channel
俄罗斯总统普京曾多次表示,俄罗斯必须在AI领域引领世界。但现实情况是,当其他国家你追我赶时,俄罗斯却成了旁观者。就在美中竞相争夺AI模型与应用主导权,欧洲和中东各国持续投入资源建设算力基础设施之际,乌克兰战争已使俄罗斯曾经远大的AI抱负偏离了轨道。在俄语版AI模型评测平台LM Arena上,最顶尖的俄罗斯模型仅排名第二十五位,甚至落后于早期版本的ChatGPT和谷歌Gemini。西方制裁切断了俄罗斯获取计算机芯片等关键硬件的渠道,并制约了其国内生产能力。莫斯科还严重依赖中国。雪上加霜的是人才流失问题。自俄乌冲突爆发以来,顶尖人才持续逃离俄罗斯。
—— 凤凰网科技、华尔街日报
via 风向旗参考快讯 - Telegram Channel
反 AI 活动人士失踪两周,警方警告他可能携带武器且危险
2025-12-07 21:34 by 探险家学院3:双螺旋
27 岁的 Sam Kirchner 在旧金山参与组建了反 AI 组织 Stop AI。该组织遵循典型的行动主义剧本:散发传单,每月组织一次游行示威,组织讨论,制作 T 恤。该组织领导人明确表示反对暴力,认为暴力在道德上不可接受。但随着生成式 AI 的流行,Kirchner 觉得 AI 对人类构成迫在眉睫的生存威胁,同时对组织的进展缓慢或力度不够而感到沮丧和愤怒。最终他在攻击了 Stop AI 现任领导人后与组织决裂,同时销声匿迹。他已经失踪了两周,朋友担心他的安全,而旧金山警方则警告他可能持有武器,可能会袭击 OpenAI 的雇员。哲学家、历史学者、熟悉 Kirchner 且参与过 Stop AI 活动的 Émile P. Torres 认为,人很容易陷入末日论,这种 AI 末日论在硅谷随处可见。Stop AI 成员不相信他会对公众构成威胁,他们更担心其身心健康。
https://www.theatlantic.com/technology/2025/12/sam-kirchner-missing-stop-ai/685144/
https://futurism.com/artificial-intelligence/anti-ai-activist-danger
#USA
via Solidot - Telegram Channel
2025-12-07 21:34 by 探险家学院3:双螺旋
27 岁的 Sam Kirchner 在旧金山参与组建了反 AI 组织 Stop AI。该组织遵循典型的行动主义剧本:散发传单,每月组织一次游行示威,组织讨论,制作 T 恤。该组织领导人明确表示反对暴力,认为暴力在道德上不可接受。但随着生成式 AI 的流行,Kirchner 觉得 AI 对人类构成迫在眉睫的生存威胁,同时对组织的进展缓慢或力度不够而感到沮丧和愤怒。最终他在攻击了 Stop AI 现任领导人后与组织决裂,同时销声匿迹。他已经失踪了两周,朋友担心他的安全,而旧金山警方则警告他可能持有武器,可能会袭击 OpenAI 的雇员。哲学家、历史学者、熟悉 Kirchner 且参与过 Stop AI 活动的 Émile P. Torres 认为,人很容易陷入末日论,这种 AI 末日论在硅谷随处可见。Stop AI 成员不相信他会对公众构成威胁,他们更担心其身心健康。
https://www.theatlantic.com/technology/2025/12/sam-kirchner-missing-stop-ai/685144/
https://futurism.com/artificial-intelligence/anti-ai-activist-danger
#USA
via Solidot - Telegram Channel
韩国工业部与软银集团旗下芯片设计公司Arm达成一项谅解备忘录,双方将合作强化韩国在半导体和人工智能领域的实力,其中包括由Arm在韩国设立芯片设计学校的计划,一名总统府政策顾问表示。该芯片设计学校将利用Arm在相关领域的技术优势,旨在系统培养本土高端人才。
据介绍,这一培训项目计划在韩国培养约1400名高水平芯片设计专家,被视为弥补亚洲第四大经济体在系统半导体和无晶圆设计(fabless)领域相对薄弱环节的重要举措。Arm是一家英国芯片与软件公司,通过对外授权其芯片架构设计并收取专利许可费和版税获得收益。
韩国总统李在明当天在首尔总统府会见了软银集团董事长兼首席执行官孙正义。总统府政策顾问金容范转述称,孙正义认为,随着人工智能技术的进步,对芯片的需求将出现“爆发式”增长,同时也点出在推动AI发展的过程中,能源供给是韩国的一大短板,目前国内能源供应不足以全面支撑大规模AI基础设施建设。
孙正义再次强调,他认为人工智能未来将超越人类智能,并表示“人工超级智能”将比人类“聪明一万倍”,因此应当超越“人类可以完全控制、教导或管理AI”的传统观念,转而思考如何与之“和谐共存”。韩国方面则提出,要在全球人工智能强国之列跻身前三名,近期李在明已先后会晤包括OpenAI首席执行官山姆·阿尔特曼和英伟达首席执行官黄仁勋在内的多位全球科技领军人物,以寻求在AI与半导体生态上的更深合作。
今年10月,韩国三星电子与SK海力士分别与OpenAI签署意向书,计划为其数据中心供应存储芯片,用于支持这家ChatGPT开发商的“Stargate”项目。该项目是一项由私营部门主导的大型数据中心建设计划,软银与甲骨文等企业也是其重要支持方之一。同一时期,英伟达宣布,将向韩国政府以及包括三星电子在内的一些韩国大型企业供应超过26万颗其最新一代的AI芯片,用于构建本地高性能算力基础设施。
韩国本土财阀也在积极寻找与软银的合作空间。据《东亚日报》报道,孙正义预计稍后将与SK集团会长崔泰源会面,就AI与半导体领域的合作进行深入讨论。SK集团方面对此不予置评,但业界普遍认为,随着Arm在韩国筹建芯片设计培训设施,以及各大企业围绕AI基础设施的投资加速,韩国在全球半导体和人工智能版图中的角色有望进一步提升。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)