https://api.oaibest.com - API中转2.8折起
https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
OpenAI发现AI平均每天为员工节省近1小时

根据ChatGPT开发商在市场对人工智能经济效益持持续怀疑态度之际进行的一项大规模调查,OpenAI的人工智能产品平均每天为员工在专业任务上节省大约40至60分钟。根据对一百家公司的9000名员工的调查,数据科学、工程和通信等行业的员工以及会计等特定岗位,报告称使用AI节省的时间最多。调查发现,四分之三的员工表示,在工作中使用AI提高了他们工作的速度或质量。与此同时,Anthropic公司上周发布报告估计,其AI工具Claude将人们完成工作任务所需时间缩短了80%等。该结果基于对10万条用户对话的分析。上述这些报告未经同行评审。

—— 彭博社

via 风向旗参考快讯 - Telegram Channel
Palmer Luckey:应允许AI在战场上决定谁生谁死

美国虚拟现实设备公司 Oculus 创始人、军工科技企业 Anduril 创办人 Palmer Luckey 近日在电视访谈中表示,人工智能应被允许在战争中参与生死决策,再次点燃关于“杀手机器人”的伦理争议。

iframe (www.youtube.com)

Luckey 在福克斯新闻频道的节目中表示,在涉及生死抉择的问题上,“道德负担过于沉重、风险过于关键”,因此各国应当不惜一切代价采用最先进的技术,不论是人工智能、量子技术还是其他工具。 在他看来,如果战争的目标是尽可能减少平民伤亡和附带损害,那么在打击决策中使用精度更高的系统,反而比坚持“人类掌控一切”的立场更具“道德优越性”。

他指出,关键不是人为给武器系统划定“机器人不能决定谁生谁死”的红线,而是尽可能提升效率和准确性,以减少误伤和错误决策。 Luckey 直言,选择性能更差的技术,只是为了维护一种“我们从不让机器下杀人命令”的道德姿态,并不能真正带来更高的人道标准。

这一表态与 Anduril 的业务方向高度一致,该公司自 2017 年成立以来,一直专注于为军方研发无人机、地面车辆、监视塔台和各类传感器,并通过名为 Lattice 的人工智能指挥与控制平台将这些硬件整合到统一系统中。 公司此前已经展示过包括“自杀式无人机”在内的多种 AI 军事装备,引发外界对战场“高度自动化”的更多担忧。

2024 年底,Anduril 宣布与 OpenAI 建立战略合作伙伴关系,计划在国家安全领域“负责任地部署”先进人工智能技术,首先聚焦反无人机系统等防御性用途,以提升美军在实时探测、评估和应对空中威胁方面的能力。 与此同时,科技企业在是否参与军用 AI 研发上的立场正在悄然松动,例如Google在今年年初悄然删除了此前承诺“不将 AI 应用于武器等有害用途”的关键表述,促使业界再度讨论科技公司在战争中的角色边界。

iframe (www.youtube.com)

在 AI 装备不断演进的背景下,外界也更加关注这类技术是否会被引入核武控制体系。 2024 年 5 月,美国曾公开承诺,核武器的控制权必须始终由人类掌握,并呼吁中俄做出同样保证,但不久之后五角大楼又表示,希望利用 AI 来“增强”核指挥、控制和通信系统的能力,这种微妙的表态变化引发了观察人士的警惕。

学界与业界对于让 AI 接近“核按钮”的设想尤为不安。 去年有研究团队使用 GPT-4、GPT-3.5、Claude 2.0、Llama-2-Chat 和 GPT-4-Base 等多种大模型进行国际冲突情景模拟,结果显示,这些系统在博弈过程中存在明显的升级倾向,有时会在缺乏充分理由和预警的情况下主动选择动用核武,甚至出现类似“既然有这种武器,那就用吧”的激进表述,凸显出将生死决策外包给机器的巨大风险。

随着 AI 战机、无人集群和自动化防御系统的快速发展,围绕“应否让机器决定人类生死”的讨论正在成为科技伦理与国际安全领域的核心议题之一。 Palmer Luckey 的表态,既反映出军工科技企业推动自动化战场的强烈意愿,也进一步暴露各国在追逐技术优势与坚守人道底线之间的尖锐矛盾。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)