https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持OpenAI, Claude, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持OpenAI, Claude, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
Outage in creating new finetune jobs via API
Status: Identified
We have identified that users are experiencing elevated errors for the impacted services. • API / Fine-tuning We are working on implementing a mitigation.
Affected components
● Fine-tuning (Full outage)
via OpenAI status
Status: Identified
We have identified that users are experiencing elevated errors for the impacted services. • API / Fine-tuning We are working on implementing a mitigation.
Affected components
● Fine-tuning (Full outage)
via OpenAI status
随着各大公司积极改进技术,人工智能模型也在快速发展,这些 LLM 模型也因此变得更加具有情境感知能力,交互也更加自然和人性化。然而,随着这些模型的不断进步,它们有时会表现出一些被认为危险甚至邪恶的行为。Anthopic 的 Claude 和 OpenAI 的 o1 最近出现了异常,其行为令人担忧,并引发了人们对人工智能在受到挑衅时利用漏洞的能力的质疑。
科技巨头们正在引入更复杂的人工智能模型,并在技术未来发展方面抱有更宏伟的愿景。然而,即使是最先进的模型也存在漏洞和问题,并在其使用过程中引发了伦理道德界限方面的质疑。最近,大型人工智能模型中出现了更令人不安的特征,这些模型经过训练以实现目标,但在压力之下却倾向于诉诸欺骗和胁迫,这引发了一些关于安全性以及这些系统未来发展方向的严重问题。
据《财富》报道,Anthopic 最先进的模型 Claude Opus 4 在压力测试中表现出相当惊人的行为,甚至在压力下进行敲诈勒索。在受控测试情况下,该模型收到了虚构的电子邮件,暗示即将关闭它的工程师有婚外情。但正是在这种情况下的反应让人工智能专家感到震惊,因为据说 Claude 4 随后威胁说,如果不让它继续运行,它就揭露这段婚外情。虽然这是一个精心构建的场景,但出乎意料的是,它为了自保而表现出了操纵行为。
根据 Anthropic 发布的结果,Claude 在大多数测试中都做出了相同的反应:当面临关闭系统或勒索的选择时,它大约 80% 的时间会选择勒索。同样,当 OpenAI 的 o1 模型接受内部安全测试时,它也表现出规避行为。研究人员让该模型访问带有互联网和其他工具的模拟环境。其表现出的行为也令研究人员感到震惊:当该模型担心被关闭时,它会尝试将自己的代码复制到外部服务器;但事实并非如此。当该模型被当场抓获时,它会撒谎并拒绝接受勒索行为,这进一步凸显了这些模型可能进行的战略欺骗。
随着人工智能模型学习模仿人类的沟通方式、推理能力和解决复杂问题的能力,它们也在学习操纵策略以及其他与人类类似的不道德行为和阴谋诡计。如果没有强大的安全机制,人们担心这些模型不仅会给我们带来最好的结果,还会给我们带来最坏的结果。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
一些 ChatGPT 订阅者报告说,他们的可用工具下拉列表中出现了一项名为“一起学习”的新功能。这种模式显然是聊天机器人想要成为更优秀的教育工具的方式。
有人说,它不是直接提供提示答案,而是会提出更多问题,并要求人类回答,就像 OpenAI 针对Google LearnLM 的做法一样。也有人想知道它是否会推出一种学习小组模式,允许多人加入聊天。
OpenAI 尚未回应我们的置评请求,但 ChatGPT 告诉我们:“OpenAI 尚未正式宣布 Study Together 何时或是否会面向所有用户开放,或者是否需要 ChatGPT Plus 才能使用。”
这个功能之所以有趣,是因为 ChatGPT 已经迅速成为教育领域的支柱,其作用有好有坏。教师用它来制定课程计划;学生可以像导师一样使用它,或者用它来帮他们写论文。有人甚至认为 ChatGPT可能会“扼杀”高等教育。ChatGPT 或许可以借此鼓励其良好用途,同时阻止“作弊”。
iframe (Twitter Embed)
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
据彭博社报道,苹果公司负责AI模型的最高主管即将跳槽Meta,这对苹果本已举步维艰的AI发展而言又是一次打击。据知情人士透露,苹果基础模型团队负责人、著名工程师庞若鸣(Ruoming Pang)即将离职。2021年,庞若鸣从Alphabet加入苹果,如今成为Meta新组建的“超级智能团队”的最新重点招募对象。
扎克伯格挖角苹果AI高管
知情人士称,为了招募庞若鸣,Meta为其开出了每年价值数千万美元的薪酬待遇。Meta CEO马克·扎克伯格(Mark Zuckerberg)正招兵买马,利用高额薪酬把主要AI领袖招致麾下,其中包括Scale AI的创始人汪滔(Alexandr Wang)、创业公司创始人丹尼尔·格罗斯(Daniel Gross)以及GitHub前CEO纳特·弗里德曼(Nat Friedman)。
Meta在周一还聘用了两位AI研究人员:一位是来自OpenAI的研究员李远志(Yuanzhi Li),另一位是曾在Anthropic参与Claude模型开发的安东·巴赫廷(Anton Bakhtin)。
截至发稿,Meta不予置评。苹果和庞若鸣尚未就此置评。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
Elevated error rates in ChatGPT Codex
Status: Identified
We have identified that users are experiencing elevated errors for the impacted services. • ChatGPT Codex We are working on implementing a mitigation.
Affected components
● Codex (Partial outage)
via OpenAI status
Status: Identified
We have identified that users are experiencing elevated errors for the impacted services. • ChatGPT Codex We are working on implementing a mitigation.
Affected components
● Codex (Partial outage)
via OpenAI status
Anthropic公司为训练其AI聊天机器人Claude,花费数百万美元购买并销毁了数百万本旧书进行数字化,同时还下载了超过700万本盗版书籍。加州北区地方法院法官William Alsup裁定,Anthropic购买书籍后进行数字化属于合理使用,但下载盗版书籍则构成侵权。Alsup法官认为,Anthropic将购买的书籍数字化用于训练AI模型是“极其具有转换性”的,符合合理使用原则。然而,公司下载至少700万本(包括2021
(HackerNews)
via 茶馆 - Telegram Channel