https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
we are seeing elevated errors on Sonnet 46
Apr 24, 02:55 UTC
Update - We are continuing to investigate this issue.
Apr 24, 02:55 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
Apr 24, 02:55 UTC
Update - We are continuing to investigate this issue.
Apr 24, 02:55 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
万兴科技推出万兴脑图 AI,开创思维导图新纪元
A 股上市公司万兴科技在人工智能生成内容(AIGC)领域持续发力,其旗下的绘图创意软件 “万兴脑图”(原名亿图脑图)宣布正式上线一项全新的功能 —— 万兴脑图 AI。这一创新标志着万兴脑图成为国内首款支持 AI Agent 功能的专业思维导图软件,为知识管理与办公效率提升带来了新的可能。
在此次升级中,万兴脑图 AI 不仅延续了用户熟悉的手绘模式,最近还在公测阶段得到了用户的积极反馈,进一步增强了软件的互动性与智能化水平。通过对话驱动的 AI 知识工作台,用户能够更加便捷地进行思维导图的构建和管理,提升了工作效率和创造力。
via AI新闻资讯 (author: AI Base)
A 股上市公司万兴科技在人工智能生成内容(AIGC)领域持续发力,其旗下的绘图创意软件 “万兴脑图”(原名亿图脑图)宣布正式上线一项全新的功能 —— 万兴脑图 AI。这一创新标志着万兴脑图成为国内首款支持 AI Agent 功能的专业思维导图软件,为知识管理与办公效率提升带来了新的可能。
在此次升级中,万兴脑图 AI 不仅延续了用户熟悉的手绘模式,最近还在公测阶段得到了用户的积极反馈,进一步增强了软件的互动性与智能化水平。通过对话驱动的 AI 知识工作台,用户能够更加便捷地进行思维导图的构建和管理,提升了工作效率和创造力。
via AI新闻资讯 (author: AI Base)
多轮对话
本指南将介绍如何使用 DeepSeek
DeepSeek
下面的代码以 Python 语言,展示了如何进行上下文拼接,以实现多轮对话。
----------------------
在第一轮请求时,传递给 API 的
在第二轮请求时:
1. 要将第一轮中模型的输出添加到
2. 将新的提问添加到
最终传递给 API 的
via DeepSeek 新闻
本指南将介绍如何使用 DeepSeek
/chat/completions API 进行多轮对话。DeepSeek
/chat/completions API 是一个“无状态” API,即服务端不记录用户请求的上下文,用户在每次请求时,需将之前所有对话历史拼接好后,传递给对话 API。下面的代码以 Python 语言,展示了如何进行上下文拼接,以实现多轮对话。
from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
# Round 1
messages = [{"role": "user", "content": "What's the highest mountain in the world?"}]
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=messages
)
messages.append(response.choices[0].message)
print(f"Messages Round 1: {messages}")
# Round 2
messages.append({"role": "user", "content": "What is the second?"})
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=messages
)
messages.append(response.choices[0].message)
print(f"Messages Round 2: {messages}")
----------------------
在第一轮请求时,传递给 API 的
messages 为:[
{"role": "user", "content": "What's the highest mountain in the world?"}
]
在第二轮请求时:
1. 要将第一轮中模型的输出添加到
messages 末尾2. 将新的提问添加到
messages 末尾最终传递给 API 的
messages 为:[
{"role": "user", "content": "What's the highest mountain in the world?"},
{"role": "assistant", "content": "The highest mountain in the world is Mount Everest."},
{"role": "user", "content": "What is the second?"}
]
via DeepSeek 新闻
对话前缀续写(Beta)
对话前缀续写沿用 Chat Completion API,用户提供 assistant 开头的消息,来让模型补全其余的消息。
注意事项
1. 使用对话前缀续写时,用户需确保
2. 用户需要设置
样例代码
下面给出了对话前缀续写的完整 Python 代码样例。在这个例子中,我们设置
via DeepSeek 新闻
对话前缀续写沿用 Chat Completion API,用户提供 assistant 开头的消息,来让模型补全其余的消息。
注意事项
1. 使用对话前缀续写时,用户需确保
messages 列表里最后一条消息的 role 为 assistant,并设置最后一条消息的 prefix 参数为 True。2. 用户需要设置
base_url="https://api.deepseek.com/beta" 来开启 Beta 功能。样例代码
下面给出了对话前缀续写的完整 Python 代码样例。在这个例子中,我们设置
assistant 开头的消息为 "```python\n" 来强制模型输出 python 代码,并设置 stop 参数为 ['```'] 来避免模型的额外解释。from openai import OpenAI
client = OpenAI(
api_key="<your api key>",
base_url="https://api.deepseek.com/beta",
)
messages = [
{"role": "user", "content": "Please write quick sort code"},
{"role": "assistant", "content": "```python\n", "prefix": True}
]
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=messages,
stop=["```"],
)
print(response.choices[0].message.content)
via DeepSeek 新闻
FIM 补全(Beta)
在 FIM (Fill In the Middle) 补全中,用户可以提供前缀和后缀(可选),模型来补全中间的内容。FIM 常用于内容续写、代码补全等场景。
注意事项
1. 模型的最大补全长度为 4K。
2. 用户需要设置
样例代码
下面给出了 FIM 补全的完整 Python 代码样例。在这个例子中,我们给出了计算斐波那契数列函数的开头和结尾,来让模型补全中间的内容。
配置 Continue 代码补全插件
Continue 是一款支持代码补全的 VSCode 插件,您可以参考这篇文档来配置 Continue 以使用代码补全功能。
via DeepSeek 新闻
在 FIM (Fill In the Middle) 补全中,用户可以提供前缀和后缀(可选),模型来补全中间的内容。FIM 常用于内容续写、代码补全等场景。
注意事项
1. 模型的最大补全长度为 4K。
2. 用户需要设置
base_url="https://api.deepseek.com/beta" 来开启 Beta 功能。样例代码
下面给出了 FIM 补全的完整 Python 代码样例。在这个例子中,我们给出了计算斐波那契数列函数的开头和结尾,来让模型补全中间的内容。
from openai import OpenAI
client = OpenAI(
api_key="<your api key>",
base_url="https://api.deepseek.com/beta",
)
response = client.completions.create(
model="deepseek-v4-pro",
prompt="def fib(a):",
suffix=" return fib(a-1) + fib(a-2)",
max_tokens=128
)
print(response.choices[0].text)
配置 Continue 代码补全插件
Continue 是一款支持代码补全的 VSCode 插件,您可以参考这篇文档来配置 Continue 以使用代码补全功能。
via DeepSeek 新闻
JSON Output
在很多场景下,用户需要让模型严格按照 JSON 格式来输出,以实现输出的结构化,便于后续逻辑进行解析。
DeepSeek 提供了 JSON Output 功能,来确保模型输出合法的 JSON 字符串。
注意事项
1. 设置
2. 用户传入的 system 或 user prompt 中必须含有
3. 需要合理设置
4. 在使用 JSON Output 功能时,API 有概率会返回空的 content。我们正在积极优化该问题,您可以尝试修改 prompt 以缓解此类问题。
样例代码
这里展示了使用 JSON Output 功能的完整 Python 代码:
模型将会输出:
via DeepSeek 新闻
在很多场景下,用户需要让模型严格按照 JSON 格式来输出,以实现输出的结构化,便于后续逻辑进行解析。
DeepSeek 提供了 JSON Output 功能,来确保模型输出合法的 JSON 字符串。
注意事项
1. 设置
response_format 参数为 {'type': 'json_object'}。2. 用户传入的 system 或 user prompt 中必须含有
json 字样,并给出希望模型输出的 JSON 格式的样例,以指导模型来输出合法 JSON。3. 需要合理设置
max_tokens 参数,防止 JSON 字符串被中途截断。4. 在使用 JSON Output 功能时,API 有概率会返回空的 content。我们正在积极优化该问题,您可以尝试修改 prompt 以缓解此类问题。
样例代码
这里展示了使用 JSON Output 功能的完整 Python 代码:
import json
from openai import OpenAI
client = OpenAI(
api_key="<your api key>",
base_url="https://api.deepseek.com",
)
system_prompt = """
The user will provide some exam text. Please parse the "question" and "answer" and output them in JSON format.
EXAMPLE INPUT:
Which is the highest mountain in the world? Mount Everest.
EXAMPLE JSON OUTPUT:
{
"question": "Which is the highest mountain in the world?",
"answer": "Mount Everest"
}
"""
user_prompt = "Which is the longest river in the world? The Nile River."
messages = [{"role": "system", "content": system_prompt},
{"role": "user", "content": user_prompt}]
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=messages,
response_format={
'type': 'json_object'
}
)
print(json.loads(response.choices[0].message.content))
模型将会输出:
{
"question": "Which is the longest river in the world?",
"answer": "The Nile River"
}
via DeepSeek 新闻
上下文硬盘缓存
DeepSeek API 上下文硬盘缓存技术对所有用户默认开启,用户无需修改代码即可享用。
用户的每一个请求都会触发硬盘缓存的构建。若后续请求与之前的请求在前缀上存在重复,则重复部分只需要从缓存中拉取,计入“缓存命中”。
注意:两个请求间,只有重复的前缀部分才能触发“缓存命中”,详间下面的例子。
----------------------
例一:长文本问答
第一次请求
第二次请求
在上例中,两次请求都有相同的前缀,即
----------------------
例二:多轮对话
第一次请求
第二次请求
在上例中,第二次请求可以复用第一次请求开头的
----------------------
例三:使用 Few-shot 学习
在实际应用中,用户可以通过 Few-shot 学习的方式,来提升模型的输出效果。所谓 Few-shot 学习,是指在请求中提供一些示例,让模型学习到特定的模式。由于 Few-shot 一般提供相同的上下文前缀,在硬盘缓存的加持下,Few-shot 的费用显著降低。
第一次请求
第二次请求
在上例中,使用了 4-shots。两次请求只有最后一个问题不一样,第二次请求可以复用第一次请求中前 4 轮对话的内容,这部分会计入“缓存命中”。
----------------------
查看缓存命中情况
在 DeepSeek API 的返回中,我们在
1.
2.
硬盘缓存与输出随机性
硬盘缓存只匹配到用户输入的前缀部分,输出仍然是通过计算推理得到的,仍然受到 temperature 等参数的影响,从而引入随机性。其输出效果与不使用硬盘缓存相同。
其它说明
1. 缓存系统以 64 tokens 为一个存储单元,不足 64 tokens 的内容不会被缓存
2. 缓存系统是“尽力而为”,不保证 100% 缓存命中
3. 缓存构建耗时为秒级。缓存不再使用后会自动被清空,时间一般为几个小时到几天
via DeepSeek 新闻
DeepSeek API 上下文硬盘缓存技术对所有用户默认开启,用户无需修改代码即可享用。
用户的每一个请求都会触发硬盘缓存的构建。若后续请求与之前的请求在前缀上存在重复,则重复部分只需要从缓存中拉取,计入“缓存命中”。
注意:两个请求间,只有重复的前缀部分才能触发“缓存命中”,详间下面的例子。
----------------------
例一:长文本问答
第一次请求
messages: [
{"role": "system", "content": "你是一位资深的财报分析师..."}
{"role": "user", "content": "<财报内容>\n\n请总结一下这份财报的关键信息。"}
]
第二次请求
messages: [
{"role": "system", "content": "你是一位资深的财报分析师..."}
{"role": "user", "content": "<财报内容>\n\n请分析一下这份财报的盈利情况。"}
]
在上例中,两次请求都有相同的前缀,即
system 消息 + user 消息中的 <财报内容>。在第二次请求时,这部分前缀会计入“缓存命中”。----------------------
例二:多轮对话
第一次请求
messages: [
{"role": "system", "content": "你是一位乐于助人的助手"},
{"role": "user", "content": "中国的首都是哪里?"}
]
第二次请求
messages: [
{"role": "system", "content": "你是一位乐于助人的助手"},
{"role": "user", "content": "中国的首都是哪里?"},
{"role": "assistant", "content": "中国的首都是北京。"},
{"role": "user", "content": "美国的首都是哪里?"}
]
在上例中,第二次请求可以复用第一次请求开头的
system 消息和 user 消息,这部分会计入“缓存命中”。----------------------
例三:使用 Few-shot 学习
在实际应用中,用户可以通过 Few-shot 学习的方式,来提升模型的输出效果。所谓 Few-shot 学习,是指在请求中提供一些示例,让模型学习到特定的模式。由于 Few-shot 一般提供相同的上下文前缀,在硬盘缓存的加持下,Few-shot 的费用显著降低。
第一次请求
messages: [
{"role": "system", "content": "你是一位历史学专家,用户将提供一系列问题,你的回答应当简明扼要,并以`Answer:`开头"},
{"role": "user", "content": "请问秦始皇统一六国是在哪一年?"},
{"role": "assistant", "content": "Answer:公元前221年"},
{"role": "user", "content": "请问汉朝的建立者是谁?"},
{"role": "assistant", "content": "Answer:刘邦"},
{"role": "user", "content": "请问唐朝最后一任皇帝是谁"},
{"role": "assistant", "content": "Answer:李柷"},
{"role": "user", "content": "请问明朝的开国皇帝是谁?"},
{"role": "assistant", "content": "Answer:朱元璋"},
{"role": "user", "content": "请问清朝的开国皇帝是谁?"}
]
第二次请求
messages: [
{"role": "system", "content": "你是一位历史学专家,用户将提供一系列问题,你的回答应当简明扼要,并以`Answer:`开头"},
{"role": "user", "content": "请问秦始皇统一六国是在哪一年?"},
{"role": "assistant", "content": "Answer:公元前221年"},
{"role": "user", "content": "请问汉朝的建立者是谁?"},
{"role": "assistant", "content": "Answer:刘邦"},
{"role": "user", "content": "请问唐朝最后一任皇帝是谁"},
{"role": "assistant", "content": "Answer:李柷"},
{"role": "user", "content": "请问明朝的开国皇帝是谁?"},
{"role": "assistant", "content": "Answer:朱元璋"},
{"role": "user", "content": "请问商朝是什么时候灭亡的"},
]
在上例中,使用了 4-shots。两次请求只有最后一个问题不一样,第二次请求可以复用第一次请求中前 4 轮对话的内容,这部分会计入“缓存命中”。
----------------------
查看缓存命中情况
在 DeepSeek API 的返回中,我们在
usage 字段中增加了两个字段,来反映请求的缓存命中情况:1.
prompt_cache_hit_tokens:本次请求的输入中,缓存命中的 tokens 数(0.1 元 / 百万 tokens)2.
prompt_cache_miss_tokens:本次请求的输入中,缓存未命中的 tokens 数(1 元 / 百万 tokens)硬盘缓存与输出随机性
硬盘缓存只匹配到用户输入的前缀部分,输出仍然是通过计算推理得到的,仍然受到 temperature 等参数的影响,从而引入随机性。其输出效果与不使用硬盘缓存相同。
其它说明
1. 缓存系统以 64 tokens 为一个存储单元,不足 64 tokens 的内容不会被缓存
2. 缓存系统是“尽力而为”,不保证 100% 缓存命中
3. 缓存构建耗时为秒级。缓存不再使用后会自动被清空,时间一般为几个小时到几天
via DeepSeek 新闻
为了满足大家对 Anthropic API 生态的使用需求,我们的 API 新增了对 Anthropic API 格式的支持,其
通过简单的配置,即可将 DeepSeek 的能力,接入到 Anthropic API 生态中。
----------------------
将 DeepSeek 模型接入 Claude Code
请参考接入 Coding Agent
通过 Anthropic API 调用 DeepSeek 模型
1. 安装 Anthropic SDK
1. 配置环境变量
1. 调用 API
注意:当您给 DeepSeek 的 Anthropic API 传入不支持的模型名时,API 后端会自动将其映射到
----------------------
Anthropic API 兼容性细节
HTTP Header
Simple Fields
Tool Fields
tools
tool_choice
Message Fields
via DeepSeek 新闻
base_url 为 https://api.deepseek.com/anthropic。通过简单的配置,即可将 DeepSeek 的能力,接入到 Anthropic API 生态中。
----------------------
将 DeepSeek 模型接入 Claude Code
请参考接入 Coding Agent
通过 Anthropic API 调用 DeepSeek 模型
1. 安装 Anthropic SDK
pip install anthropic
1. 配置环境变量
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_API_KEY=${YOUR_API_KEY}
1. 调用 API
import anthropic
client = anthropic.Anthropic()
message = client.messages.create(
model="deepseek-v4-pro",
max_tokens=1000,
system="You are a helpful assistant.",
messages=[
{
"role": "user",
"content": [
{
"type": "text",
"text": "Hi, how are you?"
}
]
}
]
)
print(message.content)
注意:当您给 DeepSeek 的 Anthropic API 传入不支持的模型名时,API 后端会自动将其映射到
deepseek-v4-flash 模型。----------------------
Anthropic API 兼容性细节
HTTP Header
Simple Fields
Tool Fields
tools
tool_choice
Message Fields
via DeepSeek 新闻
近日,Soul AI Lab 宣布正式开源业内首个拥有14亿参数的实时数字人生成模型 ——SoulXFlashTalk。这个模型的特别之处在于,它能够实现亚秒级延迟和每秒32帧的高帧率,为行业提供了一套完整的实时交互解决方案。
SoulXFlashTalk 的开源意味着开发者将可以轻松访问相关的项目页面、技术报告、源代码和模型权重,形成一个全面开放的体系。这一举措不仅能有效降低行业内的研发门槛,也将为更多的创新项目提供基础支持。值得一提的是,早在去年10月,Soul 便已经开源了语音合成模型 SoulXPodcast,此次的开源标志着 Soul 在 “语音 + 视觉” 双模态开源矩阵的布局上又迈出了重要一步。
Soul 的开源战略并不仅限于技术的共享,更是希望通过开放的方式,促进 AI 生态的共同发展。公司表示,未来将继续坚持开源路线,开放更多 AI 技术成果,从而推动 AI 与社交领域的创新与融合。
随着 Soul 在多模态 AI 生态布局的不断完善,业内专家预测,这将为社交网络、在线教育、虚拟现实等多个行业带来颠覆性的变化。可以预见,Soul 的努力将为未来的数字交互体验设定新的标杆,让我们拭目以待。
划重点:
🌟 Soul AI Lab 推出14B 参数的实时数字人生成模型 SoulXFlashTalk,具备快速响应能力和高帧率。
🚀 开源带来项目页面、技术报告、源代码及模型权重,降低研发门槛,鼓励更多创新。
🤝 Soul 将继续推进开源战略,推动 AI 与社交创新发展,构建多模态 AI 生态。
via AI新闻资讯 (author: AI Base)
特斯拉宣布车载语音接入豆包
在全球车载 AI 市场中,中国被认为是最活跃的地区之一。近日,特斯拉宣布其车载语音服务将接入字节跳动旗下的豆包大模型,标志着该公司在中国市场的一次重要更新。此次合作由 DeepSeekChat 提供 AI 互动功能,采用双模型落地方案,进一步推动了车载 AI 技术的本土化进程。
早在 2025 年 8 月,特斯拉就与火山引擎达成了合作,而此次接入豆包大模型无疑是其在中国市场上的一次重磅举措。随着特斯拉车机语音大模型服务的备案完成,意味着特斯拉的车载语音助手将迎来全新的升级。这不仅是特斯拉首次全面拥抱中国本土 AI 技术,也标志着车载 AI 竞争正向区域深度定制转变。
这一变化将极大加速国产 AI 大模型在车载领域的商业化进程,进一步重塑中国车载 AI 行业的格局。在国内自主车企、科技巨头以及 AI 创业公司共同推动下,车载 AI 技术正在迅速发展,呈现出 “自研 + 跨界合作” 的双路径特征。中国市场的快速发展为全球车载 AI 行业提供了新的机遇,同时也促使国际品牌加速与本土企业的合作。
总的来说,特斯拉的此次举动不仅是对中国市场的重视,也为整个车载 AI 行业带来了新的思路和动力。未来,随着技术的不断迭代和市场需求的增长,我们可以期待更多创新的车载 AI 应用出现在消费者面前。
划重点:
🌟 特斯拉与字节跳动旗下豆包大模型的合作标志着车载 AI 的重大更新。
🚗 此次接入将加速国产 AI 技术在车载领域的商业化进程。
🤝 行业内自主车企、科技巨头与 AI 创业公司共同推动车载 AI 技术发展。
via AI新闻资讯 (author: AI Base)
在全球车载 AI 市场中,中国被认为是最活跃的地区之一。近日,特斯拉宣布其车载语音服务将接入字节跳动旗下的豆包大模型,标志着该公司在中国市场的一次重要更新。此次合作由 DeepSeekChat 提供 AI 互动功能,采用双模型落地方案,进一步推动了车载 AI 技术的本土化进程。
早在 2025 年 8 月,特斯拉就与火山引擎达成了合作,而此次接入豆包大模型无疑是其在中国市场上的一次重磅举措。随着特斯拉车机语音大模型服务的备案完成,意味着特斯拉的车载语音助手将迎来全新的升级。这不仅是特斯拉首次全面拥抱中国本土 AI 技术,也标志着车载 AI 竞争正向区域深度定制转变。
这一变化将极大加速国产 AI 大模型在车载领域的商业化进程,进一步重塑中国车载 AI 行业的格局。在国内自主车企、科技巨头以及 AI 创业公司共同推动下,车载 AI 技术正在迅速发展,呈现出 “自研 + 跨界合作” 的双路径特征。中国市场的快速发展为全球车载 AI 行业提供了新的机遇,同时也促使国际品牌加速与本土企业的合作。
总的来说,特斯拉的此次举动不仅是对中国市场的重视,也为整个车载 AI 行业带来了新的思路和动力。未来,随着技术的不断迭代和市场需求的增长,我们可以期待更多创新的车载 AI 应用出现在消费者面前。
划重点:
🌟 特斯拉与字节跳动旗下豆包大模型的合作标志着车载 AI 的重大更新。
🚗 此次接入将加速国产 AI 技术在车载领域的商业化进程。
🤝 行业内自主车企、科技巨头与 AI 创业公司共同推动车载 AI 技术发展。
via AI新闻资讯 (author: AI Base)
近日,Anthropic 公司推出的 Claude Mythos AI 模型经历了一场尴尬的安全事件。该模型因其卓越的网络安全能力而被认为不适合公开发布,但却在不久前被一小群未经授权的用户获取。根据《彭博社》的报道,自 Anthropic 宣布将向少数公司提供该模型进行测试以来,黑客就已经获得了对 Mythos 的访问权限。此事件令一向注重 AI 安全的 Anthropic 面临严峻挑战。
技术层面上,这次 Mythos 的入侵显得相当简单。据报道,黑客组通过对 Mythos 的在线位置进行 “有根据的猜测”,结合 Anthropic 其他模型在 Mercor 公司泄露的信息,以及其中一名成员通过评估 Anthropic 模型的合同工作获得的内部知识,成功入侵了 Mythos。这个事件并非源于复杂的技术攻击,而是基于一些内部信息和运气的结合。
安全漏洞是难以避免的,Mercor 公司泄露的信息使得黑客得以猜测 Mythos 的具体位置。来自英国皇家联合服务研究所(RUSI)的研究员 Pia Hüsch 表示,没有任何公司能做到完全安全,而人类常常是最薄弱的环节。虽然此事件似乎有些运气成分,但没有造成严重后果。
Anthropic 未能预见到这种 “完全可以想象” 的失败,然而,这次事件也为科技公司敲响了警钟,提醒他们在面对潜在风险时必须保持高度警觉,以防类似事件再次发生。
划重点:
- 🔒 Anthropic 的 Mythos 模型因其强大的网络安全能力而不适合公开发布,却被黑客成功入侵。
- 🕵️♂️ 黑客通过简单的猜测和内部信息获得了对 Mythos 的访问权限,显示出安全漏洞的风险。
- ⚠️ 专家指出,科技公司需时刻保持警惕,避免类似安全事件的发生。
via AI新闻资讯 (author: AI Base)
微软公司在其 51 年的历史中首次为部分美国员工推出了一项一次性的自愿退休计划,此举与人工智能的快速发展和持续的科技裁员潮密切相关。根据周四发布的一份公司备忘录,符合条件的员工包括在公司工作多年且年龄与工龄相加达到 70 岁或以上的高管及以下级别员工。这大约占微软在美国员工总数的 7%,预计有 8750 名员工符合资格。
符合条件的员工及其经理将于 5 月 7 日收到通知,并有 30 天的时间作出回应。需要注意的是,拥有销售激励计划的员工不能参与此次计划。微软首席人事官艾米・科尔曼在备忘录中表示,该计划旨在为长期服务的员工提供一个选择,让他们能够在自己决定的时机,以公司给予的丰厚支持,迈出人生的新一步。
科尔曼还提到了微软薪酬体系的变化,决定将薪酬等级从九个减少到五个,并将股票奖励与奖金分开,使管理层可以更加灵活地利用股票奖励长期贡献突出的员工。她表示:“这样的做法可以让管理者更加灵活地有效认可高绩效员工。”
与此同时,科技行业的裁员潮依然在继续。虽然自愿退休计划在传统制造业和电信行业较为常见,但科技巨头们通常更倾向于通过裁员、更加严格的绩效评估和回归办公室政策来精简员工。去年,微软裁员超过 15000 人,其中包括 7 月份裁减的 9000 名员工。此外,Meta 本周也宣布将进行新一轮裁员,计划裁减多达 8000 个职位。亚马逊则在 1 月宣布裁减 16000 名员工。许多公司将其裁员归因于日益增加的人工智能发展计划。
划重点:
💼 微软首次推出自愿退休计划,预计有 8750 名员工符合条件。
📉 科技行业裁员潮持续,微软去年裁员超过 15000 人。
🤖 人工智能发展加速,成为公司裁员及调整的重要因素。
via AI新闻资讯 (author: AI Base)
软银集团要改造工厂为数据中心生产电池
软银集团旗下移动通信部门欲进行一次雄心勃勃的尝试,计划将其大阪工厂的一部分改造为日本最大的大型电池生产线之一,以便为自家的人工智能数据中心供电。知情人士称,软银公司的目标是在未来五年内让该生产线投产。软银高管曾考虑将该堺市工厂用于多种用途,包括机器人制造,最终决定进军能源领域。软银是全球AI领域最坚定的支持者之一,已承诺投入数千亿美元投资数据中心、云服务以及OpenAI等创业公司。软银公司CEO宫川润一预计将在下月公布新五年商业计划时宣布这一电池项目。尽管计划细节仍在敲定中,但孙正义已对此倡议表示赞同。该决定尚需获得软银公司董事会批准。
—— 凤凰网科技、彭博社
via 风向旗参考快讯 - Telegram Channel
软银集团旗下移动通信部门欲进行一次雄心勃勃的尝试,计划将其大阪工厂的一部分改造为日本最大的大型电池生产线之一,以便为自家的人工智能数据中心供电。知情人士称,软银公司的目标是在未来五年内让该生产线投产。软银高管曾考虑将该堺市工厂用于多种用途,包括机器人制造,最终决定进军能源领域。软银是全球AI领域最坚定的支持者之一,已承诺投入数千亿美元投资数据中心、云服务以及OpenAI等创业公司。软银公司CEO宫川润一预计将在下月公布新五年商业计划时宣布这一电池项目。尽管计划细节仍在敲定中,但孙正义已对此倡议表示赞同。该决定尚需获得软银公司董事会批准。
—— 凤凰网科技、彭博社
via 风向旗参考快讯 - Telegram Channel
据国外媒体报道,长期坚持自有资金研发的AI独角兽DeepSeek近日被曝开启首次对外融资,目标估值超过200亿美元。据悉,互联网巨头腾讯与阿里巴巴均在接洽中。
尽管DeepSeek此前由创始人梁文锋通过其量化交易公司资金支持,并无迫切的外部资本需求,但此次战略动作的核心指向人才激励与留存。由于DeepSeek模型训练团队核心成员如R1论文作者郭达雅、资深研究员Wang Bingxuan近期相继跳槽至字节跳动与腾讯,公司亟需通过外部融资迅速推高估值,从而放大员工持有的股票期权价值,以抗衡科技巨头及高估值初创同行的抢人攻势。
据知情人士透露,本次融资金额预计仅为数亿美元,具有较强的象征意义。若融资协议未能达成,梁文锋亦在考虑通过股票回购或基于业绩的估值调整等方案来安抚研究人员。值得注意的是,DeepSeek相对封闭的财务数据与缺乏明确商业模式的现状,仍是吸引纯财务投资者的挑战。行业普遍认为,对于追求协同效应的战略投资者而言,提供底层算力支持与云基础设施的合作伙伴将是最理想的入局者。
在全球大模型竞争步入“人才溢价”时代的背景下,DeepSeek的估值飞跃折射出顶级AI实验室在理想主义管理模式与残酷市场竞争间的博弈。此举不仅关乎其科研梯队的稳定性,更预示着国内通用人工智能领域的估值体系正在向硅谷顶尖水平靠拢。
via AI新闻资讯 (author: AI Base)
分析者质疑自建订阅验证机制:终身订阅的“终身”由谁定义?
昨晚,某知名软件突发服务器故障,导致正常订阅用户无法正常使用软件的本地服务。某分析者在 GitHub 发布了一份开源分析项目对此类 App 订阅验证机制进行技术性深度探讨 并向频道投稿,我们总结摘要如下:
报告通过逆向工程还原了某软件的订阅鉴权架构:
报告中最具争议的发现是:二进制中硬编码了逻辑——“连续验证失败 N 次,清除授权缓存”,意味着一旦自建服务器不可用,应用将主动撤销本地订阅状态,用户的终身订阅(_canPurchaseLifeTime)也将随之失效。
分析者观点认为,苹果 App Store 的内购凭证本身已可在本地验证,当服务商停止运营时,依赖自建服务器的架构将使已付费用户——尤其是终身订阅用户——面临无法恢复的权益损失,且无任何托底机制。
分析者希望我们传达以下观点:当用户购买了“终身订阅”或“永久解锁”服务时,这个“终身”究竟是指用户的生命周期,还是应用服务器的生命周期?
Github
🌸在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
昨晚,某知名软件突发服务器故障,导致正常订阅用户无法正常使用软件的本地服务。某分析者在 GitHub 发布了一份开源分析项目对此类 App 订阅验证机制进行技术性深度探讨 并向频道投稿,我们总结摘要如下:
报告通过逆向工程还原了某软件的订阅鉴权架构:
该应用采用”服务器为主、StoreKit 2 为辅”的混合验证模式。用户的订阅状态(isSubscribed、isEarlyBird 等字段)由开发者自建服务器统一存储与下发,本地 WCDB 数据库与 Keychain 仅作为服务器状态的缓存副本。
报告中最具争议的发现是:二进制中硬编码了逻辑——“连续验证失败 N 次,清除授权缓存”,意味着一旦自建服务器不可用,应用将主动撤销本地订阅状态,用户的终身订阅(_canPurchaseLifeTime)也将随之失效。
分析者观点认为,苹果 App Store 的内购凭证本身已可在本地验证,当服务商停止运营时,依赖自建服务器的架构将使已付费用户——尤其是终身订阅用户——面临无法恢复的权益损失,且无任何托底机制。
分析者希望我们传达以下观点:当用户购买了“终身订阅”或“永久解锁”服务时,这个“终身”究竟是指用户的生命周期,还是应用服务器的生命周期?
该投稿由分析者本人提交相关材料后,编辑总结技术实现后排版,相关观点由社区发出,我们不做任何主观性评论,欢迎其他观点的讨论投稿。
Github
🌸在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
英伟达 CEO 黄仁勋推动全员使用 OpenAI Codex 编程工具
近日,英伟达首席执行官黄仁勋通过社交媒体向 OpenAI 首席执行官萨姆・奥特曼发送了一封电邮,分享了他对公司员工使用 OpenAI Codex 编程工具的号召。黄仁勋在邮件中提到,基于最新的 GPT-5.5 技术,OpenAI Cod 现已向英伟达开放。
他强调英伟达 10000 名员工,涵盖了工程、产品、法务、市场营销、财务、销售、人力资源及开发项目等各个部门,均已提前体验了这一工具,并取得了显著成果。
黄仁勋信中鼓全体员工使用 Codex,指出这款工具不仅适用于软件开发团队,而是适合所有员工。Codex 被视为一种 “智能队友”,能够帮助员工提升工作效率,实现快、更智能工作方式。他,Codex 使用将为们提供超以往的能力为了帮助员工好地掌 Codex,伟达与 AI 团队共同创建一个 Codex 实验室,计划在未来几周内举办一系列线上研讨会。这些研讨会旨在为员工们提供入门学习的机会,以便他们更好地理解和利用这项新技术。
黄仁勋的信中还提到,随着人工智能技术的发展,我们正在迈入一个全新的时代,鼓励大家共同迎接这个快速发展的光速时代。通过使用 Codex,英伟达希望能在行业内继续保持领先地位,为员工创造更大的价值。
via AI新闻资讯 (author: AI Base)
近日,英伟达首席执行官黄仁勋通过社交媒体向 OpenAI 首席执行官萨姆・奥特曼发送了一封电邮,分享了他对公司员工使用 OpenAI Codex 编程工具的号召。黄仁勋在邮件中提到,基于最新的 GPT-5.5 技术,OpenAI Cod 现已向英伟达开放。
他强调英伟达 10000 名员工,涵盖了工程、产品、法务、市场营销、财务、销售、人力资源及开发项目等各个部门,均已提前体验了这一工具,并取得了显著成果。
黄仁勋信中鼓全体员工使用 Codex,指出这款工具不仅适用于软件开发团队,而是适合所有员工。Codex 被视为一种 “智能队友”,能够帮助员工提升工作效率,实现快、更智能工作方式。他,Codex 使用将为们提供超以往的能力为了帮助员工好地掌 Codex,伟达与 AI 团队共同创建一个 Codex 实验室,计划在未来几周内举办一系列线上研讨会。这些研讨会旨在为员工们提供入门学习的机会,以便他们更好地理解和利用这项新技术。
黄仁勋的信中还提到,随着人工智能技术的发展,我们正在迈入一个全新的时代,鼓励大家共同迎接这个快速发展的光速时代。通过使用 Codex,英伟达希望能在行业内继续保持领先地位,为员工创造更大的价值。
划重点:
🌟 OpenAI Codex 工具已向英伟达全体员工开放,基于最新的 GPT-5.5 技术。
👥 黄仁勋强调,Codex 不仅适用于软件团队,所有员工均可受益于这一智能工具。
📅 英伟达将举办线上研讨会,帮助员工学习和使用 Codex,推动公司向人工智能时代迈进。
via AI新闻资讯 (author: AI Base)
豆神教育与微软 Azure 携手打造 AI 短剧平台
在刚刚结束的 Microsoft AI Tour 年度盛会上,豆神教育作为赞助商之一,隆重推出了其全新研发的 “豆神 AI 短剧平台”。这一平台的亮相不仅吸引了与会者的目光,更标志着人工智能在内容创作领域的又一次重要突破。
豆神 AI 短剧平台基于多模态 AI 架构,融合了文本理解、图像生成、视频生成以及智能配音等多项尖端技术。其强大的功能涵盖了从剧本创作、分镜拆解到角色设定,最终实现视频合成与成片输出的各个环节。这样的综合能力,不仅为内容创作者提供了便利,也为教育领域的知识传播、情境化教学内容及文化类内容的生成开辟了新的路径。
具体来说,这一平台的应用场景非常广泛。教育工作者可以利用其生成的短剧内容进行生动的知识讲解,使学生在轻松愉快的氛围中学习;同时,内容创作者、MCN 机构和企业品牌都能借助这一工具满足日益增长的内容生产需求。更值得一提的是,豆神 AI 短剧平台已正式在 Microsoft Marketplace 上架,为全球企业客户提供 SaaS 服务,这一举措将进一步推动其在国际市场的扩展。
业内分析人士指出,豆神教育此次与微软 Azure 的合作,展示了其持续推动 AI 技术向内容创作领域延伸的决心。随着人工智能技术的不断进步,豆神教育的 AI 产品将不仅局限于教育领域,而是向更广泛的商业化内容生产工具拓展。这无疑将为内容产业带来新的活力与可能性。
随着 AI 技术的快速发展,内容创作的门槛正在逐渐降低,未来我们或许能够看到更多精彩的 AI 生成短剧,开启一场全新的视觉盛宴。
划重点:
🌟 豆神教育与微软 Azure 联合推出的 AI 短剧平台,集成了文本、图像和视频生成等多项技术。
🎓 该平台广泛应用于教育、文化内容生成,满足内容创作者和企业的多样化需求。
🌍 豆神 AI 短剧平台已在 Microsoft Marketplace 上架,开启全球 SaaS 服务的新篇章。
via AI新闻资讯 (author: AI Base)
在刚刚结束的 Microsoft AI Tour 年度盛会上,豆神教育作为赞助商之一,隆重推出了其全新研发的 “豆神 AI 短剧平台”。这一平台的亮相不仅吸引了与会者的目光,更标志着人工智能在内容创作领域的又一次重要突破。
豆神 AI 短剧平台基于多模态 AI 架构,融合了文本理解、图像生成、视频生成以及智能配音等多项尖端技术。其强大的功能涵盖了从剧本创作、分镜拆解到角色设定,最终实现视频合成与成片输出的各个环节。这样的综合能力,不仅为内容创作者提供了便利,也为教育领域的知识传播、情境化教学内容及文化类内容的生成开辟了新的路径。
具体来说,这一平台的应用场景非常广泛。教育工作者可以利用其生成的短剧内容进行生动的知识讲解,使学生在轻松愉快的氛围中学习;同时,内容创作者、MCN 机构和企业品牌都能借助这一工具满足日益增长的内容生产需求。更值得一提的是,豆神 AI 短剧平台已正式在 Microsoft Marketplace 上架,为全球企业客户提供 SaaS 服务,这一举措将进一步推动其在国际市场的扩展。
业内分析人士指出,豆神教育此次与微软 Azure 的合作,展示了其持续推动 AI 技术向内容创作领域延伸的决心。随着人工智能技术的不断进步,豆神教育的 AI 产品将不仅局限于教育领域,而是向更广泛的商业化内容生产工具拓展。这无疑将为内容产业带来新的活力与可能性。
随着 AI 技术的快速发展,内容创作的门槛正在逐渐降低,未来我们或许能够看到更多精彩的 AI 生成短剧,开启一场全新的视觉盛宴。
划重点:
🌟 豆神教育与微软 Azure 联合推出的 AI 短剧平台,集成了文本、图像和视频生成等多项技术。
🎓 该平台广泛应用于教育、文化内容生成,满足内容创作者和企业的多样化需求。
🌍 豆神 AI 短剧平台已在 Microsoft Marketplace 上架,开启全球 SaaS 服务的新篇章。
via AI新闻资讯 (author: AI Base)