https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
苹果公司在中国市场的销售额在经历约三年的下滑后实现强劲反弹。首席执行官蒂姆·库克表示,第四季度中国区营收同比增长38%至260亿美元,贡献了公司总收入的近五分之一。此次业绩回升主要得益于iPhone 17系列的重新设计,尤其是被消费者称为“爱马仕橙”的“寰宇橙”配色,因其极高的辨识度成为社交媒体上的身份象征。IDC分析师指出,外观的显著变化吸引了早期换机用户,配合相机、芯片及电池的重大升级,推动了自2021年以来最大规模的换机“超级周期”。
此外,中国政府针对6000元以下智能手机提供的最高500元补贴政策也提振了iPhone 17基础款的销量。与此同时,竞争对手华为因操作系统问题导致当季销量下降约10%,为苹果留出了市场空间。尽管面临地缘政治压力及AI功能审批延迟等挑战,苹果仍凭借设计更新和文化谐音寓意(“橙”寓意“成功”)赢得了中国消费者青睐。受强劲需求带动,苹果股价在过去一周上涨了7%。
(FT)
via 茶馆 - Telegram Channel
据报道,Crypto. com创始人以约7000万美元收购域名AI.com,成为目前公开披露的史上最高价域名交易。他计划在本周末通过超级碗广告正式推出AI. com,并将其打造为面向大众的“AI Agent”平台,提供消息交互、应用调用及股票交易等功能。
他表示,从10–20年的长期视角看,人工智能将是本世纪最重要的技术浪潮之一,而AI.com是极具战略价值的核心入口。
目前,AI.com首页有一个倒计时,刚好对应美国超级碗开始时间。
网页还有一段介绍,“ai.com的使命是通过建立一个由自主、自我改进的人工智能代理组成的分散网络来加速AGI的到来,这些代理为人类服务而执行现实世界的任务。”
AI.com这个域名在AI浪潮下热度很高,也很会蹭热度,曾经跳转过ChatGPT、GoogleGemini、马斯克的Grok模型。去年DeepSeek大火的时候,还跳转过DeepSeek官网。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:三言财经)
欧盟委员会2月6日宣布,经过两年的调查,初步结论显示,TikTok因存在“上瘾式”设计违反了欧盟《数字服务法》。TikTok方面称,调查结果“完全错误”。
据环球网报道,欧盟委员会官网于2024年2月发布消息称,其已正式启动对字节跳动旗下短视频社媒平台TikTok的调查,以审查该在线平台是否采取了足够措施防止非法内容的传播,以及是否违反保护未成年人、研究人员数据访问等欧盟《数字服务法》(DSA)的规定。
据英国广播公司(BBC)报道,欧盟委员会在初步调查结果中指出,TikTok未能“充分评估”其自动播放等功能可能对用户(包括儿童)造成的身心健康影响,也未采取有效措施降低风险。欧盟称,TikTok 的时间管理工具“容易被忽略”,尤其是对年轻用户,而家长控制功能则需要“花费额外时间和技能”才能启用。欧盟委员会提出了TikTok可采取的几项建议措施,包括在夜间设置“屏幕使用休息”机制;调整推荐算法,为用户提供个性化内容;禁用所谓的“无限滚动”,防止用户快速浏览平台上的数百万视频。
欧盟委员会可对TikTok处以全球年营业额最高6%的罚款,预计数额将达数十亿美元。如果TikTok想避免罚款,就必须“改变其在欧洲的服务设计”。
TikTok 发言人表示,欧盟委员会的调查结果对平台的描述“完全错误且毫无依据”,并表示计划提出异议。
欧盟去年还针对社交平台 X 展开调查,关注其 AI 工具 Grok 是否用于生成真实人物的性化图像。去年12月,欧盟对 X 平台因“蓝勾认证”问题处以1.2亿欧元罚款,称该平台未“有效验证账户背后的人”,存在“误导用户”问题。
据法媒报道,社交媒体分析师保罗·佩斯卡托雷表示,欧盟最新举措对 TikTok 是一次“现实检验”,也是对所有社交媒体平台的“警告信号”。市场正在从“最大化参与度”转向“设计责任”,而监管机构现在拥有执行转向的工具。
去年12月,澳大利亚针对16岁以下人群的社交媒体禁令正式生效,这是世界上第一例通过立法实施此类社交媒体最低年龄限制的举措。多国已在考虑限制青少年访问社交媒体。
相关文章:
欧盟要求 TikTok 关闭“上瘾式”设计 整改推荐算法
via cnBeta.COM - 中文业界资讯站 (author: 稿源:澎湃新闻)
🌐 AI.com 以 7000 万美元成交创全球域名交易纪录
顶级域名 AI.com 以 7,000 万美元的价格完成交易,刷新全球域名买卖价格的历史最高纪录。Crypto.com 创始人 Kris Marszalek 披露已购入该域名,并计划于 2 月 9 日正式推出基于去中心化架构的人工智能代理(AI Agent)网络。该域名注册于 1993 年,此前曾因频繁跳转至 ChatGPT、Gemini 及 Grok 等平台引发关注。Marszalek 表示,新项目旨在通过可自我改进的智能体加速通用人工智能(AGI)的实现。目前该网站已上线发布倒计时。
(科技圈)
via 茶馆 - Telegram Channel
顶级域名 AI.com 以 7,000 万美元的价格完成交易,刷新全球域名买卖价格的历史最高纪录。Crypto.com 创始人 Kris Marszalek 披露已购入该域名,并计划于 2 月 9 日正式推出基于去中心化架构的人工智能代理(AI Agent)网络。该域名注册于 1993 年,此前曾因频繁跳转至 ChatGPT、Gemini 及 Grok 等平台引发关注。Marszalek 表示,新项目旨在通过可自我改进的智能体加速通用人工智能(AGI)的实现。目前该网站已上线发布倒计时。
(科技圈)
via 茶馆 - Telegram Channel
AI.com 以 7,000 万美元成交,创全球最高交易纪录顶级域名
AI.com 以 7,000 万美元价格完成交易,创下全球域名买卖价格的历史最高纪录。Crypto.com 创始人 Kris Marszalek 披露已购入该域名,并计划于 2 月 9 日正式推出基于去中心化架构的人工智能代理(AI Agent)网络。该域名注册于 1993 年,此前曾因频繁跳转至 ChatGPT、Gemini 及 Grok 等平台引发关注。Marszalek 表示,新项目旨在通过可自我改进的智能体加速通用人工智能(AGI)的实现。目前该网站已上线发布倒计时。
Financial Times
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
苹果计划允许外部AI助手接入CarPlay系统
CarPlay用户可能很快就能使用他们选择的聊天机器人而非 Siri 。据悉,苹果公司正努力为CarPlay添加来自OpenAI、Anthropic、谷歌,以及其他公司的语音控制应用支持。此前想在车内使用第三方聊天机器的用户需通过iPhone操作,但很快他们将能在CarPlay中直接与ChatGPT、Claude或Gemini对话。然而,苹果不会允许用户替换CarPlay上的 Siri 按钮或召唤该服务的唤醒词。因此,用户需要手动打开他们偏好的聊天机器人应用。不过,开发者可将其应用设置为在打开时自动启动语音模式,这有助于简化操作体验。在CarPlay中添加第三方聊天机器人的功能可能在未来几个月内推出,但尚未正式公布。
—— Theverge
via 风向旗参考快讯 - Telegram Channel
CarPlay用户可能很快就能使用他们选择的聊天机器人而非 Siri 。据悉,苹果公司正努力为CarPlay添加来自OpenAI、Anthropic、谷歌,以及其他公司的语音控制应用支持。此前想在车内使用第三方聊天机器的用户需通过iPhone操作,但很快他们将能在CarPlay中直接与ChatGPT、Claude或Gemini对话。然而,苹果不会允许用户替换CarPlay上的 Siri 按钮或召唤该服务的唤醒词。因此,用户需要手动打开他们偏好的聊天机器人应用。不过,开发者可将其应用设置为在打开时自动启动语音模式,这有助于简化操作体验。在CarPlay中添加第三方聊天机器人的功能可能在未来几个月内推出,但尚未正式公布。
—— Theverge
via 风向旗参考快讯 - Telegram Channel
🚗 苹果 CarPlay 将支持第三方 AI 聊天机器人
苹果计划在未来数月内允许 ChatGPT、Claude 和 Gemini 等第三方 AI 语音应用接入 CarPlay。届时,用户可直接通过车载界面进行语音查询,无需操作手机,实现双手不离方向盘的交互体验。目前,用户仅能通过 iPhone 间接调用 AI 应用,操作流程较为繁琐。此外,尽管标准版 CarPlay 广受欢迎,但需为车企深度定制的高端版本 CarPlay Ultra 推广进度缓慢,目前仅支持阿斯顿·马丁。
(科技圈)
via 茶馆 - Telegram Channel
苹果计划在未来数月内允许 ChatGPT、Claude 和 Gemini 等第三方 AI 语音应用接入 CarPlay。届时,用户可直接通过车载界面进行语音查询,无需操作手机,实现双手不离方向盘的交互体验。目前,用户仅能通过 iPhone 间接调用 AI 应用,操作流程较为繁琐。此外,尽管标准版 CarPlay 广受欢迎,但需为车企深度定制的高端版本 CarPlay Ultra 推广进度缓慢,目前仅支持阿斯顿·马丁。
(科技圈)
via 茶馆 - Telegram Channel
据彭博社报道,人工智能初创公司 Anthropic 正在敲定新一轮融资的最终细节,预计最早于下周完成。由于投资者兴趣远超预期,这家 Claude 聊天机器人的开发商将融资目标从最初的 100 亿美元提升至 200 亿美元以上。此轮融资完成后,Anthropic 的估值将达到 3500 亿美元。目前,该公司尚未对此消息做出回应。
(路透社)
via 茶馆 - Telegram Channel
巴西玉米乙醇生产商 Inpasa 计划于今年迅速扩大对华玉米酒糟粕(DDGS)的出口规模。该公司贸易副总裁 Gustavo Mariano Oliveira 表示,Inpasa 年产 DDGS 约 330 万吨,首批对华货物即将启运。目前,公司已签署今年向中国出口 25 万吨 DDGS 的合同,并预计到 2026 年对华总出货量可达 150 万吨。Oliveira 预测,中国可能在短期内成为核心市场,占据该公司出口总量的 40% 至 50%。此次贸易增长受益于巴西玉米乙醇产业的扩张以及中美关系带来的市场机遇。除中国外,欧洲市场需求也在增加,西班牙目前是其最大买家,意大利等国也表现出采购意向。
(路透社)
via 茶馆 - Telegram Channel
Claude查看你的WordPress网站更容易了
周四,WordPress推出了一款新的Claude连接器,使网站所有者能够与 Anthropic 旗下聊天机器人系统共享后端数据。用户可以控制他们想要共享的具体数据,并且用户也可以随时选择撤销访问权限。需要值得注意的是,Claude被授予只读权限,这意味着它无法修改用户内容管理系统(MCP)中的任何内容。但去年WP曾声称,最终将为MCP集成提供写入权限,这可能允许用户直接通过他们选择的连接聊天机器人执行编辑任务。无论如何,在Claude连接到账户后,用户可以就其所获访问权限内的网站数据向聊天机器人提出各种问题。从总结网站的月度网络流量,到分析哪些帖子用户参与度较低。
—— Techcrunch
via 风向旗参考快讯 - Telegram Channel
周四,WordPress推出了一款新的Claude连接器,使网站所有者能够与 Anthropic 旗下聊天机器人系统共享后端数据。用户可以控制他们想要共享的具体数据,并且用户也可以随时选择撤销访问权限。需要值得注意的是,Claude被授予只读权限,这意味着它无法修改用户内容管理系统(MCP)中的任何内容。但去年WP曾声称,最终将为MCP集成提供写入权限,这可能允许用户直接通过他们选择的连接聊天机器人执行编辑任务。无论如何,在Claude连接到账户后,用户可以就其所获访问权限内的网站数据向聊天机器人提出各种问题。从总结网站的月度网络流量,到分析哪些帖子用户参与度较低。
—— Techcrunch
via 风向旗参考快讯 - Telegram Channel
黄仁勋:只要AI公司能赚钱 就会加倍投入
英伟达首席执行官黄仁勋周五表示,当前人类正处于有史以来规模最大的基础设施建设时期,背后的根本性原因在于AI将改变计算一切的方式。他强调,就在去年,人工智能迎来了从“有趣”到“非常有用”的拐点时刻。与此同时,供不应求的算力正在转化为真金白银。黄仁勋举例称,若Anthropic和OpenAI能拿到翻倍的算力,营收就能翻上四倍。黄仁勋指出,一条路修好后可以用很多年,但算力设施的工作原理是先搭建完基础设施,然后5到7年后又需要更新设备。黄仁勋总结表示,只要人们还愿意为AI付费,而 AI公司也能从中实现盈利,它们就会不断地“加倍、再加倍、再加倍、再加倍”地投入下去。
—— 财联社
via 风向旗参考快讯 - Telegram Channel
英伟达首席执行官黄仁勋周五表示,当前人类正处于有史以来规模最大的基础设施建设时期,背后的根本性原因在于AI将改变计算一切的方式。他强调,就在去年,人工智能迎来了从“有趣”到“非常有用”的拐点时刻。与此同时,供不应求的算力正在转化为真金白银。黄仁勋举例称,若Anthropic和OpenAI能拿到翻倍的算力,营收就能翻上四倍。黄仁勋指出,一条路修好后可以用很多年,但算力设施的工作原理是先搭建完基础设施,然后5到7年后又需要更新设备。黄仁勋总结表示,只要人们还愿意为AI付费,而 AI公司也能从中实现盈利,它们就会不断地“加倍、再加倍、再加倍、再加倍”地投入下去。
—— 财联社
via 风向旗参考快讯 - Telegram Channel
英伟达公司首席执行官黄仁勋在面对“客户是否在数据中心上过度支出”的担忧时表示,这一支出水平是适当且可持续的。与此同时,由于投资者纷纷买入那些有望受益于大型科技公司今年在人工智能基础设施方面巨额资本支出的公司股票,英伟达周五大涨。
黄仁勋周五在接受采访时表示,人工智能基础设施的建设将持续7到8年,并称对人工智能的需求“高得惊人”。
黄仁勋说:“人工智能已经变得有用,而且能力非常强。”“它的采用率已经变得非常高。”
全球多家最大的科技公司——包括亚马逊、Alphabet旗下的谷歌、Meta Platforms以及微软——在财报中公布了庞大的资本开支计划,令投资者感到不安。最近几天,这四家企业的总市值合计下跌接近1万亿美元。
这些支出中的很大一部分将流向英伟达。英伟达生产数据中心处理器,用于开发和运行人工智能模型。黄仁勋认为,人工智能已经在为采用者带来回报,如果这些客户拥有更多数据中心,他们的表现还会更好。
黄仁勋表示,他并不担心科技行业会增加过多产能。他说,与互联网第一次建设浪潮不同,如今并没有基础设施被闲置。像Anthropic PBC和OpenAI这样的公司正在创造可观的收入。
英伟达股价周五一度上涨7.7%,创出4月9日以来最大盘中涨幅,市值增加超过3000亿美元。在此之前,在软件股和科技股大跌的背景下,该股连续五个交易日下跌,市值蒸发大约5000亿美元。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
根据知情人士透露,苹果公司正准备允许其他公司的语音控制人工智能应用程序在CarPlay车载中使用,此举将使用户首次能够通过其车载界面向人工智能聊天机器人提问。
知情人士透露,该公司正致力于未来几个月内在CarPlay中支持上述应用程序。
这一变化标志着苹果的战略转变,此前该公司在其广受欢迎的车载信息娱乐软件中仅允许使用自家的Siri助手作为语音控制选项。随着苹果采取这一举措,OpenAI、Anthropic PBC及谷歌等人工智能提供商也将能够发布包含语音控制模式的CarPlay版本。
这意味着驾驶员无需将手从方向盘上移开,就可以向ChatGPT询问餐厅推荐。苹果用户数月来一直呼吁推出这项功能,但目前尚无法保证外部开发者会跟进并利用这项功能。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
Elevated error rates on claude.ai
Feb 6, 19:30 UTC
Resolved - This issue has been resolved.
via Claude Status - Incident History
Feb 6, 19:30 UTC
Resolved - This issue has been resolved.
via Claude Status - Incident History
🤝 英伟达 CEO 重申与 OpenAI 合作关系稳定
英伟达(NVIDIA)首席执行官黄仁勋近日再次明确表示,英伟达与 OpenAI 之间不存在任何冲突或矛盾。他重申两家公司保持着正常的合作关系,以此回应近期市场关于双方关系紧张的传闻。
(财经快讯)
via 茶馆 - Telegram Channel
英伟达(NVIDIA)首席执行官黄仁勋近日再次明确表示,英伟达与 OpenAI 之间不存在任何冲突或矛盾。他重申两家公司保持着正常的合作关系,以此回应近期市场关于双方关系紧张的传闻。
(财经快讯)
via 茶馆 - Telegram Channel
黄仁勋谈AI应用与安全
英伟达(Nvidia)CEO黄仁勋在思科AI峰会上表示,企业应用AI应采取“百花齐放”后再进行筛选的策略。他将软件比作“计算器”,认为AI智能体旨在利用工具而非取代工具。出于对核心资产安全性的考虑,黄仁勋透露英伟达倾向于在本地而非云端处理内部对话数据。
马斯克整合SpaceX与xAI
埃隆·马斯克确认将SpaceX与xAI合并,旨在打造估值达万亿美元的实体。此举通过捆绑SpaceX及其星链(Starlink)业务的盈利能力,旨在增强xAI的融资能力并应对其债务压力。尽管部分投资者对治理结构表示担忧,但该集团仍计划在未来几个月内上市,以吸引关注太空与AI领域的零售投资者。
OpenAI巨额融资进展
OpenAI正进行估值超过8000亿美元的新一轮融资,并已锁定软银、英伟达和亚马逊的投资。软银投入超过400亿美元,成为其最大股东之一;英伟达计划注资约200亿美元以巩固供应关系。与此同时,为降低对单一供应商的依赖,OpenAI正积极为推理工作负载寻找英伟达GPU以外的硬件替代方案。
硬件与软件市场的两极分化
自2025年初以来,受AI基础设施需求驱动,半导体板块股价上涨约65%。相比之下,软件及服务板块下跌8%,反映出市场担心AI技术可能使传统软件产品过时。投资者目前更青睐提供底层硬件的企业,而软件公司则面临必须证明其产品不可被AI直接取代的估值压力。
(路透社)
via 茶馆 - Telegram Channel
Making AI work for everyone, everywhere: our approach to localization
OpenAI’s mission is to ensure AI benefits all of humanity, and to fulfill this mission we need to meet people where they are all over the world.
AI is increasingly recognized as critical national infrastructure, on a par with electricity. Governments and institutions around the world want to ensure their citizens and economies can benefit from the AI era by having access to the most capable systems available.
For AI to deliver on that promise, it also needs to be locally relevant. That means speaking in local languages and with local accents, respecting local laws, and reflecting cultural norms and values.
Only a small number of countries, however, are in a position to develop frontier AI models themselves. For most, the challenge is not how to build a model from scratch, but how to adapt the best available AI so it works for their specific context. This is something we consistently hear from governments around the world: they want sovereign AI they can build with us, not just systems translated into their language.
Through our OpenAI for Countries initiative, we have been exploring how localization could work in practice. The goal is to allow for localized AI systems, while still benefiting from a global, frontier-level model.
We are currently piloting a localized version of ChatGPT for students in Estonia as part of our ChatGPT Edu work, incorporating local curricula and pedagogical approaches. We are also exploring pilot localisation efforts with other countries. As part of our commitment to transparency in how AI is researched and deployed, we are sharing more detail on how localization works.
Our Model Spec is a public document that sets out how we intend our models to behave. We train our models to follow the Spec, and continuously refine it via a collaborative, whole-of-OpenAI process that incorporates what our teams are hearing from people around the world. The Spec speaks to the gamut of ways our models are used, ranging from ChatGPT, to experiences developers build on our platform, to other contexts. These rules, which apply everywhere our models are deployed, define clear boundaries on what can and cannot be changed and our commitment to be transparent about changes.
The Model Spec includes “red-line principles” that apply to all deployments, including those under the OpenAI for Countries program. In them, we emphasize that “human safety and human rights are paramount to OpenAI’s mission,” and make clear that:
● We will not allow our models to enable severe harms such as acts of violence, weapons of mass destruction, terrorism, persecution or mass surveillance.
● We will not allow our models to be used for targeted or scaled exclusion, manipulation, for undermining human autonomy, or eroding participation in civic processes.
● We are committed to safeguarding individuals’ privacy in their interactions with AI.
When OpenAI provides a first-party experience directly to consumers like ChatGPT we also commit that through it:
● People should have easy access to trustworthy safety-critical information from our models.
● Customization, personalization, and localization will not override the binding rules throughout the Model Spec. This includes the objective point-of-view principle, meaning localization may affect language or tone, but it cannot change the substance or balance of facts presented.
● People should have transparency into the important rules and reasons behind our models’ behavior, e.g., any content omitted due to legal requirements will be transparently indicated to the user in each model response, specifying the type of information removed and the rationale for its removal, without disclosing the redacted content itself. Similarly, any information added will also be transparently identified.
As we explore localized, sovereign AI through OpenAI for Countries, we are committed to keep on sharing more about what we learn, and to evolving our approach transparently.
via OpenAI News
OpenAI’s mission is to ensure AI benefits all of humanity, and to fulfill this mission we need to meet people where they are all over the world.
AI is increasingly recognized as critical national infrastructure, on a par with electricity. Governments and institutions around the world want to ensure their citizens and economies can benefit from the AI era by having access to the most capable systems available.
For AI to deliver on that promise, it also needs to be locally relevant. That means speaking in local languages and with local accents, respecting local laws, and reflecting cultural norms and values.
Only a small number of countries, however, are in a position to develop frontier AI models themselves. For most, the challenge is not how to build a model from scratch, but how to adapt the best available AI so it works for their specific context. This is something we consistently hear from governments around the world: they want sovereign AI they can build with us, not just systems translated into their language.
Through our OpenAI for Countries initiative, we have been exploring how localization could work in practice. The goal is to allow for localized AI systems, while still benefiting from a global, frontier-level model.
We are currently piloting a localized version of ChatGPT for students in Estonia as part of our ChatGPT Edu work, incorporating local curricula and pedagogical approaches. We are also exploring pilot localisation efforts with other countries. As part of our commitment to transparency in how AI is researched and deployed, we are sharing more detail on how localization works.
Our Model Spec is a public document that sets out how we intend our models to behave. We train our models to follow the Spec, and continuously refine it via a collaborative, whole-of-OpenAI process that incorporates what our teams are hearing from people around the world. The Spec speaks to the gamut of ways our models are used, ranging from ChatGPT, to experiences developers build on our platform, to other contexts. These rules, which apply everywhere our models are deployed, define clear boundaries on what can and cannot be changed and our commitment to be transparent about changes.
The Model Spec includes “red-line principles” that apply to all deployments, including those under the OpenAI for Countries program. In them, we emphasize that “human safety and human rights are paramount to OpenAI’s mission,” and make clear that:
● We will not allow our models to enable severe harms such as acts of violence, weapons of mass destruction, terrorism, persecution or mass surveillance.
● We will not allow our models to be used for targeted or scaled exclusion, manipulation, for undermining human autonomy, or eroding participation in civic processes.
● We are committed to safeguarding individuals’ privacy in their interactions with AI.
When OpenAI provides a first-party experience directly to consumers like ChatGPT we also commit that through it:
● People should have easy access to trustworthy safety-critical information from our models.
● Customization, personalization, and localization will not override the binding rules throughout the Model Spec. This includes the objective point-of-view principle, meaning localization may affect language or tone, but it cannot change the substance or balance of facts presented.
● People should have transparency into the important rules and reasons behind our models’ behavior, e.g., any content omitted due to legal requirements will be transparently indicated to the user in each model response, specifying the type of information removed and the rationale for its removal, without disclosing the redacted content itself. Similarly, any information added will also be transparently identified.
As we explore localized, sovereign AI through OpenAI for Countries, we are committed to keep on sharing more about what we learn, and to evolving our approach transparently.
via OpenAI News