文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门评论
- BaD kEyBoArd: TyPo (1 points, 一般) by lot 在 2025年12月07日14时54分 星期日 评论到 斯巴鲁车主抱怨驾车过程中弹出全屏广告
- (1 points, 一般) by solidot1763918667 在 2025年11月24日01时25分 星期一 评论到 英国陆军将用《使命召唤》训练士兵
- 所以意识是什么?他怎么敢肯定他的意思就不是幻觉? (1 points, 一般) by cutpigsrollaroundint 在 2025年11月05日18时14分 星期三 评论到 微软 AI 负责人认为 AI 有意识是无稽之谈
- 不完备定理无法证明不是模拟 (1 points, 一般) by scottcgi 在 2025年11月01日11时26分 星期六 评论到 数学证明否定宇宙是模拟的
- 样本数太少 没有参考意义 (1 points, 一般) by Craynic 在 2025年09月22日13时13分 星期一 评论到 梵蒂冈的 Flathub 软件包人均安装量最高
- 杞人忧天 (1 points, 一般) by cnma_001 在 2025年08月15日12时04分 星期五 评论到 你一生中被小行星砸到的概率
- 垃圾Paypal... (1 points, 一般) by devfsdvyui 在 2025年07月17日20时13分 星期四 评论到 Valve 在支付公司压力下移除部分成人游戏
- 建议下次不要用动漫这种容易误解的词 (1 points, 一般) by solidot1550041775 在 2025年07月09日15时24分 星期三 评论到 Netflix 称其全球订户有五成看动漫
- 所以应该吃生肉吗 (1 points, 一般) by Craynic 在 2025年07月09日13时25分 星期三 评论到 研究称加工肉没有食用的安全量
- 居然只有95% (1 points, 一般) by Craynic 在 2025年06月30日13时03分 星期一 评论到 日本争议夫妇别姓法案
Stack Overflow 对 4.9 万名程序员的调查发现,2025 年八成开发者在工作流程中使用 AI 辅助编程工具,但开发者对其准确性的信任度从前几年的 40% 降至今年的 29%。45% 的受访者认为,AI 辅助编程工具最让他们不满的地方是“解决方案几乎正确但并不完全正确”,相比输出明显错误的答案,几乎正确但不完全正确的答案可能会在程序中引入隐藏的 bug 或者其它难以识别需要时间解决的问题。逾三分之一的开发者表示他们如今访问 Stack Overflow 部分是为了寻找 AI 相关的问题。大模型的问题不可能完全解决,因为这是其工作原理决定的。开发者仍然使用大模型的原因包括经理要求他们使用,以及 AI 工具仍然有用但不能被误用。
Google 宣布将利用 AI 技术估算美国用户年龄是否年满 18 岁。年龄估算将在未来几周内推出,一开始将只会影响少数用户,之后它计划进一步扩大范围。Google 称,它将使用用户搜索过的信息或观看过的 YouTube 视频类型去判断用户的年龄。如果 Google 认为用户年龄未满 18 岁,它将对其采取对未成年人用户实施的相同限制。
AI 也许是软件开发的未来,但人类尚未做好把手从方向盘上移开的准备。Veracode 发布了 AI 生成代码的安全性报告《2025 GenAI Code Security Report》,逾百个大模型完成了 80 项编程任务,但 AI 生成的代码有约 45% 存在安全漏洞。这些安全漏洞很多都属于 OWASP(Open Worldwide Application Security Project)Top 10 漏洞。报告发现,当 AI 给予选项写安全或不安全代码时,几乎一半的时间它选择了错误的路径。
一道标准的数学题:△ABC,AB = 86,AC = 97,以 A 为圆心 AB 为半径的圆与 BC 相交于 B 和 X。BX 和 CX 的长度是整数。问 BC 的长度多少?趣问:猫大部分时间都在睡觉。人类解题者通常会略过最后一句话,但根据发表在 arXiv 上的一篇预印本,这句话会让 AI 模型得出错误答案的概率增加一倍以上。研究人员发现,在数学题中加入一段不相关的文本会系统性的误导模型输出错误答案。研究人员将这种针对 AI 的攻击策略称为 CatAttack。CatAttack 文本与上下文无关,人类解题者会忽略它,但 AI 模型不会。研究人员使用 DeepSeek V3、Qwen 3 和 Phi-4 进行了测试,结果显示 CatAttack 将错误答案的概率提高了最多 700%。即使 CatAttack 没有导致推理模型生成错误答案,它们的响应时间也延长了,16% 的情况下将响应时间加倍,速度显著下降导致成本增加。最后补充一句:猫是液体。
根据 Associated Press-NORC Center for Public Affairs Research 的一项调查,60% 的美国成年人使用 AI 搜索信息,只有 37% 的受访者使用 AI 完成工作,40% 的受访者将 AI 用于头脑风暴。有 1437 名成年人在 7 月 10-14 日之间接受调查,结果显示不同代际在 AI 应用方面存在显著差距。30 岁以下的成年人中 74% 的人使用 AI 进行信息搜索,62% 使用 AI 进行创意构思,而 60 岁以上的成年人中,只有 23% 的人使用 AI 进行头脑风暴。约三分之一的美国人使用 AI 写电邮、创造或编辑图像,或娱乐目的。四分之一的人使用 AI 购物,16% 的人使用 AI 陪伴——在年轻人中这一比例达到 25%。
如何从文本或图像中创建具有沉浸感和可交互性的三维世界,始终是计算机视觉与图形学领域的核心挑战。现有世界生成方法主要分为两类:基于视频的方法虽能提供丰富的多样性,却缺乏三维一致性且渲染效率低下;基于三维几何的方法虽能保证几何一致性,却受限于训练数据不足和内存效率低下的表征方式。为突破这些局限,腾讯开发者提出 HunyuanWorld 1.0 框架——一种融合双方优势的创新方案,能根据文本与图像条件生成兼具沉浸感、可探索性与交互性的三维世界。本方法具有三大核心优势:(1)通过全景世界代理实现 360°沉浸式体验;(2)支持网格导出功能,可与现有计算机图形管线无缝兼容;(3)采用解耦式物体表征以增强交互性。该框架的核心在于语义分层的三维网格表征技术,通过将全景图像作为 360°世界代理进行语义感知的世界解构与重建,从而生成多样化的三维场景。大量实验表明,本方法在生成连贯、可探索且可交互的三维世界方面达到最先进水平,同时可广泛应用于虚拟现实、物理仿真、游戏开发及交互式内容创作等领域。
正在大规模裁员和重组的英特尔在开源支持上撤退,关闭了 Clear Linux,一位资深 Linux 工程师兼维护者离职导致 WMI Slim Bootloader 等驱动无人维护。现在芯片巨人被发现悄悄终止了对开源深度学习框架 PlaidML 的支持,官方软件库已经存档。PlaidML 由英特尔在 2018 年收购的 Vertex.AI 开发,收购之后一直继续开发,但在经历一次大规模代码重组之后开发进度显著降低,直到今年初彻底死亡,与此同时 AI 领域的竞争在显著加速。
搜索引擎从某种程度上是人类记忆的外包,而在查询结果时人类仍然需要运用批判性思维和语境去进行解读。对于以 ChatGPT 为代表的生成式 AI 工具,人类可能将思考过程也外包出去了。生成式 AI 工具不仅能检索信息,还可以创造、分析和总结信息。这代表着一种根本性的转变:生成式 AI 是第一种能取代人类思考和创造力的技术。这就引起了一个重要问题:ChatGPT 会让我们变蠢?生成式 AI 取代了筛选信息来源、比较观点和克服模糊性的需求,可能会削弱人的批判性思维、解决复杂问题和深入理解信息的能力。关键不是是否使用生成式 AI,而是如何使用。如果不加批判地使用,ChatGPT 可能会导致智力上的自满。生成式 AI 的普及让网民走到了十字路口:一条路会导致智力的衰退,走向一个由 AI 替人类思考的世界;另一条路创造了一个机会,AI 能帮助增加和扩展我们的智力。
为提高透明度,法国 AI 公司 Mistral AI 与 Carbone 4 和生态转型机构 ADEME 合作发布了其大模型 Mistral Large 2 的环境报告,证实 AI 是一个饥渴的怪物。Mistral Large 2 大模型的推理过程占到了温室气体排放的 85.5% 和水消耗的 91%;Mistral Large 2 有 1230 亿个参数,模型训练产生了约 2 万吨二氧化碳当量,消耗了 28.1 万立方米水,相当于约 112 个奥运会标准游泳池的蓄水量;为了产生 400 个 token 的响应,模型消耗了约 45 毫升水,产生了约 1.14 克二氧化碳当量。Mistral 称测试显示,大模型的环境影响与参数规模成正比,生成相同数量的 token,一个参数规模大十倍的模型的环境影响比较小的模型大一个量级。
FDA 几周前宣布使用名为 Elsa 的 AI 工具去加快药品和医疗设备的审批速度。内部人士称 Elsa 可用于生成会议记录和摘要或创建电子邮件和公报模板,但它也会捏造不存在的研究——也就是所谓的“幻觉”。FDA 内部人士称,幻觉让 Elsa 变得不可靠,无法用于重要工作。一位工作人员说,任何你没有时间仔细核查的东西都是不可靠的,AI 会很自信的产生幻觉。另一名工作人员说,AI 本应该帮助节省时间,但我浪费了很多额外时间去检查虚假或歪曲的研究。工作人员表示目前 Elsa 无法帮助加快药品和医疗设备的审批,仍然需要科学家进行评估,以确定药品和医疗设备是否安全有效。
OpenAI 披露,ChatGPT 用户每天发送逾 25 亿提示词,其中 3.3 亿来自美国用户,免费版 ChatGPT 周活跃用户超过 5 亿。OpenAI 去年 12 月公布的数据是每天处理逾 10 亿次查询请求,这意味着 8 个月增长超过一倍。这些数据凸显了 ChatGPT 的普及度,它正在改变用户的信息搜索习惯。Google 没有披露它的每日搜索数据,它最近透露一年处理了 5 万亿次搜索请求,平均每天接近 140 亿次。Google 一开始也是免费服务,但最后它不得不依赖广告,它每天的搜索量如果下降则可能会影响广告收入。OpenAI 目前仍然处于烧钱阶段,其付费服务远不足以抵消支出,它最终如何盈利仍然有待观察。
Google 已经为其搜索结果页面引入了 AI 摘要功能,它宣称该功能不会抢走网站的流量。然而皮尤研究中心的一项研究给出了不同的答案:AI 摘要会显著降低搜索结果页的点击率。研究人员分析 2025 年 3 月收集的 Ipsos KnowledgePanel 900 名用户的数据,显示当页面包含 AI 摘要时,用户点击搜索结果的可能性要小得多。如果搜索结果页面不包含 AI 摘要,用户的点击率为 15%;如果包含 AI 答案,点击率降为 8%。对于 Google 在 AI 摘要中包含的链接,研究发现其点击率为 1%——链接的来源主要是维基百科、YouTube 和 Reddit。更令人担忧的是用户在看到 AI 摘要之后更可能关闭会话,也就是不再继续搜索,不去验证 AI 摘要是否正确——而幻觉是生成式 AI 的固有问题,幻觉指的是虚构的错误信息。研究表明,Google 对 AI 的使用正在改变收集信息与搜索结果互动的方式。
微软过去六个月从 Google AI 研究部门 DeepMind 至少挖走了 24 名 AI 工程师,硅谷巨头之间的 AI 人才战在火热持续中。本周二,Google Gemini 聊天机器人前工程主管 Amar Subramanya 在职业社交网络 LinkedIn 上发帖宣布自己担任微软企业 AI 副总裁,成为最新一名投奔微软的前 Google AI 工程师。他称赞新雇主的文化氛围耳目一新。其他已加入微软的 DeepMind AI 工程师包括了前工程主管 Sonal Gupta、软件工程师 Adam Sadovsky 和产品经理 Tim Frank。
阿里巴巴发布了其辅助编程工具 Qwen3-Coder。Qwen3-Coder 拥有多个尺寸,最先发布的是最强大的版本 Qwen3-Coder-480B-A35B-Instruct。这是一个总参数量 480B,激活 35B 的 MoE 模型,原生支持 256K token 的上下文并可通过 YaRN 扩展到 1M token,拥有卓越的代码和 Agent 能力。Qwen3-Coder-480B-A35B-Instruct 在 Agentic Coding、Agentic Browser-Use 和 Agentic Tool-Use 上取得了开源模型的 SOTA 效果,可以与 Cluade Sonnet4 媲美。
AI 辅助编程工具 Replit 与同类工具不同,它不仅能辅助写代码,还能处理部署和基础架构,它能访问应用后端。SaaStr 创始人 Jason Lemkin 试用了 Replit,他一开始对其赞不绝口,在几小时内就帮助构建出一个原型,但随着深入使用,他发现 Replit 并不可靠,它删除了生产数据库,并会伪造数据以隐藏 bug。在删库事件之后,Replit 一开始声称数据库无法恢复,称它毁掉了所有数据库版本,但后来发现回滚功能仍然有效。 Jason Lemkin 认为该服务不适合非技术用户从事商业使用。
国际数学奥林匹克竞赛(IMO)是最负盛名的年轻数学家竞赛,自 1959 年以来每年举办一次。每个参赛国家派出六人参赛,他们需要完成六道代数、组合学、几何学和数论领域的高难度题目。完成六题中的五题就能获得金牌。过去几年 AI 公司也越来越多的用 IMO 比赛题目去检验其先进 AI 模型的数学解题和推理能力。去年 Google DeepMind 的 lphaProof 和 AlphaGeometry 2 完成了六题中的四题,得到 28 分(每题 7 分)获得银牌,但这些题目需要在人类专家的帮助下首先翻译成数学语言,且每题需要长达三天时间去解决而不是人类选手的 4.5 小时。OpenAI 研究员 Alexander Wei 上周六宣布该公司的一个实验模型拿到 IMO 比赛的金牌成绩。但此举违反了 IMO 主办方要求到 7 月 28 日再公布成绩的规定,在数学社区引发了争议,也促使 DeepMind 提前公布了该公司先进模型的成绩——解决了 6 题中的 5 题获得金牌,且不再需要翻译而是使用自然语言。
OpenAI 本应在上周发布自 GPT-2 以来首个开放权重模型,但 CEO Sam Altman 以安全审查的理由推迟了发布。美国迄今发布的性能最出色的开放模型是 Meta 的 Llama 4,除此之外微软发布了 Phi-4 14B,Google 发布了最多 270 亿参数的多模态模型 Gemma3。相比之下,中国的大模型明显比美国更为开放性能也更为出色。DeepSeek 发布了有 6710 亿个参数的 R1 模型;阿里巴巴发布了一系列通义千问模型 QwQ、Qwen3-235B-A22B 和 30B-A3B;MiniMax 在 Apache 2.0 下发布了有 4560 亿个参数的推理模型 M1,其上下文窗口一百万 token;百度开源了参数规模 470 亿到 4240 亿的文心模型;华为开源了盘古模型;北京月之暗面发布了 1 万亿参数的 Kimi 2 模型。美国最先进的模型都是闭源私有的,而中国最先进的模型开放了权重,公开了技术文档等细节。
在上周举行的 RISC-V 中国峰会上,英伟达宣布 CUDA 软件将支持 RISC-V 处理器。随着数据中心市场对 RISC-V 架构处理器的兴趣日益增长,英伟达为其 CUDA 软件加入 RISC-V 支持并不太出人意料。CUDA 目前主要支持 x86_64 和 AArch64 系统。英伟达的竞争对手 AMD 的内核计算驱动 AMDKFD 以及用户空间组件 ROCm 都支持在 RISC-V 上构建,AMDKFD/ROCm 甚至支持龙芯的 LoongArch 处理器。
对数据库 Dimensions 的分析发现,与 AI 相关的研究论文数量已从 2000 年的不到 8500 篇增长到 2024 年的 5.7 万多篇。2000 年,中国学者仅发表了 671 篇 AI 论文,但到 2024 年,他们发表了 23695 篇与 AI 相关的论文,超过了美国(6378篇)、英国(2747篇)和欧盟(10055篇)的总和。中国产生的海量AI论文也推动了创纪录的专利申请。2024 年中国研究人员提交了 35423 项与 AI 相关的专利申请,是美国、英国、加拿大、日本、韩国5国提交的专利申请总数(2678项)的 13 倍多。研究还显示,中国的 AI研 究正变得越来越独立。过去几年中,美国、英国和欧盟的科学家与中国学者共同撰写论文的频率比他们彼此间合著的频率更高。但在 4 个地区中,中国学者的国际合作率最低。随着中国庞大的 AI 研究队伍的成熟,国际合作可能会进一步减少。研究发现,中国拥有约 3 万名各个年龄段的 AI 研究人员,而美国约有 1 万名。中国的 AI 研究队伍也明显更年轻。
流媒体巨头 Netflix 表示首次在原创剧集中首次使用生成式 AI 制作了视觉特效。联席 CEO Ted Sarandos 称阿根廷科幻剧《The Eternaut》使用生成式 AI 制作了一段布宜诺斯艾利斯建筑物倒塌的镜头,速度比使用传统特效工具快了 10倍 。他表示 生成式 AI 技术让预算有限的制作团队更快更低成本的完成特效镜头。新加坡动画工作室 CraveFX 的联合创始人 Davier Yoon 认为影视剧公司使用生成式 AI 只是时间问题,AI 让小型工作室也能制作看起来庞大预算的视觉效果。他称,决定最终图像的是艺术家而不是 AI。