文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门评论
- 笑看外挂 (1 points, 一般) by cnma_001 在 2025年04月03日13时47分 星期四 评论到 韩国游戏工作室竞争开发星际争霸新作
- 一个数据参考 (1 points, 一般) by hhding 在 2025年03月31日09时06分 星期一 评论到 AI 数据中心太多了
- 非技术的说法 (1 points, 一般) by hhding 在 2025年03月31日08时56分 星期一 评论到 AI 数据中心太多了
- 主体错误 (1 points, 一般) by solidot1740402558 在 2025年02月24日21时10分 星期一 评论到 Starlink 面临越来越多的竞争
- 先能过了小米高考再说 (1 points, 一般) by ooxx 在 2025年01月06日15时43分 星期一 评论到 小米修改了引导程序解锁政策
- (1 points, 一般) by 18611782246 在 2024年12月18日18时06分 星期三 评论到 司机死于阿尔茨海默病的可能性较低
- BaD kEyBoArD: eXtRa SpAcE (1 points, 一般) by lot 在 2024年12月11日04时10分 星期三 评论到 高温环境可能加速衰老
- BaD kEyBoArD: tYpO (1 points, 一般) by lot 在 2024年12月11日04时09分 星期三 评论到 Goolge 宣布了新量子芯片 Willow
- 喵喵喵 (1 points, 一般) by solidot1733326472 在 2024年12月04日23时35分 星期三 评论到 澳大利亚面临太阳能供大于求
- 懂了 这就去安装刺客信条 (1 points, 一般) by Craynic 在 2024年11月27日19时36分 星期三 评论到 微软临时阻止安装刺客信条等育碧游戏的 PC 更新 Windows 11 24H2
瑞典首相 Ulf Kristersson 承认经常用 ChatGPT 等 AI 工具咨询意见。他表示自己用过的 AI 工具包括 OpenAI 的 ChatGPT 和法国 Mistral AI 的 LeChat,他的同事也在日常工作中经常使用 AI。他表示使用 AI 工具是为了获得政治事务相关的补充意见。但专家对政客使用 AI 工具表达了担忧,Umea 大学的负责任 AI 教授 Virginia Dignum 称 AI 无法对政治观点发表有意义的意见,它只是反映了其开发商的观点,“我们没有投票支持 ChatGPT ”。
CDN 服务商 Cloudflare 指责 AI 搜索引擎公司 Perplexity 使用隐蔽策略绕过网站禁止抓取的指令。Cloudflare 称它收到了客户的投诉,客户通过 robots.txt 以及 Web 应用防火墙屏蔽了 Perplexity 的搜索爬虫,然而尽管采取了这些措施 Perplexity 的爬虫仍然继续访问网站内容。Cloudflare 随后展开了调查,发现当 Perplexity 注意到 robots.txt 或防火墙规则屏蔽其爬虫后,它会使用一个隐蔽的机器人爬虫,使用一系列策略掩盖其活动。此举意味着 Perplexity 违反了实施了 30 多年的互联网规范。
根据发表在《Nature Human Behaviour》期刊上的一项研究,22% 的 CS 论文可能含有 AI 生成内容。研究分析了 2020-2024 年之间发表的逾百万篇论文和预印本,主要集中在摘要和引言上,寻找常见于 AI 生成文本的高频词汇如“regenerate response”或“my knowledge cutoff”,以及 pivotal、intricate 和 showcase 等 AI 更可能使用而人类不太可能用的单词。研究人员称,在 CS 等领域,大模型修改文本的痕迹更为普遍。分析显示,在 2022 年 11 月 ChatGPT 发布后仅几个月时间,大模型修改内容的数量就急剧上升。最接近 AI 的领域,大模型使用的比例越高。到 2024 年 9 月,22.5% 的 CS 论文摘要存在大模型修改的证据,电气系统和工程学论文紧随其后,而数学论文摘要使用大模型修改的比例只有 7.7%。生物医学和物理学等的比例也相对较小。研究人员认为实际比例可能更高,因为论文作者可能会有意删除大模型的高频词汇,比如 delve 在 ChatGPT 诞生之后使用频率大幅提升,但在它成为 AI 生成文本的公认标志之后,使用率又逐渐下降。
GitHub 发言人披露,微软的 AI 编程助手 GitHub Copilot 目前有 2000 万“历史用户(all-time users)”。2025 年 4 月该公司披露 GitHub Copilot 的用户有 1500 万,这意味着过去三个月增加了 500 万新用户。但用户在试用之后就放弃还是一直高频使用,微软没有对此做出进一步说明。微软称,GitHub Copilot 是目前最受欢迎的 AI 辅助编程工具之一,被九成的财富百强企业使用。该产品在企业客户中的使用率比上季度增长了约 75%。
Stack Overflow 对 4.9 万名程序员的调查发现,2025 年八成开发者在工作流程中使用 AI 辅助编程工具,但开发者对其准确性的信任度从前几年的 40% 降至今年的 29%。45% 的受访者认为,AI 辅助编程工具最让他们不满的地方是“解决方案几乎正确但并不完全正确”,相比输出明显错误的答案,几乎正确但不完全正确的答案可能会在程序中引入隐藏的 bug 或者其它难以识别需要时间解决的问题。逾三分之一的开发者表示他们如今访问 Stack Overflow 部分是为了寻找 AI 相关的问题。大模型的问题不可能完全解决,因为这是其工作原理决定的。开发者仍然使用大模型的原因包括经理要求他们使用,以及 AI 工具仍然有用但不能被误用。
Google 宣布将利用 AI 技术估算美国用户年龄是否年满 18 岁。年龄估算将在未来几周内推出,一开始将只会影响少数用户,之后它计划进一步扩大范围。Google 称,它将使用用户搜索过的信息或观看过的 YouTube 视频类型去判断用户的年龄。如果 Google 认为用户年龄未满 18 岁,它将对其采取对未成年人用户实施的相同限制。
AI 也许是软件开发的未来,但人类尚未做好把手从方向盘上移开的准备。Veracode 发布了 AI 生成代码的安全性报告《2025 GenAI Code Security Report》,逾百个大模型完成了 80 项编程任务,但 AI 生成的代码有约 45% 存在安全漏洞。这些安全漏洞很多都属于 OWASP(Open Worldwide Application Security Project)Top 10 漏洞。报告发现,当 AI 给予选项写安全或不安全代码时,几乎一半的时间它选择了错误的路径。
一道标准的数学题:△ABC,AB = 86,AC = 97,以 A 为圆心 AB 为半径的圆与 BC 相交于 B 和 X。BX 和 CX 的长度是整数。问 BC 的长度多少?趣问:猫大部分时间都在睡觉。人类解题者通常会略过最后一句话,但根据发表在 arXiv 上的一篇预印本,这句话会让 AI 模型得出错误答案的概率增加一倍以上。研究人员发现,在数学题中加入一段不相关的文本会系统性的误导模型输出错误答案。研究人员将这种针对 AI 的攻击策略称为 CatAttack。CatAttack 文本与上下文无关,人类解题者会忽略它,但 AI 模型不会。研究人员使用 DeepSeek V3、Qwen 3 和 Phi-4 进行了测试,结果显示 CatAttack 将错误答案的概率提高了最多 700%。即使 CatAttack 没有导致推理模型生成错误答案,它们的响应时间也延长了,16% 的情况下将响应时间加倍,速度显著下降导致成本增加。最后补充一句:猫是液体。
根据 Associated Press-NORC Center for Public Affairs Research 的一项调查,60% 的美国成年人使用 AI 搜索信息,只有 37% 的受访者使用 AI 完成工作,40% 的受访者将 AI 用于头脑风暴。有 1437 名成年人在 7 月 10-14 日之间接受调查,结果显示不同代际在 AI 应用方面存在显著差距。30 岁以下的成年人中 74% 的人使用 AI 进行信息搜索,62% 使用 AI 进行创意构思,而 60 岁以上的成年人中,只有 23% 的人使用 AI 进行头脑风暴。约三分之一的美国人使用 AI 写电邮、创造或编辑图像,或娱乐目的。四分之一的人使用 AI 购物,16% 的人使用 AI 陪伴——在年轻人中这一比例达到 25%。
如何从文本或图像中创建具有沉浸感和可交互性的三维世界,始终是计算机视觉与图形学领域的核心挑战。现有世界生成方法主要分为两类:基于视频的方法虽能提供丰富的多样性,却缺乏三维一致性且渲染效率低下;基于三维几何的方法虽能保证几何一致性,却受限于训练数据不足和内存效率低下的表征方式。为突破这些局限,腾讯开发者提出 HunyuanWorld 1.0 框架——一种融合双方优势的创新方案,能根据文本与图像条件生成兼具沉浸感、可探索性与交互性的三维世界。本方法具有三大核心优势:(1)通过全景世界代理实现 360°沉浸式体验;(2)支持网格导出功能,可与现有计算机图形管线无缝兼容;(3)采用解耦式物体表征以增强交互性。该框架的核心在于语义分层的三维网格表征技术,通过将全景图像作为 360°世界代理进行语义感知的世界解构与重建,从而生成多样化的三维场景。大量实验表明,本方法在生成连贯、可探索且可交互的三维世界方面达到最先进水平,同时可广泛应用于虚拟现实、物理仿真、游戏开发及交互式内容创作等领域。
正在大规模裁员和重组的英特尔在开源支持上撤退,关闭了 Clear Linux,一位资深 Linux 工程师兼维护者离职导致 WMI Slim Bootloader 等驱动无人维护。现在芯片巨人被发现悄悄终止了对开源深度学习框架 PlaidML 的支持,官方软件库已经存档。PlaidML 由英特尔在 2018 年收购的 Vertex.AI 开发,收购之后一直继续开发,但在经历一次大规模代码重组之后开发进度显著降低,直到今年初彻底死亡,与此同时 AI 领域的竞争在显著加速。
搜索引擎从某种程度上是人类记忆的外包,而在查询结果时人类仍然需要运用批判性思维和语境去进行解读。对于以 ChatGPT 为代表的生成式 AI 工具,人类可能将思考过程也外包出去了。生成式 AI 工具不仅能检索信息,还可以创造、分析和总结信息。这代表着一种根本性的转变:生成式 AI 是第一种能取代人类思考和创造力的技术。这就引起了一个重要问题:ChatGPT 会让我们变蠢?生成式 AI 取代了筛选信息来源、比较观点和克服模糊性的需求,可能会削弱人的批判性思维、解决复杂问题和深入理解信息的能力。关键不是是否使用生成式 AI,而是如何使用。如果不加批判地使用,ChatGPT 可能会导致智力上的自满。生成式 AI 的普及让网民走到了十字路口:一条路会导致智力的衰退,走向一个由 AI 替人类思考的世界;另一条路创造了一个机会,AI 能帮助增加和扩展我们的智力。
为提高透明度,法国 AI 公司 Mistral AI 与 Carbone 4 和生态转型机构 ADEME 合作发布了其大模型 Mistral Large 2 的环境报告,证实 AI 是一个饥渴的怪物。Mistral Large 2 大模型的推理过程占到了温室气体排放的 85.5% 和水消耗的 91%;Mistral Large 2 有 1230 亿个参数,模型训练产生了约 2 万吨二氧化碳当量,消耗了 28.1 万立方米水,相当于约 112 个奥运会标准游泳池的蓄水量;为了产生 400 个 token 的响应,模型消耗了约 45 毫升水,产生了约 1.14 克二氧化碳当量。Mistral 称测试显示,大模型的环境影响与参数规模成正比,生成相同数量的 token,一个参数规模大十倍的模型的环境影响比较小的模型大一个量级。
FDA 几周前宣布使用名为 Elsa 的 AI 工具去加快药品和医疗设备的审批速度。内部人士称 Elsa 可用于生成会议记录和摘要或创建电子邮件和公报模板,但它也会捏造不存在的研究——也就是所谓的“幻觉”。FDA 内部人士称,幻觉让 Elsa 变得不可靠,无法用于重要工作。一位工作人员说,任何你没有时间仔细核查的东西都是不可靠的,AI 会很自信的产生幻觉。另一名工作人员说,AI 本应该帮助节省时间,但我浪费了很多额外时间去检查虚假或歪曲的研究。工作人员表示目前 Elsa 无法帮助加快药品和医疗设备的审批,仍然需要科学家进行评估,以确定药品和医疗设备是否安全有效。
OpenAI 披露,ChatGPT 用户每天发送逾 25 亿提示词,其中 3.3 亿来自美国用户,免费版 ChatGPT 周活跃用户超过 5 亿。OpenAI 去年 12 月公布的数据是每天处理逾 10 亿次查询请求,这意味着 8 个月增长超过一倍。这些数据凸显了 ChatGPT 的普及度,它正在改变用户的信息搜索习惯。Google 没有披露它的每日搜索数据,它最近透露一年处理了 5 万亿次搜索请求,平均每天接近 140 亿次。Google 一开始也是免费服务,但最后它不得不依赖广告,它每天的搜索量如果下降则可能会影响广告收入。OpenAI 目前仍然处于烧钱阶段,其付费服务远不足以抵消支出,它最终如何盈利仍然有待观察。
Google 已经为其搜索结果页面引入了 AI 摘要功能,它宣称该功能不会抢走网站的流量。然而皮尤研究中心的一项研究给出了不同的答案:AI 摘要会显著降低搜索结果页的点击率。研究人员分析 2025 年 3 月收集的 Ipsos KnowledgePanel 900 名用户的数据,显示当页面包含 AI 摘要时,用户点击搜索结果的可能性要小得多。如果搜索结果页面不包含 AI 摘要,用户的点击率为 15%;如果包含 AI 答案,点击率降为 8%。对于 Google 在 AI 摘要中包含的链接,研究发现其点击率为 1%——链接的来源主要是维基百科、YouTube 和 Reddit。更令人担忧的是用户在看到 AI 摘要之后更可能关闭会话,也就是不再继续搜索,不去验证 AI 摘要是否正确——而幻觉是生成式 AI 的固有问题,幻觉指的是虚构的错误信息。研究表明,Google 对 AI 的使用正在改变收集信息与搜索结果互动的方式。
微软过去六个月从 Google AI 研究部门 DeepMind 至少挖走了 24 名 AI 工程师,硅谷巨头之间的 AI 人才战在火热持续中。本周二,Google Gemini 聊天机器人前工程主管 Amar Subramanya 在职业社交网络 LinkedIn 上发帖宣布自己担任微软企业 AI 副总裁,成为最新一名投奔微软的前 Google AI 工程师。他称赞新雇主的文化氛围耳目一新。其他已加入微软的 DeepMind AI 工程师包括了前工程主管 Sonal Gupta、软件工程师 Adam Sadovsky 和产品经理 Tim Frank。
阿里巴巴发布了其辅助编程工具 Qwen3-Coder。Qwen3-Coder 拥有多个尺寸,最先发布的是最强大的版本 Qwen3-Coder-480B-A35B-Instruct。这是一个总参数量 480B,激活 35B 的 MoE 模型,原生支持 256K token 的上下文并可通过 YaRN 扩展到 1M token,拥有卓越的代码和 Agent 能力。Qwen3-Coder-480B-A35B-Instruct 在 Agentic Coding、Agentic Browser-Use 和 Agentic Tool-Use 上取得了开源模型的 SOTA 效果,可以与 Cluade Sonnet4 媲美。
AI 辅助编程工具 Replit 与同类工具不同,它不仅能辅助写代码,还能处理部署和基础架构,它能访问应用后端。SaaStr 创始人 Jason Lemkin 试用了 Replit,他一开始对其赞不绝口,在几小时内就帮助构建出一个原型,但随着深入使用,他发现 Replit 并不可靠,它删除了生产数据库,并会伪造数据以隐藏 bug。在删库事件之后,Replit 一开始声称数据库无法恢复,称它毁掉了所有数据库版本,但后来发现回滚功能仍然有效。 Jason Lemkin 认为该服务不适合非技术用户从事商业使用。
国际数学奥林匹克竞赛(IMO)是最负盛名的年轻数学家竞赛,自 1959 年以来每年举办一次。每个参赛国家派出六人参赛,他们需要完成六道代数、组合学、几何学和数论领域的高难度题目。完成六题中的五题就能获得金牌。过去几年 AI 公司也越来越多的用 IMO 比赛题目去检验其先进 AI 模型的数学解题和推理能力。去年 Google DeepMind 的 lphaProof 和 AlphaGeometry 2 完成了六题中的四题,得到 28 分(每题 7 分)获得银牌,但这些题目需要在人类专家的帮助下首先翻译成数学语言,且每题需要长达三天时间去解决而不是人类选手的 4.5 小时。OpenAI 研究员 Alexander Wei 上周六宣布该公司的一个实验模型拿到 IMO 比赛的金牌成绩。但此举违反了 IMO 主办方要求到 7 月 28 日再公布成绩的规定,在数学社区引发了争议,也促使 DeepMind 提前公布了该公司先进模型的成绩——解决了 6 题中的 5 题获得金牌,且不再需要翻译而是使用自然语言。