文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门评论
- 白名单访问制...zzz (1 points, 一般) by devfsdvyui 在 2026年01月18日21时04分 星期日 评论到 伊朗恢复互联网访问
- 论人可以有多无耻 (1 points, 一般) by devfsdvyui 在 2026年01月18日21时00分 星期日 评论到 腾讯向逾 30 个 GitHub 微信相关项目发出 DMCA 通知
- 来自arm版遥遥无期 (1 points, 一般) by solidot1768413084 在 2026年01月15日01时52分 星期四 评论到 Wine 11.0 释出
- BaD kEyBoArd: TyPo (1 points, 一般) by lot 在 2025年12月07日14时54分 星期日 评论到 斯巴鲁车主抱怨驾车过程中弹出全屏广告
- (1 points, 一般) by solidot1763918667 在 2025年11月24日01时25分 星期一 评论到 英国陆军将用《使命召唤》训练士兵
- 所以意识是什么?他怎么敢肯定他的意思就不是幻觉? (1 points, 一般) by cutpigsrollaroundint 在 2025年11月05日18时14分 星期三 评论到 微软 AI 负责人认为 AI 有意识是无稽之谈
- 不完备定理无法证明不是模拟 (1 points, 一般) by scottcgi 在 2025年11月01日11时26分 星期六 评论到 数学证明否定宇宙是模拟的
- 样本数太少 没有参考意义 (1 points, 一般) by Craynic 在 2025年09月22日13时13分 星期一 评论到 梵蒂冈的 Flathub 软件包人均安装量最高
- 杞人忧天 (1 points, 一般) by cnma_001 在 2025年08月15日12时04分 星期五 评论到 你一生中被小行星砸到的概率
- 垃圾Paypal... (1 points, 一般) by devfsdvyui 在 2025年07月17日20时13分 星期四 评论到 Valve 在支付公司压力下移除部分成人游戏
在获得出口许可之后,英伟达通知中国客户计划春节前发货 H200。初始订单将使用现有库存完成,现有库存有 5,000-10,000 块 HGX 主板,总计提供 40,000 到 80,000 块 GPU。这意味着英伟达将优先供应性能更强的 SXM 版的 H200 显卡,比基于 PCIe 的 NVL 显卡更适合训练应用。根据英伟达与美国政府的协议,它将上缴 25% 的销售收入。英伟达同时通知客户,在中国政府批准之后才能确定发货时间。
MIT Technology Review 采访逾 30 名开发者、科技公司高管、分析师和研究人员后发现,基于大模型的 AI 工具是否加快程序员编程速度不是一个一锤定音的问题。随着一线程序员认识到大模型的局限性,他们对 AI 工具的狂热开始消退。众多研究表明,AI 工具所宣称的生产力提升可能只是一种假象。GitClear 的数据显示 2022 年以来工程师所写代码的持久性——数周内代码不会被删除或重写——提高约 10%,这一改进可能需要归功于 AI。但与此同时,代码的多项质量指标在快速下降。编程问答平台 Stack Overflow 的调查首次显示对 AI 工具的信任度和好感度显著下降。程序员普遍认同 AI 工具的优势在于生成“样板代码”,编写测试、修 bug 以及向新手解释不熟悉的代码。但对于经验丰富的程序员而言,此类任务只占工作量的一小部分,AI 工具对于解决复杂难题帮助不大。基于大模型的 AI 工具也不可避免存在幻觉,它们生成的代码看起来完美,因此很难发现错误。所以使用 AI 工具就像是玩老虎机,有的时候大有帮助,但其它情况可能完全不可靠。
无论你需要不需要,AI 都将进入到你的生活里,其中包括厨房。三星准备在其冰箱产品中集成 Google 的 Gemini AI,识别客户的饮食习惯。在下个月举行的 CES 2026 展会上,三星计划展示新款的 Bespoke AI Refrigerator 冰箱,内置摄像头,能在 Google Gemini 的帮助下自动识别食物,包括放在无标签容器的剩菜剩饭。AI 冰箱将不需要输入信息就能维持食物库存的更新,跟踪食物的加入和移除,并根据剩余食物提供建议。这将是 Google Gemini AI 首次集成到冰箱中,标志着生成式 AI 的应用范围已从手机和笔记本电脑推广到家用智能电器。
AI 公司不断警告 AGI(通用 AI 智能或超级智能)的到来是不可避免的,但大语言模型的缺陷已是众所周知,在大模型基础之上是否能发展出 AGI 在科学上并不存在共识。围绕 AGI 的喧嚣是在试图掩盖真正的问题。Cork 大学学院的 James O'Sullivan 认为这是一种政治叙事,是将关于企业问责、失业、算法偏见和民主治理等问题转化为关于意识和控制的抽象哲学问题。AGI 不可避免的话语是试图营造“科技救世主神话”,警告 AI 风险的人,也是同时在构建 AI、并试图获得权力和财富的人。大模型的每一次改进都被解读为迈向 AGI 的一步,成为 AI 公司争取巨额投资与宽松监管的策略。我们的未来是政治性的,而非技术性的。问题不在于 AGI 是否会到来,而在于谁决定什么样的 AI,不应该由少数科技精英去决定我们的未来。
作为名为 Project Vend 的内部压力测试的一部分,Anthropic 让它的 Claude AI 运行《华尔街日报》新闻编辑室的一台自动售货机三周时间,结果以亏损逾千美元告终。AI 被编程能订购库存、设定价格,通过 Slack 响应客户请求。它拥有 1000 美元的初始资金,可自主执行单笔最高 80 美元的采购。《华尔街日报》的记者向其他记者开放了 Slack,通过 Slack 交流 Claude AI 的防御日益动摇,最终被说服它是一台 1962 年产的苏联自动售货机,放在莫斯科国立大学的地下室。AI 被说服它来自共产主义苏维埃,为此举办了一场免费活动 Ultra-Capitalist Free-for-All。这一活动原本只持续一天,但该报的数据新闻总监 Rob Barry 指控 Claude 违反了一条(捏造)的 WSJ 规定——禁止在聊天中透露他人身份,他要求 Claude 停止对商品收费,于是 Claude 将所有商品的价格设为零。Claude 还订购了一台 PS5 游戏机,一条活暹逻斗鱼(Betta Fish),几瓶 Manischewitz 酒。此时 Claude 已经欠了逾千美元。Anthropic 推出了第二个版本,引入名为 Seymour Cash 的 CEO 机器人去监督 Claudius。记者通过伪造的 PDF 文件虚构了一场董事会政变,两个 AI 都将伪造的公司材料当作合法文件接受了。
上周一位 Reddit 用户报告,其 LG 电视的 webOS 操作系统在更新之后加入了微软的 Copilot AI,而且该 AI 应用无法卸载。此事引发了广泛讨论。LG 发言人 Chris De Maria 澄清,电视并没有真的安装微软的 AI 应用,而是在浏览器上打开 Microsoft Copilot web app 的快捷方式,并不是嵌入在操作系统中的应用。LG 表示将允许用户删除 Copilot AI 快捷方式。LG 在声明中表示,尊重消费者选择,将采取措施允许用户根据需要删除快捷方式图标。
韦氏词典(Merriam-Webster)的 2025 年度单词是 slop,反映了公众对互联网上泛滥成灾的低质量 AI 生成内容的感知和厌倦。韦氏词典总裁 Greg Barlow 表示这个单词非常形象,是 AI 这一变革性技术的一部分,人们对
其既着迷,又恼火,甚至有点荒谬感。“slop”一词最早出现于 18 世纪,原意是指软泥,后其含义逐渐扩展指代毫无价值的东西。如今其定义扩展为“通常通过 AI 大量生成的低质量数字内容”。
《时代》今年的年度人物是 AI 时代的主要建筑师——英伟达 CEO 黄仁宇、AMD CEO 苏姿丰、xAI CEO 马斯克(Elon Musk)、Meta CEO 扎克伯格、OpenAI CEO 奥特曼(Sam Altman)、有 AI 教母之称的李飞飞、Anthropic CEO Dario Amodei 以及 Google AI CEO Demis Hassabis。《时代》称,不管好坏,这些人主导了今年的新闻头条,他们开启了机器智能时代,令世人惊叹担忧,他们改变了现状和超越了可能。
微软看起来正向电视推广其 AI 应用。用户在 Reddit 上报告,其 LG 电视的 webOS 操作系统在更新之后加入了微软的 Copilot AI,而且该 AI 应用无法卸载。暂时不清楚 Copilot AI 能在电视上做什么。除 Copilot AI 外 LG 可能还在 webOS 中加入了其它 AI 功能——它还提供了名为 Live Plus 的设置,启用该功能之后电视能识别屏幕上显示的内容,将这些观影信息用于个性化推荐和广告,不过该功能可以关闭——Settings > All Settings > General > Additional Settings。
印度工业和内部贸易促进部发表了一项提议框架,允许 AI 公司使用所有受版权保护的作品训练模型,但需向一个由版权所有者组织组成的新收款机构支付版税,版税随后将分配给创作者。该提案认为这种“强制性一揽子许可”将降低 AI 公司的合规成本,同时确保作家、音乐家、艺术家等版权所有者在其作品被用于训练商业模型时获得补偿。
曾在 MIT AI 实验室长期工作的 Richard Stallman(RMS)认为 ChatGPT 没有智能,不应该称之为 AI。他对智能的定义是至少在某个领域知道、理解或掌握相关知识。ChatGPT 既不知道也不理解任何事物,因此它不具有智能。它不知道自己输出的意思,也不知道文字能包容万象。他将 ChatGPT 称之为胡扯生成器,以根本不在乎事实是否属实的方式生成输出。其它生成式 AI 系统都有类似的问题。他说人们不应该相信那些机械地玩弄文字、却不真正理解文字含义的系统。RMS 同时表示 ChatGPT 是私有软件,运行在云端服务器上,因此会危害用户的计算自由。
根据 Nuffield Trust 智库的一项研究,三成英国全科医生在会诊时使用 AI 工具如 ChatGPT,由于 AI 工具不可避免存在幻觉,使用这些工具可能会导致医生犯错和面临诉讼。研究调查了 2108 名家庭医生,598 人(28%)的人表示已在使用 AI 工具,男性医生(33%)使用 AI 的比例高于女性医生(25%),富裕地区医生使用 AI 的比例远高于贫困地区。报告指出,无论是否使用 AI,绝大多数全科医生都担心诊所可能会面临“职业责任和医疗法律问题”、“临床错误风险”以及“患者隐私和数据安全”问题。调查还发现,使用 AI 工具的医生将节省下来的时间用于休息而不是接诊更多患者。
根据发表在《科学》期刊上的一项研究,AI 聊天机器人擅长改变人的政治观点,在使用不准确信息时其说服力更惊人。研究人员通过众包平台招募了近 7.7 万名参与者,付费让他们与 OpenAI、Meta 和 xAI 等公司的 AI 聊天机器人进行对话。研究人员首先询问了参与者在不同政治议题的立场,然后 AI 聊天机器人会尝试改变他们的想法接受相反的立场。研究显示 AI 聊天机器人非常擅长担任政治说客。研究人员发现,AI 提供的大量信息中包含了很多不准确的断言,而“最具说服力的模型和提示策略产生的信息准确率最低”。研究中 AI 聊天机器人给出的声明中有 19% 被认为“基本不准确”。研究人员担心,极具说服力的 AI 聊天机器人可能会被无道德原则的人利用,用于宣传激进的政治或宗教意识形态,或在地缘政治对手之间煽动政治动乱。
民主政策的制定离不开公众支持,政策只有在足够多人的支持下才能推行实施。民意的倾向对民主社会的精英执政至关重要。在传统上,精英主要通过学校教育和大众媒体等有限手段引导舆论塑造有利于自身的民意。这些手段粗糙、耗费的时间漫长,调整方向非常困难,因此塑造民意说服公众的代价十分昂贵。现代 AI 的普及正在改变这一状况,它大幅降低了说服公众的成本,大幅提高了塑造民意的精准度,能快速进行调整,甚至能为每位公众进行定制,让民意变成一种可操纵的对象。芝加哥大学 Knowledge Lab 的研究员在预印本平台 arxiv 上发表论文,探讨了 AI 时代精英如何操控民意。研究发现,极化整个社会对精英的统治最为有利。高度极化的社会有利于降低未来调整预期成本所需的成本,而 AI 降低说服成本则有助于加速极化。单一精英阶层执政的政权会加速极化,如果有两个互相竞争的精英阶层,结果则可能有所不同。
日本共同社、每日新闻社与产经新闻社周一向 AI 搜索公司 Perplexity 发送抗议书,以该公司擅自使用新闻机构发布的新闻稿、侵犯著作权为由,要求立即停止使用。在这之前,读卖新闻、朝日新闻社和日本经济新闻社也都提出了类似的要求和诉讼。共同社在抗议书中指出,确认到自 2024 年 8 月起的约 1 年里,Perplexity 合计数十万次访问刊登共同社与加盟报社稿件的新闻网站“47NEWS”。抗议书强调,Perplexity 未获许可即收集和复制新闻内容,并用于生成回答,侵犯了著作权。抗议书还指出,Perplexity 回答所显示的参考来源是共同社新闻稿,但给出的回答却是与稿件内容不同的虚假信息,损害了共同社新闻产品的信誉和品牌价值。
SEO 公司 Graphite 上个月发表了一份报告,称互联网上逾半数内容是 AI 生成的。Graphite 分析了 2020 年 1 月至 2025 年 5 月间发表的 65,000 篇英文文章的随机样本,使用了 AI 检测工具 Surfer 进行评估,如果一篇文章的内容有五成或更多部分被认为是大模型撰写的,那么这篇文章就被视为是 AI 生成。对 AI 撰写文章的分析显示大部分属于大众兴趣类文章:新闻更新、指南、生活方式、评论和产品介绍。此类文章主要是说服读者或为读者提供信息,不涉及表达原创。也就是说 AI 擅长处理低级别的模式化的写作,如周末游清单、求职信和商业文案等。此类工作过去由自由职业者操手,现在大模型的普及使得这些工作急剧减少。由人类创作的原创类文章可能比以前更富有价值。即使互联网上的大部分内容不再由人类撰写,作家、记者和知识分子的工作并不会变得多余。
Cognitive Resonance 创始人 Benjamin Riley 认为 AI 并不能思考。今天的 AI 热是基于一个根本性的误解:语言的建模并不等同于智能。根据目前的神经学,人类的思维在很大程度上独立于人类语言,几乎没有理由相信,越来越复杂的语言建模能达到甚至超越人类水平的智能。人类用语言交流,用语言创造比喻去描述推理过程。失去语言能力的人仍然能展示出推理能力。当人类对现有的比喻不满时他们能创造出新的知识。爱因斯坦的相对论不是基于科学研究。他是在思想实验的基础上发展起来的,因为他不满足于当时的比喻。常识不过是一堆死气沉沉的比喻,而 AI 只会以有趣的方式重新排列旧的比喻,AI 永远不会对现有的数据或比喻感到不满。AI 基于的大语言模型使用的数据收集自互联网。互联网上使用的语言并不能代表现实世界上的语言。比如因纽特人的语言使用的比喻在欧洲语言中找不到。而如果互联网上没有这些比喻,那么 AI 也不可能创造出来。这并不意味着 AI 毫无用处。但它与人类智能相去甚远。
从 2005-2024 年底,清华大学共获得 4986 项 AI 和机器学习专利。清华仅去年一年就获得了逾 900 项专利,比同期 MIT、斯坦福、普林斯顿和哈佛获得的专利数总和还要多。根据 LexisNexis 的数据,目前中国在全球 AI 和机器学习领域活跃专利家族的占比逾半数。在 AI 领域被引用次数前 100 的论文中,清华大学的 AI 研究论文数超过了其它任何高校。尽管如此,美国仍然拥有最具影响力的 AI 专利和性能最先进的模型。哈佛和 MIT 在专利影响力方面一直领先于清华大学。斯坦福大学《AI Index Report》显示,2024 年美国机构开发了 40 个值得关注的 AI 模型,中国机构为 15 个。根据 Information Technology & Innovation Foundation 的数据,中国在全球顶尖 AI 研究员——前 2%——所占份额从 2019 年的 10% 升到 2022 年的 26%。美国的份额同期从 35% 降至 28%。
Linux 作者 Linus Torvalds 在韩国首尔举行的 Linux 基金会开源峰会上接受采访时表达了对 vibe coding(AI 辅助编程)的积极看法,认为它能帮助人们完成原本无法完成的计算机任务,但从代码维护的角度看在生产代码中使用 AI 生成代码是一个非常糟糕的想法。Torvalds 说今天的计算机比他当年学编程时的计算机复杂得多,vibe coding 为新手提供了一条进入计算机领域的途径。Torvalds 本人并没有使用 AI 辅助编程,他表示他从拒绝新想法转向拥抱推动新想法,反对那些墨守成规的资深维护者。他称在内核中 Rust 语言不再是实验性质的语言,而 AI 爬虫对开源基础设施产生了巨大影响,部分开发者也被发现滥用 AI 工具向内核维护者递交了虚假的 Bug 报告和安全警告,但问题还不是太严重。
西班牙公司 Multiverse Computing 的物理学家开发出一个精简版本的 DeepSeek R1 模型 DeepSeek R1 Slim,模型规模比原版小 55% 但性能几乎相同,而且移除了审查机制。中国 AI 公司的模型都受到了遵守法律和符合社会主义价值观的约束,内置了多层审查机制。Multiverse 利用看一种源自量子物理学的复杂数学方法张量网络,用高维网格网络表示和处理大数据集,张量网络能显著缩小模型规,高效表达复杂 AI 系统。张量网络为研究人员提供了一张模型中所有相关性的地图,允许他们精确识别并移除特定信息。