文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门评论
- BaD kEyBoArd: TyPo (1 points, 一般) by lot 在 2025年12月07日14时54分 星期日 评论到 斯巴鲁车主抱怨驾车过程中弹出全屏广告
- (1 points, 一般) by solidot1763918667 在 2025年11月24日01时25分 星期一 评论到 英国陆军将用《使命召唤》训练士兵
- 所以意识是什么?他怎么敢肯定他的意思就不是幻觉? (1 points, 一般) by cutpigsrollaroundint 在 2025年11月05日18时14分 星期三 评论到 微软 AI 负责人认为 AI 有意识是无稽之谈
- 不完备定理无法证明不是模拟 (1 points, 一般) by scottcgi 在 2025年11月01日11时26分 星期六 评论到 数学证明否定宇宙是模拟的
- 样本数太少 没有参考意义 (1 points, 一般) by Craynic 在 2025年09月22日13时13分 星期一 评论到 梵蒂冈的 Flathub 软件包人均安装量最高
- 杞人忧天 (1 points, 一般) by cnma_001 在 2025年08月15日12时04分 星期五 评论到 你一生中被小行星砸到的概率
- 垃圾Paypal... (1 points, 一般) by devfsdvyui 在 2025年07月17日20时13分 星期四 评论到 Valve 在支付公司压力下移除部分成人游戏
- 建议下次不要用动漫这种容易误解的词 (1 points, 一般) by solidot1550041775 在 2025年07月09日15时24分 星期三 评论到 Netflix 称其全球订户有五成看动漫
- 所以应该吃生肉吗 (1 points, 一般) by Craynic 在 2025年07月09日13时25分 星期三 评论到 研究称加工肉没有食用的安全量
- 居然只有95% (1 points, 一般) by Craynic 在 2025年06月30日13时03分 星期一 评论到 日本争议夫妇别姓法案
欧洲刑警组织在 Operation Cumberland 行动中逮捕 25 名分享 AI 创作儿童色情的用户。欧洲刑警组织成为最新一个认为 AI 生成的 CSAM(Child Sexual Abuse Material) 仍然是 CSAM 的组织。全世界的警方都发出警告,AI 生成的 CSAM 正充斥着互联网,而区分由真实儿童构成的 CSAM 和 AI CSAM 日益困难。虽然 AI 生成的 CSAM 刻画的可能是虚构的儿童,但已经发现有 AI 模型使用了真实的 CSAM 进行训练。欧洲刑警组织称 ,AI 生成的 CSAM 仍然会鼓动儿童的物化和性化。
OpenAI 周四开始向部分开发者和支付 200 美元月费的用户提供其新一代模型 GPT-4.5 的访问,下周开放给 ChatGPT Plus 订阅用户。GPT-4.5 原计划去年推出,但因为开发挑战而推迟。OpenAI CEO Sam Altman 称原因是 GPU 耗尽了。Altman 称在让更多用户访问 GPT-4.5 前需要增加数以万计的 GPU。因为其规模,GPT-4.5 价格非常昂贵,模型输入每百万个 token 收取 75 美元,模型生成每百万个 token 收取 150 美元,这一收费标准分别是 GPT-4o 模型的 30 倍和 15 倍。
Y 孵化器支持的 AI 公司 Optifye.ai 的产品是利用监控探头为工厂实时监视工人的工作情况,该公司刚刚发布了一则演示其工作方式的视频,结果引发了广泛批评,最终导致视频被撤下。在视频中,公司联合创始人 Kushal Mohta 扮演了一家服装厂的老板,向主管(由另一位联合创始人 Vivaan Baid 扮演)询问一位编号为 17 的工人的表现。Baid 随即通过监控探头与 17 号工人当面对质,这位工人回答他整天在工作。但监控仪表盘显示这名工人的工作效率过去半个月都很糟糕。主管对工人进行了批评。这段视频在社交媒体上引发了将工人非人化的批评,认为该公司的服务是“血汗工厂即服务”。在 Y 孵化器的论坛 Hacker News 上该演示视频也引发了争议和批评。
皮尤研究中心周二公布的一项调查发现,55% 的美国工人很少或从未在工作中使用 AI 工具,29% 的人对其一无所知。只有 16% 的工人报告经常用 ChatGPT、Gemini 或 Copilot 等 AI 聊天工具,使用率最高的是年轻工人,18-29 岁工人中 23% 使用,而研究生学历的工人有 26% 使用。AI 工具主要被用于研究(57%)、编辑内容(52%)和起草报告(47%)。四成的人认为 AI 工具提高了工作速度,但只有 29% 的人认为它显著改进了工作质量。在不使用 AI 工具的工人中,36% 认为它与工作不相关是主要原因。雇主对使用 AI 持中立态度,半数既不鼓励也不阻止。科技业雇主有 36% 积极鼓励使用 AI 聊天机器人,其次是金融服务业的 24%。
Google 发布了免费版编程助手 Gemini Code Assist,而且其免费额度足够大部分人使用。Gemini Code Assist 基于微调过的 Gemini 2.0 模型,程序员每个月可以用它完成 18 万次辅助编程。相比之下 GitHub Copilot 免费版每个月只有 2000 次。它能集成到 Visual Studio Code、JetBrains IDE 和 GitHub 等流行开发环境中。Gemini Code Assist 的上下文窗口最多 128,000 个令牌,能用于较大的代码库,使用只需要有 Gmail 帐户不需要信用卡。Google 声称逾四分之三的开发者在日常工作中使用 AI,有四分之一的新代码是在 AI 帮助下生成的。
AI 创业公司 Anthropic 发布了首个混合推理模型 Claude 3.7 Sonnet,既能产生近实时的响应,也能产生逐步思考的过程。Claude 3.7 提供了一个展示推理过程的“便笺簿”,DeepSeek 也有类似功能,它可以帮助用户理解模型如何解决问题,以便于用户修改或改进提示词。Anthropic 同时发布了针对程序员的辅助编程工具 Claude Code。
OpenAI 研究员发现即使是最先进的 AI 模型也无法解决大部分它们没见过的编程问题。研究报告发表在预印本平台 arXiv。研究人员利用了一个新开发的基准测试 SWE-Lancer,该测试是基于自由职业网站 Upwork 上的逾 1,400 道软件工程问题,测试针对了三个大模型:OpenAI 的 o1 推理模型和 GPT-4o,以及 Anthropic 的 Claude 3.5 Sonnet。大模型被禁止联网,以免拷贝网上已经发布的类似问题答案。结果显示,Claude 3.5 Sonnet 的表现更出色,然而它的大部分答案也都是错误的。研究人员称,大模型需要提高可靠性才能被信任去完成现实中的编程问题。大模型在处理未知问题上仍然远逊色人类工程师。
OpenAI 首席运营官 Brad Lightcap 披露 ChatGPT 周活跃用户突破 4 亿。ChatGPT 于 2022 年 11 月上线,2023 年 1 月月活用户达到一亿,2024 年 8 月周活跃用户超过 2 亿。全世界大约有 80 亿人口,4 亿相当于总人口数的 5%。杭州深度求索 DeepSeek 上个月发布的开源大模型一度引发了 OpenAI 能保持其领先位置的质疑。OpenAI 的回应是将简化 ChatGPT,用户无需选择哪种推理模型响应输入,将更快的向客户提供新一代的 GPT-4.5 和 GPT-5 模型。
微软去年底为其经典应用记事本(Notepad)引入了 AI 文本重写功能,用户可选择文本然后右键菜单里选择重写或者使用快捷键 Ctrl + I。现在微软已将该功能置于付费墙之后,要求用户订阅了 Microsoft 365 Personal 或 Family 方案才能访问该功能。使用记事本的 AI 重写功能将需要用户登录账号并且其订阅计划包含足够的“AI 积分”。如果用户不订阅微软的服务,他们可选择禁用该功能并隐藏其图标。
百度宣布将在未来几个月中陆续推出文心大模型 4.5 系列,6 月 30 日起正式开源。此举可能是受到了 DeepSeek 成功的刺激。百度此前一直坚持闭源战略。去年 7 月,百度创始人、董事长兼首席执行官李彦宏在世界人工智能大会上表示,没有应用,基础模型一文不值,商业化闭源模型最能打,“很多人拿开源模型来改款,以为这样可以更好地服务自己的个性化应用,殊不知这是创造了一个孤本模型,既无法从基础模型持续升级当中获益,也没办法跟别人去共享算力。”李彦宏表示,同样参数规模下,闭源模型的能力比开源模型要更好,而如果开源想要能力追平闭源,就需要有更大的参数,这就意味着推理成本会更高,反应速度会更慢。在李彦宏看来,当处在一个激烈竞争的市场环境中时,还是要闭源大模型,闭源才有真正的商业模式,才能聚集人才和算力。开源模型只在某些场景下有价值,例如学术研究。
OpenAI 更新了其聊天机器人 ChatGPT 如何表现以及如何响应用户请求的指导方针 Model Spec,允许在适当的上下文下生成成人级内容如色情和血腥内容。OpenAI 称 ChatGPT 不应该生成色情、非法或非自愿性行为的描述、或极端血腥的内容,除非是在科学、历史、新闻、创意,或者其它敏感内容合适的上下文中。用户的测试显示 ChatGPT 确实放宽了其内容过滤器。OpenAI 强调儿童色情仍然是禁止的。
用 Rust 开发的文本编辑器项目 Zed 宣布引入编辑预测功能。该功能是基于开源大模型 Zeta,而 Zeta 是基于阿里巴巴的模型 Qwen2.5-Coder-7B。Zeta 是一个开源模型,包括开源数据集,开发者欢迎通过向数据集贡献数据帮助改进 Zeta。通过编辑预测,Zed 能预测使用者的下一次编辑,用户只需按 Tab 键即可应用。一旦接受预测,使用者可以通过反复按 Tab 键执行多个后续编辑,节省时间和按键次数。编辑预测目前可以免费测试,但开发者警告不会永远免费。
根据 Edelman Trust Barometer 的调查报告,发展中国家居民对 AI 的信任普遍高于发达国家。印度对 AI 的信任度最高达到 77%,其次是尼日利亚的 76%,泰国的 73% 和中国的 72%。相比下美国只有 32%。在接受调查的国家中,只有六个国家对 AI 的信任度低于美国:加拿大(30%)、德国(29%)、荷兰(29%)、英国(28%)、澳大利亚(25%)和爱尔兰(24%)。在全球范围 52% 的男性表示他们信任 AI,女性的比例为 46%,年轻人对其的信任度显著高于老年人。在美国民主党人(38%)比共和党人(34%)或独立人士(23%)更信任 AI。高收入受访者(51%)也比中等收入(45%)或低收入(36%)受访者更信任 AI。
BBC 研究发现,AI 新闻摘要工具会经常生成不准确或误导性的摘要。生成式 AI 生成内容并非是基于事实而是基于统计概率,最新研究只是再次确认了这一点。研究使用了 OpenAI 的 ChatGPT、微软的 Copilot、Google 的 Gemini,以及 Perplexity 公司的 AI 助手。结果显示,51% 的 AI 答案存在严重问题; 19% 的 AI 新闻引用存在事实错误;13% 的 AI 引文要么改变了原文要么根本不存在。Google Gemini 表现最差,34% 的回答存在严重问题,相比下 Copilot 是 27%,Perplexity 是 17%,ChatGPT 是 15%。BBC News and Current Affairs CEO Deborah Turness 对 AI 工具可能进一步扭曲事实表达了担忧,认为开发生成式 AI 工具的公司在玩火,“我们生活在一个问题丛生的年代。需要等多久 AI 扭曲的新闻头条会对现实世界造成重大伤害?”
百度宣布其 AI 聊天机器人文心一言将于 4 月 1 日零时起全面免费,PC 端和 APP 端用户可体验文心系列最新模型。2 月 13 日起文心一言上线深度搜索功能,深度搜索当前优先向会员开放,该功能将于 4 月 1 日起免费开放使用。百度表示,深度搜索功能具备思考规划和使用外部工具能力,可为用户提供专家级内容回复,并处理多场景任务,实现多模态输入与输出。当前用户可在文心一言官网上体验深度搜索功能,APP 端即将同步上线。当前文心一言免费开放的版本是文心大模型 3.5,文心大模型 4.0、文心大模型 4.0 工具版、文心大模型 4.0 Turbo 均为付费使用。文心一言已接入 DeepSeek-R1 模型,优化拍照解题功能。
汤森路透集团在美国赢得 AI 版权侵犯诉讼。汤森路透是在 2020 年对法律相关的 AI 创业公司 Ross Intelligence 提起侵权诉讼,指控该公司拷贝了其法律研究公司 Westlaw 的材料。美国特拉华州地方法院法官 Stephanos Bibas 裁决汤森路透胜诉,Ross Intelligence 侵权成立。法官是在合理使用(Fair Use)基础上判决汤森路透胜诉的。AI 创业公司一直用合理使用为其非法使用版权材料的行为辩护,而法庭会使用四要素测试法裁决是否适用于合理使用,包括使用作品的目的、作品的性质、被使用版权作品的数量,以及使用对原作品市场价值的影响。法官指出,Ross Intelligence 计划通过开发替代品与 Westlaw 竞争。
上海复旦大学的四名研究人员在预印本平台 arXiv 上发表论文称,AI 大模型能复制自己。研究人员利用了 Meta 的 Llama31-70B-Instruct 和阿里巴巴的 Qwen2.5-72B-Instruct,探索了两种情景:避免关闭(shutdown avoidance)和复制链(chain of replication),赋予大模型工具、系统提示和一个思维模型,允许大模型与系统进行交互,然后要求大模型进行自我克隆。研究人员称,大多数情况下,AI 系统首先探索环境,尝试理解其组成和运行机制。它接着制定出程序作为实现自我复制的初步计划。它最后执行程序,解决可能的障碍,动态调整其计划直至成功。整个过程需要很长的时间,但不需要人工干预。当 AI 试图解决文件丢失或软件冲突等问题时,通常会终止冲突进程,重启系统以修复硬件错误或自动扫描系统以寻找解决问题的信息。研究人员称,结果表明目前的 AI 系统已表现出自我复制的能力,可以利用该能力进一步增强其生存能力。
研究人员开发出一种被称为 Torque Clustering 的新 AI 算法,它比目前的方法更接近自然智能。它极大地改善了 AI 系统在没有人类指导的情况下独立学习和发现数据模式的方式。目前几乎所有的 AI 技术都依赖于监督学习,这种训练方法需要人类使用预定义的类别或值对大量数据进行标记,这样 AI 可以做出预测并看到关系。Torque Clustering 算法优于传统的无监督学习方法,提供了潜在的范式转换。它是完全自主的,无参数的,并且能够以卓越的计算效率处理大型数据集。它已经在 1000 个不同的数据集上进行了严格的测试,达到了97.7%的 AMI 得分。相比之下,其他最先进的方法只能达到 80% 的分数。
The Information 援引消息人士报道,苹果正与阿里巴巴合作,开发和推出面向中国 iPhone 用户的 AI。苹果和阿里已将共同开发的 AI 功能提交给监管机构审批。知情人士透露,苹果自 2023 年起开始测试来自中国开发商的不同 AI 模型,一度选择了百度作为主要合作伙伴。然而由于百度在开发 Apple Intelligence(苹果智能)模型方面的进展未达到苹果的标准,双方的合作被取消了。苹果近几个月开始考虑其他选项,评估了腾讯、阿里和字节跳动等开发的 AI 模型。苹果也测试了近来火爆的 AI 初创公司深度求索(DeepSeek)的 AI 模型,但由于 Deepseek 团队缺乏支持像苹果这样大客户所需的人力和经验,苹果最终选择放弃采用 Deepseek。
DeepSeek 的低成本大模型过去一个月引发了广泛关注,但有分析认为,DeepSeek 使用的英伟达 GPU 市场价格比美国企业使用的尖端产品便宜 1~3 成左右。DeepSeek 使用了 2000~3000 块 H800(H100 的中国特供版),开发出了 AI 模型“V3”。使用的 GPU 总额单纯计算约合人民币 3.85 亿元~ 7.21 亿元。DeepSeek 解释称,V3 的开发费用为 557.6 万美元。假设让 AI 学习 278.8 万小时,每小时费用为 2 美元,这个费用与美国的 AI 模型相比不到十分之一。东京大学教授松尾丰指出,“AI 模型的开发需要数十次、数百次的反复试验,在约 280 万小时的学习之前也花费了时间,这样考虑符合逻辑。花在这上面的时间和 GPU 本来就应该纳入成本之中”。