文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门评论
- 先能过了小米高考再说 (1 points, 一般) by ooxx 在 2025年01月06日15时43分 星期一 评论到 小米修改了引导程序解锁政策
- (1 points, 一般) by 18611782246 在 2024年12月18日18时06分 星期三 评论到 司机死于阿尔茨海默病的可能性较低
- BaD kEyBoArD: eXtRa SpAcE (1 points, 一般) by lot 在 2024年12月11日04时10分 星期三 评论到 高温环境可能加速衰老
- BaD kEyBoArD: tYpO (1 points, 一般) by lot 在 2024年12月11日04时09分 星期三 评论到 Goolge 宣布了新量子芯片 Willow
- 喵喵喵 (1 points, 一般) by solidot1733326472 在 2024年12月04日23时35分 星期三 评论到 澳大利亚面临太阳能供大于求
- 懂了 这就去安装刺客信条 (1 points, 一般) by Craynic 在 2024年11月27日19时36分 星期三 评论到 微软临时阻止安装刺客信条等育碧游戏的 PC 更新 Windows 11 24H2
- 为了逃避一年多兵役要坐一年牢 (1 points, 一般) by Craynic 在 2024年11月27日19时34分 星期三 评论到 韩国法院判处一名故意增肥以逃避兵役的男子缓刑
- 是否改进质量我不知道 (1 points, 一般) by Craynic 在 2024年11月25日20时43分 星期一 评论到 GitHub 称 Copilot 改进了代码质量
- Linus (1 points, 一般) by Craynic 在 2024年11月25日20时41分 星期一 评论到 Linux 6.13 将拒绝所有来自 bcachefs 作者的合并请求
- 2100年100% (1 points, 一般) by 18611782246 在 2024年11月21日16时30分 星期四 评论到 中国提高了半导体自给率
旧金山停车场的 Waymo 无人驾驶汽车被发现存在奇怪的 bug,它们彼此会反复的鸣笛,干扰了附近居民的睡眠和日常生活。鸣笛的现象是随机发生的,有多名居民为此投诉。当地居民 Randol White 表示在凌晨四点被汽车的鸣笛声惊醒,另一名居民 Russell Pofsky 表示,过去两周被惊醒的次数超过了过去二十年的总和。Waymo 发表声明承认汽车有故障,表示已经确定了原因正在进行修复。
国家工业信息安全发展研究中心等机构联合开发的 Linux 桌面发行版 openKylin 释出了 2.0 版本,该版本的一大重点是 AI。openKylin 2.0 使用了 Linux 6.6 LTS 内核,增加了对 NPU(神经网络处理器)的支持,“上线一系列实用 AI 功能,包括:麒麟AI助手、智能文生图、智能模糊搜索、智能剪切板、智能数据管理等,率先实现与 Intel 最新 14 代 Meteor Lake 平台 AI PC 的适配”,支持最新讯飞星火大模型 V4.0 版本。其它变化包括:开明软件包格式,软件商店上架了 100 款开明应用;基于 OStree 的不可变系统;wayland 合成器 wlcom;UKUI 4.10 桌面环境;等等。
OpenAI 联合创始人 John Schulman 宣布了离职,加盟竞争对手 Anthropic。Schulman 自 2016 年获得加州伯克利计算机科学博士之后一直在 OpenAI 工作。他在离职声明中表示希望继续深入研究 AI 对齐,而 OpenAI 在不到 3 个月前解散了其超级对齐(superalignment)团队。然而 Schulman 又强调离职不是因为 OpenAI 不支持 AI 对齐相关的工作,表示公司一直致力于相关研究的投资。超级对齐团队负责人 Jan Leike 和另一位联合创始人 Ilya Sutskever 也在早些时候离职,其中 Jan Leike 加盟了 Anthropic,而 Sutskever 联合创办了新公司 Safe Superintelligence Inc.。
今年初,马斯克(Elon Musk)向旧金山高等法院起诉 OpenAI 及联合创始人 Sam Altman 等人,称其为了利润而非人类的利益开发人工智能,此举违反了合同。OpenAI 随后公开了马斯克的邮件,证明作为曾经的联合创始人,马斯克同意 OpenAI 建立一个盈利实体,还表示将提供资金,但之后暂停了资金支持,他的目的是获得多数股权和董事会控制权,双方最终因此终止了合作。七周前马斯克撤回了诉讼。现在马斯克向加州联邦法院重启诉讼,再次指控 OpenAI 联合创始人 Sam Altman 和 Greg Brockman 违反公司的创始原则,将商业利益置于公共利益之上。起诉书声称,这是莎士比亚式的...背信弃义和欺骗。
逾 6.5 万名开发者参加了编程问答社区 Stack Overflow 的年度调查,首次调查了 AI 是否会影响到程序员工作。结果显示,只有 12% 的开发者认为 AI 威胁到了其当前的工作,70% 的人将 AI 工具作为其工作流程的一部分,使用 AI 的开发者表示它最大的好处是提高生产力,其次是有助于快速学习新技能。使用 AI 工具的开发者比例从 2023 年的 44% 提高到了 2024 年的 62%。71% 从业经验不足 5 年的程序员在开发中使用了 AI,从业经验 20 年的程序员中这一比例为 49%。最流行的 AI 工具是 ChatGPT(82%),两倍于 GitHub Copilot,使用 ChatGPT 的开发者有 74% 希望继续使用。但对于 AI 工具的准确性只有 43% 的人表示了信任,45% 的人认为 AI 工具难以处理复杂任务。调查还发现,程序员的失业率有所上升,但整体上仍然只有 4.4%;他们的薪水中位数则有了显著下降,2024 年全栈开发者的均薪比 2023 年下降了 11% 至 63,333 美元。调查还发现,38% 的开发者是全职远程工作,只有 20% 恢复纯办公室工作模式,其他人则是混合办公模式。最流行的 IDE 仍然是 VS Code 和 Visual Studio,最常用的语言仍然是 Javascript,最希望使用的语言是 Python,最想再次尝试的语言是 Rust。
阿根廷安全部宣布了使用 AI 预测未来犯罪的计划,此举被批评可能危及公民权利。阿根廷极右翼总统 Javier Milei 本周成立了一个新部门 Artificial Intelligence Applied to Security Unit,将使用机器学习算法分析历史犯罪数据以预测未来犯罪。该部门预计还将部署面部识别软件识别通缉犯,巡视社交媒体,分析实时监控探头以发现可疑活动。虽然安全部表示新部门将有助于“发现潜在威胁、识别犯罪集团动向或预测骚乱”,但类似《少数派报告》的方法仍然给人们敲响了警钟。专家担心特定社会群体可能会受到该技术的过度审查,以及对谁能访问这些信息表达了担忧。国际特赦组织警告说,大规模监控影响言论自由,鼓励自我审查,危及人权。
AI 创业公司 Stability AI 推出了从单幅图像快速生成 3D 模型的 Stable Fast 3D。Stable Fast 3D 的模型代码已发布在 GitHub 上,模型权重和演示发布在 Hugging Face 上,它采用的 Stability AI Community License 许可证允许年收入低于百万美元的个人或机构商业性和非商业性使用。Stability AI 称它的新模型只要 0.5 秒就能完成 3D 模型的生成,可用于快速制作原型,满足游戏、虚拟现实以及零售、建筑和设计领域的企业和独立开发者的需求。
微软披露,在截至 6 月的季度它的现金资本支出和设备支出高达 190 亿美元,相当于 5 年前的全年支出。这笔支出大部分和 AI 有关,其中半数被用于建造和租赁数据中心。Google 的情况类似,它在上半年大幅增加了 AI 基础设施的支出,预计年底将花费高达 490 亿美元。但在 AI 上的投资至少在短期内是无法回本的,微软首席财务官 Amy Hood 表示,该公司预测这些投资可能需要 15 年或更长时间才能货币化。这一言论令分析师们感到担忧。高盛资深分析师 Jim Covello 上个月指出,AI 远未达到实用的水平。虽然科技巨头们坚称 AI 是一项长期投资,但华尔街的分析师们对亏损日益谨慎。OpenAI 被认为如果没有巨额资金注入会在未来 12 个月内耗尽现金。
华盛顿州立大学的一项研究发现,在产品描述中使用术语 AI 会降低消费者的购买意愿。研究人员调查了逾千名美国成年人,发现在产品描述中提及 AI 会削弱情感信任,降低购买意愿。例如,参与者查看了与智能电视相关的描述,一组的描述中有 AI,另一组没有,结果看到产品描述含有 AI 的一组人表示他们不太可能购买这款电视机。对于高风险的产品和服务如医疗设备和金融服务,术语 AI 会激起更加强烈的负面反应。
艾伦是微软的一名年轻工程师,从事云计算相关工作,过着舒适的生活,收入是北京平均收入的六倍,可以经常外出就餐,随时打车。但现在微软要求艾伦考虑在太平洋彼岸开始新生活,数百名从事 AI 和云计算工作的微软中国员工被要求考虑搬迁到加拿大、澳大利亚或华盛顿雷德蒙德微软总部等地工作,艾伦的迁移地点是温哥华。他认为温哥华的生活肯定不会像北京那么舒服。接收匿名采访的员工表示,美国总部最受青睐,而加拿大则不受欢迎,因为当地薪水较低。一位拒绝迁往温哥华的北京员工表示,如果扣除掉税,除西雅图外,其它所有地方的工资都可能比北京低。生活质量会受到影响。微软告诉员工,它没有解雇拒绝调动的员工的计划。员工还表示,他们担心持工作签证的生活是不稳定的,尤其是如果特朗普再次当选总统,他可能会出台更多反移民政策。艾伦在再三考虑之后接受了去温哥华的调动。
欧洲数据保护监管机构正“寻求澄清”马斯克(Elon Musk)旗下 X 公司允许用户数据自动输入其人工智能初创企业 xAI 的决定,给这个社交媒体平台带来了新的监管审查。上周五 X 用户发现他们被“选择加入”了将他们在该网站上的帖子以及与其 Gro k聊天机器人的互动用于“训练和优化”xAI 系统的行为。此举未事先获得用户明确同意,且相关设置只能在桌面版本上修改,用户目前无法通过移动 APP 选择退出数据共享。爱尔兰数据保护委员会表示“寻求 X 对此进行澄清”。隐私专家认为 X 此举违反了欧盟的 GDPR(General Data Protection Regulation)规定,该规定要求收集或使用个人数据的公司首先征得个人同意并披露原因。如果爱尔兰监管机构启动 GDPR 调查,X 可能会面临处罚。
OpenAI 演示了它的搜索工具原型 SearchGPT,但演示结果很快被发现存在错误。在其中一个演示中,OpenAI 模拟用户向 SearchGPT 询问八月份在北卡 Boone 举行的音乐节,SearchGPT 返回的结果中第一个是 An Appalachian Summer Festival,声称举办时间是 7 月 29 日到 8 月 16 日。如果真的有人去订音乐节的票,他们会发现该音乐节实际上始于 6 月 29 日,结束于 7 月 27 日。7 月 29 日到 8 月 16 日是音乐节票房关闭的日期。
Google DeepMind 新 AI 系统 AlphaProof 和 AlphaGeometry 2 能在 2024 年国际数学奥林匹克(IMO)竞赛获得银牌,解决了六道题中的四道,获得了 28/42 分,标志着 AI 在数学推理方面取得重大突破。IMO 是历史最悠久、规模最大、最负盛名的青年数学家竞赛,自 1959 年以来每年举办一次。选手要解决代数、组合学、几何和数论方面六个异常困难的问题。DeepMind 表示,IMO 的数学问题被人工翻译成数学语言,供系统理解。在正式比赛中,学生们分两次提交答案,每次 4.5 小时。而 AI 系统在几分钟内解决了一个问题,花了三天时间解决其他问题。基于强化学习的推理系统 AlphaProof 解决了两个代数问题和一个数论问题并被证明答案正确,这些问题包括今年 IMO 比赛中只有 5 名选手解决的最难的问题。AlphaGeometry 2 证明了几何问题,但两个组合问题仍未解决。
OpenAI 推出了直接挑战 Google 的搜索工具 SearchGPT。作为一种实验性产品,SearchGPT 没有开放使用,而是从周四开始开放给加入等候名单的 1 万名用户进行测试。它不同于 ChatGPT 生成一个答案,而是类似搜索引擎提供了一系列链接,允许用户点击进入外部网站。OpenAI 表示,SearchGPT 将提供来自 Web 的最新信息,同时提供相关来源的明确链接。即使网站选择不允许 OpenAI 抓取内容训练其 AI 模型,新的搜索工具将仍然能访问网站。
根据发表在《自然》期刊上的一项研究,Google DeepMind 和牛津大学的研究人员发现,用 AI 生成的数据集训练 AI 模型可能导致模型崩溃,即在数代之后产生无意义的输出。举例来说,模型从中世纪建筑文本开始,到第九代输出了毫不相干的长耳大野兔。研究人员发现,AI 难以掌握训练数据集中不常见的文本行,后续在此输出上的训练无法延续这些微妙差异。以这种方式基于早期模型的输出训练新模型最终会陷入递归循环。以生成狗图像的模型为例,AI 模型倾向于重新创造训练数据中最常见的犬种,金毛猎犬相比贝吉格里芬凡丁犬(Petit Basset Griffon Vendeen)更常见,因此金毛猎犬会被过度代表。如果用过度代表金毛猎犬的数据集训练后续模型,问题将会愈发严重,后续模型将会忘记贝吉格里芬凡丁犬不知名犬种的存在,它将只会生成金毛猎犬的图像。最终模型将会崩溃,无法生成有意义的内容。
The Information 援引知情人士的消息称,OpenAI 今年可能亏损 50 亿美元。OpenAI 是史上增长最快的企业之一,但也可能是运营成本最高的企业之一。OpenAI 在三月计划年内花费近 40 亿美元租用微软服务器用于支持 ChatGPT 的推理工作负载。OpenAI 有 350,000 台包含英伟达 A100 芯片的服务器用于推理,其中约 290,000 台服务器用于 ChatGPT。硬件接近满负荷运行。OpenAI 今年训练 ChatGPT 以及新模型的成本可能多达 30 亿美元。它有大约 1500 名员工,随着业务的持续增长,薪水开支预计将达到 15 亿美元。它的全年销售额在 35 亿至 45 亿美元之间。运营费用、训练费用以及员工薪水开支总额预计超支 50 亿美元。
研究人员正在利用天文测量工具帮助确定图像的真实性——使用通常用于调查遥远星系的方法分析人脸图像,可以测量一个人的眼睛如何反射光,从而发现图像处理的迹象。AI 的进步使得区分真实图像、视频和音频与算法生成的图像、视频、音频变得越来越困难。深度伪造技术将一个人或环境的特征替换为另一个人或环境的特征,专家警告称,这可以被武器化,并用于传播错误信息,例如在选举期间。研究人员解释说,真实的照片应该具有“一致的物理特性”,“所以你在左眼球中看到的反射应该与在右眼球中见到的反射非常相似,尽管不一定完全相同”。这些差异是微妙的,因此为了检测它们,研究人员转向了旨在分析天文图像中的光的技术。通过比较个人眼球中的光反射,他们可以在大约 70% 的情况下正确预测图像是否为假的。
对 2500 名企业高管、员工和自由职业者的调查发现,高管对生成式 AI 的期望与员工的实际使用体验之间存在巨大鸿沟。96% 的高管希望 AI 能提高生产力,但 77% 使用 AI 的员工表示这增加了他们的工作量,他们认为使用 AI 阻碍了生产力和导致了他们的倦怠。47% 的员工表示他们不知道如何实现雇主所希望的生产力提升。40% 的员工认为企业对他们要求过高,增加了他们的压力。三分之一员工表示因为筋疲力尽可能会在未来半年内辞职。
日本信息处理推进机构对千名在工作中使用 AI 的用户的调查显示,六成表示了信息泄露和虚假信息扩散等威胁与风险。关于输入 AI 的营业秘密泄露、滥用 AI 导致虚假信息扩散等各个项目,调查分别询问了如何看待。把获得的答复平均后发现,认为“是重大威胁”的占 27.1%,“略有威胁”占 33.3%,合计为 60.4%。认为“不太是威胁”的占 6.2%,“完全不是威胁”的占 2.4%,合计为 8.6%,远低于前者。另一方面,关于迅速普及的生成式 AI 的使用情况,回答称组织内已制定和明文化规则的不到 20%。
其它科技公司都想把 AI 产品买给你们,但扎克伯格(Mark Zuckerberg)选择免费送给你们。Meta 周一宣布了其最新的 Llama 3.1 大模型,其最大规模版本的参数有 4050 亿个,较小规模的版本有 700 亿和 80 亿个参数。Meta 称,Llama 3.1 在基准测试中的表现超过了 OpenAI 的 GPT-4o 和 Anthropic 的 Claude 3.5 Sonnet。Meta 表示,Llama 3.1 使用了逾 16,000 个英伟达 H100 GPU 进行训练,它认为相比私有大模型,部署成本会更低。扎克伯格称他与世界各地的开发者、企业和政府官员交流时,他们都表达了不希望被私有封闭供应商锁定的愿望,希望自己能控制模型,而 Llama 3.1 将能满足他们的要求。