文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门评论
- 笑看外挂 (1 points, 一般) by cnma_001 在 2025年04月03日13时47分 星期四 评论到 韩国游戏工作室竞争开发星际争霸新作
- 一个数据参考 (1 points, 一般) by hhding 在 2025年03月31日09时06分 星期一 评论到 AI 数据中心太多了
- 非技术的说法 (1 points, 一般) by hhding 在 2025年03月31日08时56分 星期一 评论到 AI 数据中心太多了
- 主体错误 (1 points, 一般) by solidot1740402558 在 2025年02月24日21时10分 星期一 评论到 Starlink 面临越来越多的竞争
- 先能过了小米高考再说 (1 points, 一般) by ooxx 在 2025年01月06日15时43分 星期一 评论到 小米修改了引导程序解锁政策
- (1 points, 一般) by 18611782246 在 2024年12月18日18时06分 星期三 评论到 司机死于阿尔茨海默病的可能性较低
- BaD kEyBoArD: eXtRa SpAcE (1 points, 一般) by lot 在 2024年12月11日04时10分 星期三 评论到 高温环境可能加速衰老
- BaD kEyBoArD: tYpO (1 points, 一般) by lot 在 2024年12月11日04时09分 星期三 评论到 Goolge 宣布了新量子芯片 Willow
- 喵喵喵 (1 points, 一般) by solidot1733326472 在 2024年12月04日23时35分 星期三 评论到 澳大利亚面临太阳能供大于求
- 懂了 这就去安装刺客信条 (1 points, 一般) by Craynic 在 2024年11月27日19时36分 星期三 评论到 微软临时阻止安装刺客信条等育碧游戏的 PC 更新 Windows 11 24H2
亚马逊向美国用户开放其购物聊天机器人 Rufus,用户可通过最新版本的 Amazon Shopping 应用尝试 Rufus。与其它 AI 聊天机器人不同的是,Rufus 训练数据集包括了其商品目录、客户评价、社区问答,以及抓取的来自 Web 的公开信息。亚马逊没有披露它抓取了哪些公开信息。用户可以让它推荐商品,或描述特定商品的功能,它还与用户的账号绑定,因此还能回答与所订购商品交付相关的信息。和其它 AI 聊天机器人类似,它给出的答案未必是正确的,需要用户交叉验证。
世界各地的宗教领袖等在日本广岛市开会讨论使用人工智能(AI)时的伦理问题。会议通过了成果文件,称“要求世界承诺 AI 只用于造福人类,而不是用来破坏和伤害生命”。文件指出,1945 年时的最尖端技术原子弹在广岛被投下而酿成重大悲剧,而在现代战争中,AI 技术被用在无人机等致命性自主武器系统上。文件强调了“国际社会应尽早对这一危险事态采取必要的措施”。
Meta A 的研究人员正在开发智能手机上运行的紧凑型大模型 MobileLLM。研究人员致力于优化参数规模低于 10 亿的大模型,相比下 OpenAI GPT-4 的参数规模据称超过 1 万亿。研究人员报告利用一系列新技术,MobileLLM 在基准测试任务上的表现比类似规模的模型改进了 2.7%-4.3%,3.5 亿参数规模的 MobileLLM 在某些任务的准确率与 70 亿参数规模的 LLaMA-2 模型相当。这意味着在特定任务上,紧凑型大模型能提供比更大规模大模型相似的能力,同时计算开销更低。
日本总务省发表的《信息通信白皮书》显示,日本只有 9.1% 的个人使用生成式 AI。这一比例与中国(56.3%)、美国(46.3%)、英国(39.8%)和德国(34.6%)存在较大差距。 当问及生成式 AI 的具体用途时,从“已在使用”的回答来看,最多的是“查询”(8.3%),其次是“对内容进行提炼和翻译”(5.9%)。在面向企业的问卷调查中,日企在业务中使用生成式 AI 的比例为 46.8%。低于美国(84.7%)、中国(84.4%)和德国(72.7%)。关于未来是否会使用,从“计划积极使用”来看,日本仅为 15.7%,低于中国(71.2%)、美国(46.3%)和德国(30.1%)。
过去几个月,主要比特币矿场更换了部分矿机,改为运行和训练 AI 的设备。这些公司认为,相比剧烈波动的加密货币行业,AI 训练能提供更稳定更安全的收入来源。摩根大通报告称,此举受到了股民们的欢迎,14 家比特币公司市值上涨了 22%。比特币挖矿利润丰厚,但波动性巨大,2022 年 Sam Bankman-Fried 和 Do Kwon 等人导致了市场崩溃,很多矿场因此关闭。幸存的矿场在今年重新获得了利润,但因为挖矿回报减半,而币值并没有因此出现大幅上涨,迫使矿场们寻求商业模式多元化,AI 训练成为榜单上的头号目标。AI 公司需要庞大的场地、廉价的能源和基础设施,而这些比特币矿场都有。它们向 AI 公司出租了场地,托管 GPU 和 ASIC 等 AI 训练芯片。
中国科学技术信息研究所和北京大学发表《2023 全球人工智能创新指数报告》,报告称去年中国 AI 顶级论文数量和专利授权均高于美国,但在综合能力上美国仍然领先于中国。在主要国家 AI 顶级论文数量占比上,中国占比 36.7%,美国占比 22.6%。在主要国家 AI 专利授权数量占比上,中国占比 34.7%,美国占比 32%。《报告》显示,2023 年产业界独立研发的机器学习模型达到 176 个,是学术界的 3.5 倍。近十年 GitHub 上人工智能开源项目总数持续增长,从 2013 年的 1.2 万个增加到 2023 年的约 190 万个。印度成为最大的开源项目来源国,每年贡献的人工智能开源项目数量占全球的比重从 2013 年的 3.1% 增长到 2023 年的 27.3%。
Google 研究人员在预印本平台 arXiv 上发表论文,指出通过在互联网上发布虚假内容,绝大多数生成式 AI 正在模糊真实性和欺骗性之间的界限。深度伪造和伪造证据是目前最盛行的滥用方式,其中大多数都有明显意图,旨在影响公众舆论、进行诈骗或欺诈活动。生成式 AI 日益先进,可随时使用,对使用者的技术要求非常低,它正在扭曲人们对社会政治现实或科学共识的集体理解。生成式 AI 非常擅长于大量制作虚假内容,这其实是它的特性而不是 bug,互联网正日益充斥着 AI 的垃圾。研究人员表示这种状况将考验人们辨别真假的能力。随着生成式 AI 内容的无处不在,部分人可能会将对其不利的证据解释为 AI 生成,转移举证责任。
过去 5 年,由于支撑 AI 系统的数据中心的扩张,Google 的温室气体排放量飙升了 48%,这让人们对其到 2030 年实现“净零”排放的承诺产生了怀疑。Google 在周二发布的年度环境报告中表示,这家硅谷公司 2023 年的污染总量达到 1430 万吨碳当量,比 2019 年的基准增长 48%,比去年增长 13%。Google 承认排放量飙升凸显了减排的挑战,表示 AI 对环境的影响是复杂且难以预测的。Google 首席可持续发展官 Kate Brandt 表示,该公司仍然致力于实现 2030 年零排放目标。但为了构建运行 AI 所需的基础设施,短期内排放还会继续增长。Google 称,其数据中心耗电量在 2023 年增长 17%,占全球数据中心电力消耗的 7-10%。数据中心在 2023 年的耗水量也比上一年增加了 17%。
巴西国家数据保护机构周二裁定,Meta 须停止使用该国用户数据训练其 AI 模型。Meta 此前更新隐私政策,声明将使用用户公开发表的帖子训练 AI 模型。巴西监管机构担心儿童与朋友和家人分享的个人数据可能会被以无法预料的方法对他们造成伤害。里约热内卢智库 Institute of Technology and Society 的 Ronaldo Lemos 认为,巴西此举可能会鼓励其它科技公司在使用个人数据方面维持不透明的状态,因为 Meta 是唯一一家提前通知使用个人数据训练 AI 的科技巨头,结果却因此受到严厉惩罚。Meta 收到通知后需要在五天内证明合规,否则每天面临 5 万雷亚尔的罚款。Meta 发言人对巴西的裁决表达了失望。
中国 AI 机器人 GeoGPT 在欧洲地球科学界引发了混乱,导致了欧洲地球科学联合会主席被解雇。GeoGPT 由阿里巴巴 CTO 王坚开发,基于该公司的 AI 模型 Qwen,使用了来自开源地质研究和数据集的数十亿单词进行了微调。部分科学家认为 GeoGPT 存在缺乏透明度、审查和侵权等严重问题。期刊出版商今年二月致函国际地质科学联合会(International Union of Geological Sciences,IUGS),称 GeoGPT 是非法基于未经授权使用的科学文献之上,且其答案没有引用来源,是不透明的。欧洲地球科学联合会(EGU)也收到了类似的投诉。EGU 主席是出生在俄罗斯、但已离开祖国几十年的 Irina Artemieva。她将投诉邮件转发给了中国地质大学的王成善院士,征求其意见,但忘记删除了投诉者的名字。5 月 EGU 开会解雇了 Artemieva,理由之一就是她忘记删除名字违反保密规定。
过去几个月,版权所有者对 OpenAI 及其主要投资者微软提起了多起侵权诉讼。微软 AI CEO Mustafa Suleyman 接受采访时对此表示,机器学习公司能抓取大部分在线内容,用其训练神经网络,因为这些内容本质上是“免费软件”。他说,对于已在开放 Web 上的内容,自 1990 年代以来其社会契约一直是合理使用(fair use),任何人都能拷贝,重新创作,再制作。它们就是免费软件。OpenAI 等 AI 公司正与主要版权所有者签署内容协议。换句话说,对于将内容发布在网络上的普通人,除非他们有能挑战微软或将微软拉到谈判桌上的律师,那么他们创作的内容就是“免费软件”。Suleyman 预测的未来是知识生产成本将降至零边际成本,信息经济学将发生根本性改变。
OpenAI 研究人员透露了一种新模型 CriticGPT,设计识别 GPT-4 所生成的代码中的错误。CriticGPT 使用了人类反馈中强化学习(Reinforcement Learning from Human Feedback 或 RLHF) 去增强 AI 系统,它作为 AI 助手帮助人类审查 ChatGPT 生成的代码。它分析 AI 生成的代码然后指出可能的错误,帮助人类更容易识别可能会忽视的 bug。研究人员通过故意在代码中加入 bug 去训练 CriticGPT 识别和标记代码中的各种 bug。
英国雷丁大学的研究人员在一项小规模的研究中,创建了 33 名 AI 学生,使用 ChatGPT 参加该校本科心理学学位的模块化考试。结果显示,AI 学生的成绩平均比人类高出半级。AI 递交的论文检出率只有 6%——94% 的情况下无法被人类识别。研究报告发表在《Plos One》期刊上。研究人员测试了大学第一年、第二年和第三年的模块考试,AI 在前两年的成绩超过了人类,但第三年的成绩人类本科生更好。这与 AI 在更抽象推理中面临困难的观点一致。
过去半年深陷困境的生成式 AI 公司 Stability AI 获得了新一轮投资,稳定了局面,将加速其文本图像生成产品的开发。Stability AI 新一轮的投资者包括风险投资公司 Greycroft 和 Coatue Management,以及前 Facebook 总裁 Sean Parker 和特效公司 WETA Digital 前 CEO Prem Akkaraju,以及前 Google CEO Eric Schmidt 和知名投资人 Robert Nelsen。Sean Parker 将担任 Stability AI 的执行主席,Akkaraju 将担任 CEO。自创始人 Emad Mostaque 于 3 月离职后,Stability AI 一直没有任命新 CEO,原因是投资者对其财务状况感到不满,它的财务状况非常糟糕,甚至难以支付云服务账单。
AI 研究人员表示,Meta 和微软等科技巨头称其 AI 模型是开源模型,但它们并没有披露模型底层技术的重要信息。荷兰 Radboud 大学语言科学家 Mark Dingemanse 表示,大公司正从宣称开源模型上受益,但与此同时试图尽可能少的披露信息。这种做法被称为“open-washing”。Dingemanse 指出,相比下资源更少的小型 AI 企业则表现更令人称赞。他和同事创建了一个最开放和最不开放模型排行榜。他们评估了 40 个声称开源或开放的大模型,根据代码和训练数据的可用性、文档以及模型易访问性等 14 个参数制定了排行榜。研究人员发现, Meta 的 Llama 以及 Google DeepMind 的 Gemma 虽然自称开源或开放,但实际上只是开放权重,外部研究人员可以访问和使用预训练模型,但无法检查或定制模型,也不知道模型如何针对特定任务进行微调。根据他们的排行榜,BigScience 的 BloomZ 是最开源开放的模型,其次是 Allen Institute for AI 的 OLMo,Mistral AI 的 Mistral 7B-Instruct。
字节跳动正与博通合作开发先进 AI 芯片,以在中美关系紧张的局势下获得充足的高端芯片供应。路透社援引知情人士的消息称,双方合作开发的是 5 纳米 ASIC 定制芯片,将满足美国的出口限制,由台积电代工。知情人士表示,台积电预计不会在今年内制造这种新芯片,它尚未进入流片试产阶段。字节跳动、博通以及台积电都未对此置评。为了发展 AI,字节跳动已经囤积了大量英伟达的 GPU,其中包括了美国第一轮制裁前可采购的 A100 和 H100 GPU,以及英伟达专为中国市场定制但被第二轮制裁限制的 A800 和 H800 芯片。字节跳动去年投入了 20 亿美元采购英伟达芯片。
苹果本月初宣布与 OpenAI 合作,在其语音助手 Siri 中整合 ChatGPT。但苹果不想过于依赖单一合作伙伴,它正在与 Facebook 的母公司 Meta 商讨在 AI 方面展开类似的合作。苹果不会为这方面的合作付费,而是提供分销,让 AI 合作伙伴销售增值付费订阅版本。苹果表示,在与 ChatGPT 分享任何问题和数据之前会征求用户的许可,与 Meta 的 AI 合作应该与之类似。
美国中佛罗里达大学的研究人员在《自然》期刊上发表论文,分析了 2,100 起涉及 SAE Level 4 级(即具有完全自主驾驶能力的汽车)自动驾驶和SAE Level 2 级辅助驾驶的事故数据,以及 35,113 起涉及人类驾驶的事故数据。研究根据事故变量对风险进行分类,如车辆是直行还是转弯,以及道路状况和天气。结果显示,SAE Level 4 级自动驾驶汽车发生中度受伤事故的可能性降低 36%,发生致命事故的可能性降低 90%。相比人类驾驶,其追尾碰撞风险降低一半,侧面碰撞降低五分之一,冲出道路的可能性降低近五分之一。研究发现,自动驾驶汽车更擅长直行,但在转弯、黎明和黄昏时表现较差。
中国 AI 创业公司 DeepSeek 的 DeepSeek Coder 成为第一个打败 GPT-4 Turbo 的开源代码模型。DeepSeek 上个月发布了混合专家模型 DeepSeek-V2,它的代码模型 DeepSeek Coder V2 就是基于该模型,它支持逾 300 种编程语言,在编程任务中超过了最先进的闭源模型如 GPT-4 Turbo、Claude 3 Opus 和 Gemini 1.5 Pro。在 MBPP+、HumanEval 和 Aider 编程测试中,DeepSeek Coder V2 获得了 76.2、90.2 和 73.7 分;在 MATH 和 GSM8K 等数学测试中,DeepSeek Coder V2 表现也类似。DeepSeek Coder V2 采用了 MIT 许可证,对商业使用不设限制,它有 160 亿和 2360 亿参数两个版本。
OpenAI 联合创始人和首席科学家 Ilya Sutskever 上个月离开公司,现在正式宣布成立新公司 Safe Superintelligence,表示将专注于打造安全的 AI。Safe Superintelligence 的联合创始人还包括了苹果 AI 前负责人 Daniel Gross 以及以在 OpenAI 训练模型闻名的 Daniel Levy。Ilya 三人在联合声明中表示,他们在致力于提高 AI 能力的同时将安全性置于优先地位,这一目标让他们的商业模式可以保证安全和进步都不受短期商业压力的影响。Sutskever 表示他花了数年时间思考安全,已经想出了一些方法,但没有提供更多细节。他表示安全的 AI 将以人类过去几百年发展的自由民主价值观为基础。