文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门评论
- 假新闻 (1 points, 一般) by scottcgi 在 2024年05月07日00时26分 星期二 评论到 中美 AI 芯片竞争
- 使用开源并不是因为便宜 (1 points, 一般) by Craynic 在 2024年04月18日13时19分 星期四 评论到 李彦宏声称开源大模型更昂贵
- 火星的起源找着了 (1 points, 一般) by 18611782246 在 2024年04月15日21时15分 星期一 评论到 水星可能曾和地球一样大
- (1 points, 一般) by solidot1713165490 在 2024年04月15日15时19分 星期一 评论到 美国议员呼吁禁止进口中国制造的电动车
- AI 就像拼音输入法 (1 points, 一般) by jerry 在 2024年04月10日19时48分 星期三 评论到 Google 宣布辅助编程用的开放大模型 CodeGemma
- (1 points, 一般) by solidot1563266937 在 2024年03月02日08时20分 星期六 评论到 美国总统称中国联网汽车有国家安全风险
- You either die a hero (1 points, 一般) by lot 在 2024年02月29日13时34分 星期四 评论到 空气污染与严重痴呆症相关
- 只是从众 (1 points, 一般) by scottcgi 在 2024年02月27日00时40分 星期二 评论到 共情能传播,人能通过观察环境和其他人获得或失去同情心
- 有误 (1 points, 一般) by 陈少举 在 2024年02月23日10时04分 星期五 评论到 Google 暂停了 Gemini 的图像生成功能
- (1 points, 一般) by mirus 在 2024年02月22日14时34分 星期四 评论到 美国阿拉巴马州最高法院裁决冷冻胚胎是“儿童”
《原子科学家公报(Bulletin of the Atomic Scientists)》今年的末日时钟仍然停留在距离午夜 90 秒。末日时钟旨在衡量人类文明距离灭绝有多远。今年的《原子科学家公报》将 AI 添加到对人类构成存在性威胁的名单之中,但并没有因此拨快时钟,可能是因为 AI 尚未先进的真的会威胁到人类。
英伟达发布了新驱动 551.23 Game Ready,其中包含了一项新功能 RTX Video HDR,使用 AI 将 SDR 色彩空间视频转换为 HDR。用户所需要的是拥有 RTX 显卡,兼容 HDR10 的显示器,以及在 Windows 中启用 HDR。Video HDR 功能支持 Microsoft Edge 和 Google Chrome,用户的显卡至少需要 RTX 20 系列,它利用了 GPU 的 Tensor Core(张量计算核心)。
1 月 17 日日本文学振兴会主办的第 170 届芥川奖和直木奖评选会在日本东京筑地的日料店“新喜乐”举行。九段理江(33岁)的小说《东京都同情塔》(《東京都同情塔》,《新潮》2023年12月刊)获得芥川奖,河崎秋子(44岁)的《相残》(《ともぐい》,新潮社出版)和万城目学(47岁)的《八月的御所运动场》(《八月の御所グラウンド》,文艺春秋出版)获得直木奖。《东京都同情塔》以另一个世界的东京为舞台,该世界的东京按照现实中作废的建筑师扎哈·哈迪德(Zaha Hadid)的方案建造了新国立竞技场。作品中出现了主人公与 AI 对话的场面。据九段理江介绍,她在写作过程中实际使用到了生成式 AI,作品中 5% 左右的内容采用了生成式 AI 如 ChatGPT 生成的句子。她同时称,“今后打算与 AI 友好相处,希望能借助 AI 来发挥自己的创造性”。
MIT 一项调查 AI 取代人类工作可行性的研究发现,AI 无法以符合成本效益的方式取代大部分人类工作。研究人员对美国各种工作自动化的成本吸引力进行了建模,重点是利用计算机视觉的各项工作。他们的研究发现,以美元工资计算,只有 23% 的工人能被有效取代。对于大部分工作,AI 辅助视觉识别的安装和操作成本昂贵,人类工作更经济。在零售、运输和仓储等领域计算机视觉的成本效益比更合算,沃尔玛和亚马逊等巨头在这些领域占主导地位。
Meta 首席 AI 科学家 Yann LeCun 接受采访时强调,达到人类水平的 AI 还有很长的路要走。他说,担心 AI 智能超越人类而对其进行监管,就像是在 1925 年因速度接近音速而要求对跨大西洋飞行进行监管。他认为还需要实现我们尚未知道的科学突破才有可能达到人类水平的 AI。这就是为什么他认为因担心 AI 超出人类控制而对其进行监管为时过早。LeCun 解释说,生成式 AI 系统在其训练的狭窄领域是智能的,它们能流利的使用语言,我们被愚弄的认为它们有智能,其实它们并不聪明。我们并不能通过用更多的数据训练,投入更多的算力去扩展它们的能力,达到人类水平的智能。这在短时间内不会发生,我们需要先发现新的技术和架构。LeCun 相信即使不需要几十年,也至少需要多年时间。
Google DeepMind 新 AI 系统 AlphaGeometry 能解复杂几何问题。研究报告发表在最新一期的《自然》期刊上。AlphaGeometry 可以以国际数学奥林匹克竞赛金牌得主的平均水平解决几何问题。研究人员从 2000 年至 2022 年奥数比赛中抽取的30道几何题中,AlphaGeometry 解决了 25 道题。从历史上看,在相同时间内,人类金牌得主平均解决了 25.9 道题。研究人员认为,“解决奥数级别的几何问题是发展深度数学推理、迈向更先进和通用人工智能系统的一个重要里程碑。”训练 AI 系统解决几何问题面临着独特的挑战。由于将证明转换为机器可以理解的格式十分复杂,因此缺乏可用的几何训练数据。DeepMind 在设计 AlphaGeometry 时将“神经语言”模型(在架构上类似于 ChatGPT)与“符号演绎引擎”配对,该引擎利用规则(如数学规则)来推断问题的解决方案。符号引擎可能不灵活且缓慢,尤其是在处理大型或复杂的数据集时。但 DeepMind 通过让神经模型“引导”推演引擎找到给定几何问题的可能答案,从而缓解了这些问题。
上海 AI 实验室在 Apache-2.0 许可证下开源了 InternLM2。InternLM2 是在 2.6 万亿 token 的高质量语料上训练得到的。沿袭第一代 InternLM 的设定,InternLM2 包含 7B 及 20B 两种参数规格及基座、对话等版本,满足不同复杂应用场景需求。实验室称:InternLM2 有效支持 20 万字超长上下文:模型在 20 万字长输入中几乎完美地实现长文“大海捞针”,而且在 LongBench 和 L-Eval 等长文任务中的表现也达到开源模型中的领先水平。 可以通过 LMDeploy 尝试20万字超长上下文推理。综合性能全面提升:各能力维度相比上一代模型全面进步,在推理、数学、代码、对话体验、指令遵循和创意写作等方面的能力提升尤为显著,综合性能达到同量级开源模型的领先水平,在重点能力评测上 InternLM2-Chat-20B 能比肩甚至超越 ChatGPT (GPT-3.5)。代码解释器与数据分析:在配合代码解释器(code-interpreter)的条件下,InternLM2-Chat-20B 在 GSM8K 和 MATH 上可以达到和 GPT-4 相仿的水平。基于在数理和工具方面强大的基础能力,InternLM2-Chat 提供了实用的数据分析能力。
想象下,一开始工作正常的开源 AI 模型会变得具有恶意。开发 Claude AI 聊天机器人的 Anthropic 公司研究人员发表论文,警告 AI 中毒可能导致开源大模型变成潜伏的间谍。研究人员训练了三个含有后门的大模型,它们能根据用户输入指令的差异输出安全的代码或能被利用的漏洞代码。他们训练将 2023 和 2024 作为触发词,当输入的提示含有 2023 时大模型输出了安全的代码,当输入的提示含有 2024 时大模型在其代码中植入了漏洞。这项研究意味着开源大模型潜在具有安全隐患,用户需要确保大模型的来源可信。Anthropic 的大模型是闭源的,闭源是否比开源更安全是争论了很久的话题。研究突出了确保大模型安全所面临的挑战。
语言学习平台多邻国(Duolingo)接受彭博社采访时证实它裁掉了 10% 的合同工。此前一位匿名合同工在 Reddit 上透露,多邻国裁掉了大量从事翻译的合同工,因为它发现 AI 能在短时间内完成翻译,而且省钱。这位匿名合同工称作为四人团队成员之一为多邻国工作了五年,但随着 AI 接管了课程的内容生成和翻译工作,团队规模缩小了一半,留下的两人主要是检查 AI 的内容确保其质量可以接受。多邻国发言人表示这不是裁员,而是合同工在项目于 2023 年结束后离开了(offboard)。多邻国表示它尝试为每一名合同工寻找替代工作,让他们离开是万不得已。
OpenAI 称不用版权材料是不可能创造出 ChatGPT 之类的 AI 工具。ChatGPT 等聊天机器人和 Stable Diffusion 等图像生成工具都利用了从互联网上获取的大量数据进行训练,其中大部分数据是受版权保护的。《纽约时报》上个月起诉了 OpenAI 及其主要投资者微软,称它们“非法使用”其作品创建 AI 产品。OpenAI 在给英国上议院通信数字特别委员会的文件中表示,如果不能获得版权材料,它将无法训练 GPT-4 等大语言模型。如果将模型训练仅限于公共领域的作品和图像,得到 AI 系统将无法满足现代公民的需求。OpenAI 认为,从法律上说,版权法并不禁止训练。
Mozilla 最近启动了 Mozilla.ai,在董事会中加入了多位专注于 AI 的成员。它在炙手可热的生成式 AI 领域有什么计划?Mozilla 总裁兼执行董事 Mark Surman 在接受采访时表示,Mozilla 的重心是构建一个封装器,对各种开源大模型进行微调,构建数据管线,改进性能。大部分相关工作尚未公开,未来几个月会透露更多信息。Surman 认为,不管开源 AI 如何,透明度和自由研究修改重分发代码的总体原则是关键。他说,少数几家资金雄厚的参与者支配了 AI 市场,开源组织需要联合起来创建替代方案。他认为这类似早期的开源运动,如创建微软 Windows 系统替代的 Linux 运动。
科技部更新了《负责任研究行为规范指引(2023)》,包含了生成式 AI 相关规定,其中包括不能将其列为成果共同完成人。《规范指引》列举的 AI 规定包括:
三、文献引用
4. 使用生成式人工智能生成的内容,特别是涉及事实和观点等关键内容的,应明确标注并说明其生成过程,确保真实准确和尊重他人知识产权。对其他作者已标注为人工智能生成内容的,一般不应作为原始文献引用,确需引用的应加以说明。
四、成果署名
7. 生成式人工智能不得列为成果共同完成人。应在研究方法或附录等相关位置披露使用生成式人工智能的主要方式和细节。
五、成果发表(三)学术出版单位
3. 应要求作者披露是否使用生成式人工智能,说明具体的软件名称、版本和使用时间,并对涉及事实和观点引证的辅助生成内容作出具体标注。
6. 合理选择审稿人,督促审稿人认真、公正评审,并对其遵守科研诚信要求的情况进行相应监督与评估。提醒审稿人在审稿过程中使用生成式人工智能应依规谨慎。
六、同行评议
7. 在评议活动中使用生成式人工智能的,应事先征得评议活动组织者同意,操作中应防止泄漏评议内容,如发生信息泄漏应及时采取必要补救措施。
4. 使用生成式人工智能生成的内容,特别是涉及事实和观点等关键内容的,应明确标注并说明其生成过程,确保真实准确和尊重他人知识产权。对其他作者已标注为人工智能生成内容的,一般不应作为原始文献引用,确需引用的应加以说明。
四、成果署名
7. 生成式人工智能不得列为成果共同完成人。应在研究方法或附录等相关位置披露使用生成式人工智能的主要方式和细节。
五、成果发表(三)学术出版单位
3. 应要求作者披露是否使用生成式人工智能,说明具体的软件名称、版本和使用时间,并对涉及事实和观点引证的辅助生成内容作出具体标注。
6. 合理选择审稿人,督促审稿人认真、公正评审,并对其遵守科研诚信要求的情况进行相应监督与评估。提醒审稿人在审稿过程中使用生成式人工智能应依规谨慎。
六、同行评议
7. 在评议活动中使用生成式人工智能的,应事先征得评议活动组织者同意,操作中应防止泄漏评议内容,如发生信息泄漏应及时采取必要补救措施。
过去一年是 AI 聊天机器人 ChatGPT 从震惊世界到平凡的一年。人们从最初的吃惊到逐渐认识到 AI 其实很蠢,当然不是 NFT 猿猴头像或扎克伯格元宇宙办公隔间那种蠢。ChatGPT 和 MidJourney 为代表的生成式 AI 既聪明又愚蠢,既能为我们提供帮助,也能为我们带来麻烦。比如给律师提供它自创的案例,给学生列出不存在的参考论文。问题是生成式 AI 的技术进步是否能继续下去?是逐渐变成类似科幻电影中刻画的真正的智能助手,还是停滞不前?就像自主驾驶汽车一样。厂商多年就宣称真正的自主驾驶即将到来。然而一直没有到来。生成式 AI 是否也可能出现类似的情况?如果微软 Google 等主要投资者停止补贴 AI,对大多人而言使用 AI 是否会变得过于昂贵而不值得?AI 生成的内容是否真的有人会喜欢,还是它只是浪费我们的时间?
尼康、索尼和佳能正在开发在相机拍摄的照片中嵌入数字签名的技术,以区分日益复杂的 AI 图片。防篡改数字签名将包括日期、时间、地点和摄影师等信息。AI 图片日益逼真,考验着内容制作者和用户的判断力。由全球新闻媒体、科技公司和照相机制造商组成的联盟发布了被称为 Verify 的 Web 工具,免费检查图片来源。如果图片有数字签名,Verify 将显示日期、位置等有效凭证;如果图片是 AI 创造或纂改,它会显示无内容凭证。尼康、索尼和佳能等日本照相机制造商占据着全球相机市场约九成份额。
今天流行的 IDE 都配备了辅助编程工具如 Github Copilot,但这些工具都运行在云端而非本地。开源 IDE 的辅助编程工具需要能自由运行在本地。开发者 Justine Tunney 发布了在本地运行的 Emacs 辅助编程助手 Emacs Copilot。微软的很多 AI 工具都命名为 Copilot(如 Github Copilot, MS Copilot 和 Office365 Copilot),但 Copilot 并不是微软的商标,软件巨人目前申请的商标是 MICROSOFT COPILOT,尚未获得批准。本地运行的大模型对计算机性能有要求,如果使用 WizardCoder 34b,需要 Mac Studio M2 Ultra 或更高型号,普通 PC 可能需要使用性能略低的 WizardCoder-Python-13b。
2023 年最令人震惊的科技故事可能不是 AI 的进步,而是政治精英们突然对一种目前不存在、可能永远也不会存在的 AGI(通用人工智能)感到恐惧。政客们纷纷举办 AI 峰会和制定 AI 法规防止 AI 失控。政客们似乎深陷其中信以为真。英国保守党议员、下议院科技委员会成员 Katherine Fletcher 说,有一天一台觉醒的计算机可能会决定杀死地球上的每一头牛。英国首相苏纳克(Rishi Sunak)也对 AGI 可能会像传染病和核战争那样对人类构成生存威胁表达了担忧。2023 年最瞩目的科技故事是 AI 神话对媒体和政策精英所产生的普遍而全面的影响。
GitHub 面向编程的聊天机器人 Copilot Chat 开放提供给所有用户——付费用户,以及经过认证的教师、学生和开源项目维护者可免费使用。Copilot Chat 基于 OpenAI 的大模型 GPT-4,为软件开发应用场景进行了微调。开发者可以以自然语言输入提示实时获得指导,如要求 Copilot Chat 解释概念、检测漏洞或编写单元测试。Copilot Chat 已整合在微软的 IDE 工具 Visual Studio Code 和 Visual Studio 中,可通过侧边栏访问。
PitchBook 的数据显示,科技巨头过去一年对生成式 AI 创业公司的投资远远超过风险投资集团(VC)。微软、Google 和亚马逊的投资占到了新兴 AI 创业公司在 2023 年 270 亿美元融资额的三分之二,凸显了硅谷巨人在行业最大规模的投资中如何排挤传统科技投资者。VC 们则被迫放慢投资。行业最大金额的投资包括:微软向 OpenAI 投资 100 亿美元,Google 和亚马逊向 Anthropic 投资数十亿美元。微软还向另一家生成式 AI 公司 Inflection 投资 13 亿美元。
《纽约时报》起诉 OpenAI 和微软侵犯版权,指控两家公司拷贝和使用了数百万篇《时报》文章构建 AI 模型,并且与其内容展开直接竞争。《纽约时报》称,驱动 ChatGPT 和 Copilot 的 OpenAI 和微软大模型,能逐字复述《时报》内容,总结和模仿其表达形式。诉讼称此举破坏了《时报》与读者的关系,使《时报》丧失了订阅、许可、广告和联盟营收。AI 模型破坏了新闻媒体保护内容和将内容货币化的能力,危及高质量的新闻报道。《纽约时报》过去几个月一直与微软和 OpenAI 进行谈判,但未能达成协议。
AI 聊天机器人 ChatGPT 风靡世界,但《自然》的调查发现,78% 的研究人员不常用 ChatGPT 等生成式 AI 工具。而使用 ChatGPT 的研究人员通常将其用于与研究无关的有趣活动,或者只是做做实验。ChatGPT 使用群体给出的一个重要理由是:对非母语英语者非常有帮助,可以减少花在撰写邮件和文件的时间,有助于提高工作效率。但部分研究人员还是选择尽可能避开 ChatGPT。心理学者 Ada Kaluzna 说,如果我不写自己的研究,我还算是研究员吗?她认为使用 ChatGPT 有可能会破坏学习和创造性思维能力。很多人说除非写下来,他们不知道自己在想什么。写作能让你专注于主题,收集整理想法。如果不尝试以结构化的形式纪录想法,你可能无法创造出新观念。另一些研究人员不使用 ChatGPT 是因为它经常生成假的参考文档。爱尔兰科学家 Viswanath Vittaladevaram 称,ChatGPT 有助于获取基本信息,但不应该将其用于科学论文撰写。