solidot新版网站常见问题,请点击这里查看。
adv
人工智能
1
wanwan(42055)
发表于2022年01月07日 16时54分 星期五
来自通往宇宙之门
1970 年图灵奖(计算机界的诺贝尔奖)得主 Marvin Minsky 预测,“三到八年内我们将拥有具备相当于普通人类水平的通用智能机器。”52 年过去了,我们仍在等待着这种机器的出现。根本障碍在于,尽管计算机算法确实非常善于识别统计模式,但它们不知道这些模式意味着什么,因为它们局限于数学世界(MathWorld)中,从未体验过现实世界。Google 在西雅图的 AI 团队负责人 Blaise Aguera y Arcas 最近表示,大型语言模型(LLM)可能是由统计学驱动的,“统计等同于理解。”他提到了几个与 Google 最先进的聊天机器人 LaMDA 的对话片段作为证据。这些对话令人印象深刻,非常像人类的口吻,但是它们不过是 Gary Marcus 和 Ernest Davis 所说的 LLM 有能力成为“流利的废话喷井”,或者是 Timnit Gebru 和三位合著者所说的“随机鹦鹉”的例子。
人工智能
wanwan(42055)
发表于2022年01月05日 20时41分 星期三
来自雾影1:雾影边境
好莱坞刻画的人工智能(AI)噩梦就像一部科幻大片描绘的那样:机器人获得了类人的智能,获得了知觉,不可避免地成为企图毁灭人类的邪恶霸主。这种叙述利用了我们对技术与生俱来的恐惧,反映了通常伴随新技术发展的深刻变化。然而正如机器学习工程师、2019 年出版的小说《The Quantum Price》的作者 Malcolm Murdock 所说,“人工智能不必有知觉就能杀死我们所有人。在有知觉的 AI 成为问题之前,还有很多其他场景会消灭我们。”在对 AI 专家的采访中,IEEE Spectrum 列举了 AI 在现实世界中六种最坏的情况,它们比电影描述的要平凡得多。但是它们同样是反乌托邦的。而且大多数情况并不需要恶毒的独裁者。相反它们可能会自然而然地发生,有机地展开——也就是说,如果没有采取任何措施阻止它们的话。为了防止这些最坏的情况发生,我们必须放弃我们对 AI 的流行文化观念,认真对待它带来的意外后果。

1.当虚构定义了现实,深度伪造之类的技术会导致现实的后果。2.逐底竞争的危险性,AI 技术发展过程中需要注重安全而不是一味追求速度。3.隐私和自由意志的终结,乔治城大学的 Andrew Lohn 指出,“随着数据监视和跟踪的兴起,我们正在进入危险和未知的领域,我们对其潜在的影响几乎一无所知。” 4.人类身处算法创造的斯金纳箱(Skinner Box),社交媒体用户已经成为实验室里的小鼠。5.AI 设计的暴政,现有 AI 系统有着自身的局限性和偏见,它可能会限制人类而不是解放人类。6.过度监管 AI 会限制它给人类带来的好处。
人工智能
WinterIsComing(31822)
发表于2022年01月04日 17时58分 星期二
来自蒸汽歌剧
最新接受人工智能重建处理的画作是古斯塔夫.克里姆特(Gustav Klimt)在 1900 年创作的《哲学》。 几十年来,《哲学》都以黑白相片的形式存在。现在多亏了人工智能,我们可以看到这幅画作的彩色版本。但是重建的作品真的和原作一样吗?它看起来像 Klimt 的风格吗?如果你熟悉《》或者《阿德勒.布罗赫-鲍尔像一》等作品,会发现这幅由 Google Arts and Culture 用机器学习创建的新画作展现了非常不同的 Klimt。 纽约 St. Etienne 画廊曾为 Klimt 在美国首次举办画展,画廊主管 Jane Kallir 表示:“关于这些画作到底应该是什么样子,我不比Google 了解得更多,但是我不认为看起来是这样。”“看起来像卡通。不像 Klimt 的作品。” “就像有人试图克隆狗。你可以做到,但是它并不是同一条狗。”

这是最近一些用人工智能重建失传艺术品的尝试中的一个。阿姆斯特丹国立博物馆使用人工智能重建伦勃朗著名画作《夜巡》丢失的部分,在夏天将它们暂时安放在真实画作的旁边。英国的一对自称为 Oxia Palus 的研究人员表示,他们使用 3D 打印和人工智能重建毕加索隐藏在《盲人的晚餐》下面的裸体画像。10 月德国波恩的一个管弦乐队完整地“演奏”了贝多芬未完成的第十交响曲。这个版本是由算法完成的。Oxia Palus 的联合创始人 George Cann 认为,人工智能“可以提供一个从未真正拥有过的、替代艺术的平行世界。” 这是一个诱人的想法。窥看毕加索画作下方隐藏的早期画作就像是在窥看艺术家的思想,偷听一个世纪前的想法。看到因灾难失传的画作起死回生就像是穿越时光,逆转命运。但是如果在这个重新创建失传艺术品世界中的任何一件作品,例如《哲学》,是不准确的,那么 AI 创造者不是在复活历史,而是在无意中改写历史。Kallir 觉得,这幅她称之为“花里胡哨”的作品和 Klimt 几乎没有关系,她表示这些画作应该更加柔和,从一种颜色到另一种颜色的过渡也应该更平滑。她表示:“如果你眼光还不错的话,你看看黑白复制品,再将它们与大约同时期完成的其他画作进行比较,你可能更好地了解真实面貌。”
人工智能
wanwan(42055)
发表于2021年12月31日 17时35分 星期五
来自快乐基因
过去 20 年,深度学习透过一系列商业应用逐渐主导了人工智能研究和应用。但令人眼花缭乱的背后存在一些根深蒂固的问题,威胁着这种技术的腾飞。 举例来说,典型的深度学习程序在多任务上表现欠佳,该技术被限制在严格控制环境中的特定任务的应用。更严重的是,深度学习被认为是不可信的,因为它无法解释——而且不适用于某些应用,因为它会经历灾难性的遗忘。说得更通俗一点,如果算法有效,无法理解它为什么有效。当该工具慢慢学习新数据库时,其学习记忆的任意部分可能会突然崩塌。因此在任何攸关生死的应用(例如医疗应用)上使用深度学习都可能存在风险。

在一本新书中,IEEE 研究员 Stephen Grossberg 认为需要一种完全不同的方法。Grossberg根据自己几十年来对认知和神经的研究,在《Conscious Mind, Resonant Brain: How Each Brain Make a Mind》一书中描述了一种生物和人工智能的替代模型。他将模型称为自适应共振理论(ART)。 Grossberg 是波士顿大学认知和神经系统、数学和统计、心理和脑科学以及生物医学工程领域的讲席教授,他在其大脑如何处理信息的理论基础上构建了 ART。 他表示:“在充满了意外事件的、不断变化的世界中,我们的大脑学会了识别并预测对象和事件。” 对于这种不断的变化,ART 使用有监督和无监督的学习方法解决模式识别和预测问题。一些大规模的应用已在使用该理论的算法,例如对声纳和雷达信号进行分类、检测睡眠呼吸暂停、推荐电影以及基于计算机视觉的驾驶辅助软件等。Grossberg 表示,可以放心使用 ART,因为它是可解释的,并且不会经历灾难性的遗忘。他表示,ART 解决了他所谓的稳定性-可塑性悖论:大脑或其他学习系统如何才能在不经历灾难性遗忘(稳定性)的情况下快速自主学习(可塑性)。
人工智能
WinterIsComing(31822)
发表于2021年12月30日 15时31分 星期四
来自为了我们的家园
中国本月中旬向联合国递交了《关于规范人工智能军事应用的立场文件》,阐述了中国在 AI 武器应用方面的立场,呼吁“各国在发展人工智能武器系统方面应保持克制,人工智能的军事应用不应成为发动战争和谋求霸权的工具,反对利用人工智能技术谋求绝对军事优势”,“增强人工智能安全评估和管控能力,确保人工智能武器永远处于人类控制之下”,“对人工智能军事应用加强监管,降低扩散风险”等。
人工智能
wanwan(42055)
发表于2021年12月29日 18时19分 星期三
来自森林送信人
2020 年 6 月,旧金山独立人工智能研究实验室 OpenAI 发布了 GPT-3——第三代海量生成式预训练语言转换模型,它可写出从计算机代码到诗歌在内的一切内容。一年后清华大学北京智源人工智能研究院低调发布了一个更大的模型,即悟道2.0,参数数量增加 10 倍——参数是编码信息的神经网络值。GPT-3 号称拥有 1750 亿个参数,而悟道2.0 的创造者声称它拥有高达 1.75 万亿个参数。而且该模型不仅能像 GPT-3 那样生成文本,还能和 OpenAI 的 120 亿参数的 DALL-E模型一样根据文本描述生成图像,具有与 Google 的 1.6 万亿参数的 Switch Transformer 模型类似的缩放策略。

负责悟道项目的清华大学教授唐杰最近在接受采访时表示,该团队在 6 月份构建了一个更大的、100 万亿参数的模型,不过它还没被训练至“收敛”,即模型停止提升的点。唐教授表示:“我们只是想证明我们有能力做到这一点。”这不是简单的一较高下。一方面,这是研究进步的方式。但另一方面,它标志着两大科技超级大国之间的竞争日趋激烈。无论研究人员喜欢与否,他们的政府都渴望将人工智能的每一项进步应用到国家安全基础设施和军事能力之中。这很重要,因为技术的主导地位意味着在任何未来的战争中都有可能取得胜利。更重要的是,拥有这种优势的政府可能会在长期执政和全球影响力方面得到保障。具有讽刺意味的是,中国是美国自己培养出来的竞争对手。众所周知,美国的消费市场为中国的出口引擎提供了动力,中国配备了美国的机器,成为自 1980 年代以来世界上增长最快的经济体。
人工智能
wanwan(42055)
发表于2021年12月29日 15时52分 星期三
来自小无知游太阳城
亚马逊语音助手 Alexa 在“挑战”一名 10 岁女孩时,让她拿着硬币贴在通电的插脚上(插头的插脚一半插入插座,一半裸露在外),亚马逊随后更新了 Alexa 语音助手。 该建议是这名女孩在要求 Alexa 提出“挑战(challenge to do)”之后提出的。智能音箱说:“将手机充电器的插脚一半插入墙上的插座,拿着一分钱的硬币贴在另一半暴露出的插脚上。”亚马逊表示在发现错误之后,立即进行了修复。女孩的母亲 Kristin Livdahl 在 Twitter 上描述了这一事件。她说:“我们正在做一些身体上的挑战,例如躺下来,保持一只鞋在你的脚上,然后翻来翻去。之前我们是跟着 YouTube 上的一位(体育教学)老师做。外面的天气不好。她就想换一个老师。这时 Echo 音箱建议参与这个它‘在网上找到’的挑战。”这项被称为“便士挑战”的危险活动大约从一年前开始在 TikTok 和其他社交媒体网站上流行。
人工智能
1
WinterIsComing(31822)
发表于2021年12月27日 15时27分 星期一
来自寻衅滋事
中国研究人员开发出 AI 检察官,能根据对案件的口述以 97% 的准确率提出指控。上海浦东人民检察院构建和测试了 AI 检察官系统,它是全国最大最忙碌的地区检察院。中国科学院大数据挖掘与知识管理重点实验室主任石勇教授是该项目的首席科学家,他表示 AI 系统能减少检察官的日常工作量,让他们能专注于更困难的工作。在一定程度上系统可在决策中取代检察官。石勇和同事的论文发表在本月出版的《管理评论》期刊上(最新几期的论文尚未上线)。
人工智能
wanwan(42055)
发表于2021年12月21日 17时59分 星期二
来自龙岛
对大多数动物而言,生活就是决定去哪里。在世界中奔跑、游泳或飞翔,动物不断地做出行动的决定,选择去哪里进食、在哪里躲避以及和谁交往。神经生物学在过去几十年里的突破,包括获得 2014 年诺贝尔医学奖的突破已经拼凑出动物表示空间分布选择的图景。现在一个国际研究团队应用这些神经生物学知识了解动物如何从分散在空间中的选项中进行选择。从神经生物学、物理学和动物行为中汲取灵感,这个跨学科的团队构建了一个大脑决策的计算模型。该模型具有大脑表示“空间”选项的特征——在这种情况下是指向潜在目的地的方向——以了解如何在移动中做出决策。由此产生的模型预测,大脑会自发地将多个选项之间的决策分解为一系列二选一的决策,直到只剩下一个选项——也就是最终选择。这会导致动物表现出一系列突然的方向变化,每一次都与排除了一个剩余的选项有关。每一次的方向变化都是神经动力学突然变化的结果——科学家称之为“分叉”,动物和剩余选项之间存在非常特定的几何关系。这种算法被发现非常强大,以至于研究人员预测,这种“分叉”过程不仅会带来高度准确的决策,而且还可能是“通用的。”通过将很多动物模拟轨迹叠加在一起,他们发现了一个分支结构。他们预测,如果将真实动物空间决策留下的很多轨迹叠加在一起,这种结构也应该很明显。
人工智能
wanwan(42055)
发表于2021年12月17日 18时02分 星期五
来自暗影徘徊
想象一下你正在参加一场比赛。要完成它,你的身体要强壮,你的大脑要跟踪路线,控制你的步伐,防止你绊倒。对机器人也是如此。为了完成任务,它们需要精心设计的身体和“大脑”或控制器。工程师使用各种模拟改进机器人的控制并使其智能。但很少有方法可以同时优化机器人的设计。除非设计者是算法

由于计算技术的进步,终于可以编写出同时优化设计和控制的软件程序,这种方法被称为协同设计。尽管有优化控制或设计的平台,但大多数协同设计研究人员还是不得不设计自己的测试平台,这些平台通常计算量巨大且很耗时。

为了解决这个问题,MIT 研究员 Jagdeep Bhatia 等人创建了名为 Evolution Gym 的 2D 协同设计软机器人模拟系统。他们在今年的神经信息处理系统会议上展示了这个系统。他们还在一篇新论文中详细介绍了该系统。

在 Evolution Gym 中,用彩色细胞或体素组成 2D 软机器人。不同的颜色代表了不同类型的简单组件——软材料或刚性材料,以及水平或垂直致动器。由彩色方块拼凑而成的机器人在类似电子游戏的环境中移动。因为它是 2D 的,程序设计很简单,不需要太多计算能力。

顾名思义,研究人员构建了该系统以模拟生物的演化过程。它不生成单个机器人,而是生成在设计上略有差异的机器人群体。该系统具有双层优化系统——外环和内环。外环是设计优化:系统针对给定任务(例如步行、跳跃、攀爬或捕捉东西)生成许多不同的设计。内环是控制优化。
人工智能
wanwan(42055)
发表于2021年12月17日 17时54分 星期五
来自凡尔纳地球三部曲
人类非常擅长根据 2D 图像理解它描绘的 3D 场景。人工智能代理则不然。然而需要与物理物体进行交互的机器——比如收割庄稼或者协助手术的机器人——必须能从它对 2D 训练图像的观察中推断出 3D 场景的特性。虽然科学家成功使用神经网络根据图像推断出 3D 场景的模型,但这种机器学习方法速度不够快,无法适用于很多现实世界的应用。MIT 等机构的研究人员展示的一项新技术能以比某些现有模型快 15,000 倍的速度从图像中展现 3D 场景。该方法将场景表示为一个 360 度的光场,一个函数描述了 3D 空间中流经每个点和每个方向的所有光线。光场被编码到一个神经网络中,可更快地从图像中渲染底层 3D 场景。
人工智能
wanwan(42055)
发表于2021年12月17日 17时27分 星期五
来自为了我们的家园
梅赛德斯奔驰成为首家满足 UN-R157 对 L3 自动驾驶系统法律要求的汽车公司。德国联邦汽车运输管理局 (KBA) 已批准了梅赛德斯的系统,为其国际推广铺平了道路——如果国家法律允许的话。德国在 2017 年制定了针对 L3 系统的道路交通法(StVG),成为自动驾驶立法方面的先锋。客户到 2022 年上半年将可购买配备Mercedes Drive Pilot 的 S级轿车,在交通拥堵或拥塞的情况下,在德国的适用高速公路路段上,有条件地使用自动驾驶模式以最高 60 公里/小时的速度行驶。戴姆勒和梅赛德斯-奔驰理事会成员、负责开发和采购的首席技术官 Markus Schäfer 表示:“我们多年来一直在努力实现自动驾驶愿景。通过这个基于激光雷达的系统,我们为车辆开发了一项创新技术,为客户提供独特、豪华的驾驶体验,并为他们提供最重要的东西:时间。经过当局的批准,我们现在取得了突破:我们是德国第一家将有条件自动驾驶投入量产的制造商。”尽管 Elon Musk 不断声称“完全自动驾驶”,特斯拉的系统仍然是 SAE L2,需要驾驶员监督(尽管有许多记录在案的案例没有这样做)。SAE 级别和 UN-R157 规范之间存在着一些差异。
人工智能
1
wanwan(42055)
发表于2021年12月17日 15时52分 星期五
来自哈尔的移动城堡
还记得 IBM Watson,“危机边缘(Jeopardy)”节目的 AI 冠军? 2010 年的一项宣传活动称:“Watson 理解具有各种歧义和复杂性的自然语言。”然而正如我们在 Watson 随后在试图“用人工智能彻底改变医学”惨败时看到的,浮于表面的语言能力实际上并不同于真正理解人类语言。

自然语言理解一直是人工智能研究的主要目标。起初研究人员试图手工编程机器理解新闻故事、小说或人类可能写出的任何其他内容所需的一切。正如 Watson 所展示的,这种做法是徒劳的——不可能写下理解文本需要的所有不成文的事实、规则和假设。最近确立的一种新范式是:我们不建立显性知识,而是让机器简单地摄取大量书面文本并学习预测单词,自己学习理解语言。结果就是研究人员所说的语言模型。使用 OpenAI 的 GPT-3 之类的大型神经网络,这类模型可以生成非常像是出自人类之手的散文和诗歌,并且似乎可进行复杂的语言推理。

但是用来自数千个网站、书籍和百科全书的文本进行训练的 GPT-3 是否超越了 Watson 浮于表面的理解能力?它真的理解自己生成的语言并进行推理吗?AI 研究界在这个问题上分歧明显。此类讨论曾是哲学家的领地,但过去十年,人工智能已从学术泡沫中迸发进入现实世界,它对现实世界缺乏了解可能会产生真实的、有时甚至是毁灭性的后果。在一项研究中,研究人员发现 IBM Watson 提出了“多项不安全和不正确的治疗建议”。另一项研究表明,Google 的机器翻译系统在为非英语患者翻译医疗说明时出现了重大错误。

我们在实践中如何才能确定机器是否能理解?1950 年,计算机先驱图灵(Alan Turing)试图用他著名的“模仿游戏”回答这个问题,模仿游戏现在被称为图灵测试。一台机器和一个人都隐藏在视线之外,两者彼此竞争,努力仅仅通过对话让人类裁判相信他/它是人。如果裁判无法判断两者中哪个是人类,那么图灵断言,我们应该认为机器是在思考——实际上,是在理解。不幸的是,图灵低估了人类被机器愚弄的倾向。
人工智能
wanwan(42055)
发表于2021年12月14日 15时42分 星期二
来自原罪之战:天赐之力
美国空军少将 Daniel Simpson 介绍了使用基于人工智能的实验性目标识别程序的经验,该程序自认为表现良好。Simpson表示,一开始,人工智能从一个传感器获得数据,该传感器以倾斜的角度寻找单个地对地导弹。然后它从另一个传感器接受数据,该传感器以接近垂直的角度寻找多枚导弹。他表示:“算法表现不佳。实际上它的准确率大约只有 25%。”据研究人员、前海军飞行员 Missy Cummings 在 2020 年的一份报告,这是有时被称为脆弱人工智能的一个例子,“当任何算法无法概括或适应一组狭窄假设之外的条件时就会发生”这种情况。Cummings 表示,当用于训练算法的数据包含过多来自某一特定有利位置的图像或传感器数据,而来自其他有利位置、距离或条件的数据不足时,就会变得脆弱。在无人驾驶汽车实验等环境中,研究人员只需收集更多的数据进行训练。但这在军事环境中非常困难,因为可能只有大量的、一种类型的数据——比如说高空卫星或者无人机图像——很少有任何其他类型的数据,因为它们在战场上没用。Simpson 表示,算法的准确率低并不是演习中最令人担忧的地方。虽然算法只有 25% 的时间是正确的,但他表示,“它确信它在 90% 的时间都是正确的,所以它肯定是错误的。这不是算法的错。这是因为我们给它提供了错误的训练数据。”
人工智能
wanwan(42055)
发表于2021年12月13日 18时45分 星期一
来自空中城堡
有没有因为一个人移动得太快而让一张本该完美的照片变模糊?科学家在记录蛋白质因为光改变结构的图像时遇到同样的问题。这个过程在自然界中很常见,多年来研究人员一直在试图捕捉它的细节。但他们长期以来一直被发生时的惊人速度挫败。

现在一组来自威斯康星大学密尔沃基分校(UWM)和德国 Deutsches Elektronen-Synchrotron 自由电子激光科学中心的研究人员将机器学习和量子力学计算结合起来,得到了迄今为止光活性黄蛋白(PYP)被光激发后最精确的结构变化记录。他们的研究发表在 11 月的《自然》期刊上,表明他们能将发生在几个飞秒内的过程制作成视频

当 PYP 吸收光时,它会吸收其能量,然后重新排列自身。由于该蛋白质在细胞内的功能是由其结构决定的,每当PYP在光照后折叠或弯曲,都会引起巨大的变化。UWM 的物理学家、研究合作者 Abbas Ourmazd 表示,蛋白质与光相互作用的一个重要例子是植物的光合作用。未参与研究的亚利桑那州立大学应用结构发现生物设计中心主任 Petra Fromme 解释说,更具体地说,PYP 类似于我们眼睛中的蛋白质,当一种叫做视网膜的蛋白质改变形状时,会激活感光细胞,帮助在夜间看到东西。Fromme 指出,PYP 的形状变化还有助于一些细菌检测到可能对其DNA造成损害的蓝光,从而躲开它。

多年来,这种重要的光诱导分子形状转变(称为异构化)的细节一直困扰着科学家。Fromme 表示:“你看任何一本教科书,都会说这种异构化会在光激发后的瞬间发生。”但是对于科学家来说,“瞬间”并不是无法量化的——蛋白质结构的变化在极短的时间内发生——被称为飞秒或千万亿分之一秒。Fromme表示,一秒之于飞秒就相当于 3200 万年之于一秒。

科学家用同样短的X射线闪光实验性地探测这些短得令人难以置信的时间尺度。新研究使用了一个研究团队在加利福尼亚 SLAC 国家加速器实验室的一个特殊设施中以这种方式获得的数据,团队是由 UWM 物理学家 Marius Schmidt 领导。研究人员首先用光照射 PYP。然后用超短 X 射线爆击中它。从蛋白质反射回来的 X 射线(成为衍射X射线)反映了它的最新结构,这和从物体发射的光帮助拍摄传统照片的方式是一样的。脉冲的短暂性使科学家能在蛋白质的所有原子移动时获得位置的快照,这种方式类似于具有速度非常快的快门可以在猎豹奔跑时捕捉到它的腿的不同位置。
人工智能
WinterIsComing(31822)
发表于2021年12月09日 15时37分 星期四
来自苹果树下的宇宙飞船
语言生成是 AI 领域的大热门,从改进 Google 搜索引擎到创建基于文本的幻想游戏,被称为“大型语言模型”(或 LLM)系统的应用包罗万象。但是这些程序存在严重问题,包括反刍性别歧视和种族主义语言以及不能通过逻辑推理测试等。一大问题是:简单增加数据和计算能力是否能改善这些弱点,还是已到达技术范式的极限?这是 Alphabet 的 AI 实验室 DeepMind 发表的三篇研究论文探讨的主题之一。该公司的结论是,进一步扩大系统会带来很多改进。DeepMind 研究科学家 Jack Rae 在简报电话会议中告诉记者:“论文的一个关键发现是,大型语言模型的能力仍然在提高,它们在不断进步。这个领域并没有停滞不前。”

定期将工作成果馈送给 Google 产品的 DeepMind 构建了一个名为 Gopher 的语言模型研究此类 LLM,该模型具有 2800 亿个参数。参数可以快速衡量语言模型的规模和复杂程度,这意味着 Gopher 比 OpenAI 的 GPT-3(1750 亿个参数)更大,但却比不上一些更具实验性的系统,例如微软和 Nvidia 的 Megatron 模型(5300 亿个参数)。在 AI 世界中,越大越好,通常是正确的,更大的模型通常能提供更好的性能。DeepMind 的研究证实了这一趋势,并表明在最常见的基准测试(如情感分析和总结)上,扩大 LLM 的规模确实可提高性能。研究人员也提醒说,要想解决语言模型固有的一些问题,需要的不仅仅是数据和计算。
人工智能
wanwan(42055)
发表于2021年12月08日 18时11分 星期三
来自动物庄园
人工智能可以看到我们看不到的东西——这通常是不利的。虽然机器擅长识别图像,但愚弄它们仍然很容易。只要在输入的图像中添加少量人眼无法察觉的噪声,AI 就会突然将校车、狗或者建筑物识别为完全不同的对象,比如鸵鸟。

6 月发表在预印本服务 arxiv 的一篇论文中,多伦多大学的 Nicolas Papernot 和同事研究了不同类型的语言处理机器学习模型,找到一种方法,用对人类不可见的方式干预输入文本以进行欺骗。只有在计算机读取文本背后的代码并将字母映射到内存中的字节时,这些隐藏的指令才会被计算机看见。Papernot 的团队表明,即使是少量添加,例如单个空格字符,也会严重破坏模型对文本的理解。混淆也会对人类用户产生影响——在一个例子中,单个字符导致算法输出一个句子,让用户向错误的银行账户汇款。

这些欺骗行为被称为对抗样本攻击,故意改变输入欺骗算法并使其出错。2013 年,研究人员欺骗了一个深度神经网络(一种具有多层人工“神经元”来执行计算的机器学习模型),让此类漏洞在AI研究中变得突出。

目前,我们还没有万无一失的解决方案能够抵挡各种对抗样本媒体——图像、文本或其他形式。但希望已经出现。对于图像识别,研究人员可以故意用对抗图像训练深度神经网络,它就能更轻松地看待它们。不幸的是,这种被称为对抗性训练的方法只能很好地抵抗模型已见过的对抗样本。此外它降低了模型在非对抗性图像上的准确性,并且计算成本高昂。人类很少被这样的攻击欺骗,这个事实让科学家开始寻找受到生物视觉启发的解决方案
人工智能
WinterIsComing(31822)
发表于2021年12月06日 22时06分 星期一
来自洛基启示录
UCLA 和 Google Research 的研究人员在预印本网站发表论文《Reduced, Reused and Recycled: The Life of a Dataset in Machine Learning Research》(PDF),指出机器学习研究领域被少数开源数据集支配的现状。研究人员分析了 2015-2020 年之间不同机器学习社区使用的数据集,发现少数数据集被集中使用。在分析 43,140 个样本中,超过五成使用的数据集来自于 12个精英机构。研究人员认为这种高度集中化的趋势带来了实用性、伦理甚至政治方面的问题。研究人员称,计算机视觉受政府影响最大,自然语言处理受最少影响。计算机视觉尤其是脸部识别领域常用的数据集得到了企业、美国军方和中国政府(MS-Celeb-1M、 CASIA-Webface、IJB-A、VggFace2,其中 MS-Celeb-1M 因隐私争议被撤回)的资助。
人工智能
1
wanwan(42055)
发表于2021年12月06日 19时50分 星期一
来自梦海
算法在生活中扮演的作用越来越重要,即使其缺陷越来越明显:一名被错误指控欺诈的密歇根男子不得不申请破产;自动筛选工具不成比例地伤害想要买房或租房的有色人种;Facebook 的黑人用户比白人用户受到更多的辱骂。其他自动化系统不公正地对教师、学生进行评分,频繁地将深色皮肤的人标记为在考试中作弊。现在人们努力更好地了解人工智能的工作原理并让用户负责。纽约市议会上个月通过一项法律,要求对雇主在在招聘或晋升时使用的算法进行审查。该法律在全美尚属首例,要求雇主引入外部人员评估算法是否存在性别、种族或民族方面的偏见。如果人工智能在雇佣和晋升决策过程中发挥作用,雇主还必须告知居住在纽约的求职者。在华盛顿特区,国会议员正在起草一项法案,要求企业评估用于医疗保健、住房、就业或教育等领域的自动化决策系统,将调查结果报告给联邦贸易委员会(FTC); FTC 的五个成员中有三个支持对算法进行更严格的监管。白宫上个月提出的人工智能权利法案要求如果人工智能做出影响一个人的公民权利的决定,需要进行披露,表示人工智能系统应该“仔细审核”其准确性和偏见等问题。
人工智能
WinterIsComing(31822)
发表于2021年12月02日 22时31分 星期四
来自布兰尼肯夫人
Alphabet 旗下 DeepMind 公司的 AI 技术帮助数学家发现了新猜想和定理。 从 1960 年代开始,数学家开始使用计算机帮助发现规律和提出猜想,但人工智能系统尚未普遍应用于理论数学研究领域。 论文通讯作者、DeepMind 的 Alex Davies 和数学家一起建立了一个机器学习框架,用于协助数学研究。他们的算法搜索数学对象间潜在的规律和联系,尝试寻找意义。其后由数学家接手,利用这些观察来引导他们对潜在猜想的直觉。他们将机器学习框架这一方法应用于两个纯数学领域,发现了拓扑学(对几何形状性质的研究)的一个新定理,以及一个表示论(代数系统研究)的新猜想。他们总结认为,机器学习框架能鼓励未来数学和人工智能领域的合作。