solidot新版网站常见问题,请点击这里查看。
人工智能
wanwan(42055)
发表于2021年12月17日 17时27分 星期五
来自为了我们的家园
梅赛德斯奔驰成为首家满足 UN-R157 对 L3 自动驾驶系统法律要求的汽车公司。德国联邦汽车运输管理局 (KBA) 已批准了梅赛德斯的系统,为其国际推广铺平了道路——如果国家法律允许的话。德国在 2017 年制定了针对 L3 系统的道路交通法(StVG),成为自动驾驶立法方面的先锋。客户到 2022 年上半年将可购买配备Mercedes Drive Pilot 的 S级轿车,在交通拥堵或拥塞的情况下,在德国的适用高速公路路段上,有条件地使用自动驾驶模式以最高 60 公里/小时的速度行驶。戴姆勒和梅赛德斯-奔驰理事会成员、负责开发和采购的首席技术官 Markus Schäfer 表示:“我们多年来一直在努力实现自动驾驶愿景。通过这个基于激光雷达的系统,我们为车辆开发了一项创新技术,为客户提供独特、豪华的驾驶体验,并为他们提供最重要的东西:时间。经过当局的批准,我们现在取得了突破:我们是德国第一家将有条件自动驾驶投入量产的制造商。”尽管 Elon Musk 不断声称“完全自动驾驶”,特斯拉的系统仍然是 SAE L2,需要驾驶员监督(尽管有许多记录在案的案例没有这样做)。SAE 级别和 UN-R157 规范之间存在着一些差异。
人工智能
1
wanwan(42055)
发表于2021年12月17日 15时52分 星期五
来自哈尔的移动城堡
还记得 IBM Watson,“危机边缘(Jeopardy)”节目的 AI 冠军? 2010 年的一项宣传活动称:“Watson 理解具有各种歧义和复杂性的自然语言。”然而正如我们在 Watson 随后在试图“用人工智能彻底改变医学”惨败时看到的,浮于表面的语言能力实际上并不同于真正理解人类语言。

自然语言理解一直是人工智能研究的主要目标。起初研究人员试图手工编程机器理解新闻故事、小说或人类可能写出的任何其他内容所需的一切。正如 Watson 所展示的,这种做法是徒劳的——不可能写下理解文本需要的所有不成文的事实、规则和假设。最近确立的一种新范式是:我们不建立显性知识,而是让机器简单地摄取大量书面文本并学习预测单词,自己学习理解语言。结果就是研究人员所说的语言模型。使用 OpenAI 的 GPT-3 之类的大型神经网络,这类模型可以生成非常像是出自人类之手的散文和诗歌,并且似乎可进行复杂的语言推理。

但是用来自数千个网站、书籍和百科全书的文本进行训练的 GPT-3 是否超越了 Watson 浮于表面的理解能力?它真的理解自己生成的语言并进行推理吗?AI 研究界在这个问题上分歧明显。此类讨论曾是哲学家的领地,但过去十年,人工智能已从学术泡沫中迸发进入现实世界,它对现实世界缺乏了解可能会产生真实的、有时甚至是毁灭性的后果。在一项研究中,研究人员发现 IBM Watson 提出了“多项不安全和不正确的治疗建议”。另一项研究表明,Google 的机器翻译系统在为非英语患者翻译医疗说明时出现了重大错误。

我们在实践中如何才能确定机器是否能理解?1950 年,计算机先驱图灵(Alan Turing)试图用他著名的“模仿游戏”回答这个问题,模仿游戏现在被称为图灵测试。一台机器和一个人都隐藏在视线之外,两者彼此竞争,努力仅仅通过对话让人类裁判相信他/它是人。如果裁判无法判断两者中哪个是人类,那么图灵断言,我们应该认为机器是在思考——实际上,是在理解。不幸的是,图灵低估了人类被机器愚弄的倾向。
人工智能
wanwan(42055)
发表于2021年12月14日 15时42分 星期二
来自原罪之战:天赐之力
美国空军少将 Daniel Simpson 介绍了使用基于人工智能的实验性目标识别程序的经验,该程序自认为表现良好。Simpson表示,一开始,人工智能从一个传感器获得数据,该传感器以倾斜的角度寻找单个地对地导弹。然后它从另一个传感器接受数据,该传感器以接近垂直的角度寻找多枚导弹。他表示:“算法表现不佳。实际上它的准确率大约只有 25%。”据研究人员、前海军飞行员 Missy Cummings 在 2020 年的一份报告,这是有时被称为脆弱人工智能的一个例子,“当任何算法无法概括或适应一组狭窄假设之外的条件时就会发生”这种情况。Cummings 表示,当用于训练算法的数据包含过多来自某一特定有利位置的图像或传感器数据,而来自其他有利位置、距离或条件的数据不足时,就会变得脆弱。在无人驾驶汽车实验等环境中,研究人员只需收集更多的数据进行训练。但这在军事环境中非常困难,因为可能只有大量的、一种类型的数据——比如说高空卫星或者无人机图像——很少有任何其他类型的数据,因为它们在战场上没用。Simpson 表示,算法的准确率低并不是演习中最令人担忧的地方。虽然算法只有 25% 的时间是正确的,但他表示,“它确信它在 90% 的时间都是正确的,所以它肯定是错误的。这不是算法的错。这是因为我们给它提供了错误的训练数据。”
人工智能
wanwan(42055)
发表于2021年12月13日 18时45分 星期一
来自空中城堡
有没有因为一个人移动得太快而让一张本该完美的照片变模糊?科学家在记录蛋白质因为光改变结构的图像时遇到同样的问题。这个过程在自然界中很常见,多年来研究人员一直在试图捕捉它的细节。但他们长期以来一直被发生时的惊人速度挫败。

现在一组来自威斯康星大学密尔沃基分校(UWM)和德国 Deutsches Elektronen-Synchrotron 自由电子激光科学中心的研究人员将机器学习和量子力学计算结合起来,得到了迄今为止光活性黄蛋白(PYP)被光激发后最精确的结构变化记录。他们的研究发表在 11 月的《自然》期刊上,表明他们能将发生在几个飞秒内的过程制作成视频

当 PYP 吸收光时,它会吸收其能量,然后重新排列自身。由于该蛋白质在细胞内的功能是由其结构决定的,每当PYP在光照后折叠或弯曲,都会引起巨大的变化。UWM 的物理学家、研究合作者 Abbas Ourmazd 表示,蛋白质与光相互作用的一个重要例子是植物的光合作用。未参与研究的亚利桑那州立大学应用结构发现生物设计中心主任 Petra Fromme 解释说,更具体地说,PYP 类似于我们眼睛中的蛋白质,当一种叫做视网膜的蛋白质改变形状时,会激活感光细胞,帮助在夜间看到东西。Fromme 指出,PYP 的形状变化还有助于一些细菌检测到可能对其DNA造成损害的蓝光,从而躲开它。

多年来,这种重要的光诱导分子形状转变(称为异构化)的细节一直困扰着科学家。Fromme 表示:“你看任何一本教科书,都会说这种异构化会在光激发后的瞬间发生。”但是对于科学家来说,“瞬间”并不是无法量化的——蛋白质结构的变化在极短的时间内发生——被称为飞秒或千万亿分之一秒。Fromme表示,一秒之于飞秒就相当于 3200 万年之于一秒。

科学家用同样短的X射线闪光实验性地探测这些短得令人难以置信的时间尺度。新研究使用了一个研究团队在加利福尼亚 SLAC 国家加速器实验室的一个特殊设施中以这种方式获得的数据,团队是由 UWM 物理学家 Marius Schmidt 领导。研究人员首先用光照射 PYP。然后用超短 X 射线爆击中它。从蛋白质反射回来的 X 射线(成为衍射X射线)反映了它的最新结构,这和从物体发射的光帮助拍摄传统照片的方式是一样的。脉冲的短暂性使科学家能在蛋白质的所有原子移动时获得位置的快照,这种方式类似于具有速度非常快的快门可以在猎豹奔跑时捕捉到它的腿的不同位置。
人工智能
WinterIsComing(31822)
发表于2021年12月09日 15时37分 星期四
来自苹果树下的宇宙飞船
语言生成是 AI 领域的大热门,从改进 Google 搜索引擎到创建基于文本的幻想游戏,被称为“大型语言模型”(或 LLM)系统的应用包罗万象。但是这些程序存在严重问题,包括反刍性别歧视和种族主义语言以及不能通过逻辑推理测试等。一大问题是:简单增加数据和计算能力是否能改善这些弱点,还是已到达技术范式的极限?这是 Alphabet 的 AI 实验室 DeepMind 发表的三篇研究论文探讨的主题之一。该公司的结论是,进一步扩大系统会带来很多改进。DeepMind 研究科学家 Jack Rae 在简报电话会议中告诉记者:“论文的一个关键发现是,大型语言模型的能力仍然在提高,它们在不断进步。这个领域并没有停滞不前。”

定期将工作成果馈送给 Google 产品的 DeepMind 构建了一个名为 Gopher 的语言模型研究此类 LLM,该模型具有 2800 亿个参数。参数可以快速衡量语言模型的规模和复杂程度,这意味着 Gopher 比 OpenAI 的 GPT-3(1750 亿个参数)更大,但却比不上一些更具实验性的系统,例如微软和 Nvidia 的 Megatron 模型(5300 亿个参数)。在 AI 世界中,越大越好,通常是正确的,更大的模型通常能提供更好的性能。DeepMind 的研究证实了这一趋势,并表明在最常见的基准测试(如情感分析和总结)上,扩大 LLM 的规模确实可提高性能。研究人员也提醒说,要想解决语言模型固有的一些问题,需要的不仅仅是数据和计算。
人工智能
wanwan(42055)
发表于2021年12月08日 18时11分 星期三
来自动物庄园
人工智能可以看到我们看不到的东西——这通常是不利的。虽然机器擅长识别图像,但愚弄它们仍然很容易。只要在输入的图像中添加少量人眼无法察觉的噪声,AI 就会突然将校车、狗或者建筑物识别为完全不同的对象,比如鸵鸟。

6 月发表在预印本服务 arxiv 的一篇论文中,多伦多大学的 Nicolas Papernot 和同事研究了不同类型的语言处理机器学习模型,找到一种方法,用对人类不可见的方式干预输入文本以进行欺骗。只有在计算机读取文本背后的代码并将字母映射到内存中的字节时,这些隐藏的指令才会被计算机看见。Papernot 的团队表明,即使是少量添加,例如单个空格字符,也会严重破坏模型对文本的理解。混淆也会对人类用户产生影响——在一个例子中,单个字符导致算法输出一个句子,让用户向错误的银行账户汇款。

这些欺骗行为被称为对抗样本攻击,故意改变输入欺骗算法并使其出错。2013 年,研究人员欺骗了一个深度神经网络(一种具有多层人工“神经元”来执行计算的机器学习模型),让此类漏洞在AI研究中变得突出。

目前,我们还没有万无一失的解决方案能够抵挡各种对抗样本媒体——图像、文本或其他形式。但希望已经出现。对于图像识别,研究人员可以故意用对抗图像训练深度神经网络,它就能更轻松地看待它们。不幸的是,这种被称为对抗性训练的方法只能很好地抵抗模型已见过的对抗样本。此外它降低了模型在非对抗性图像上的准确性,并且计算成本高昂。人类很少被这样的攻击欺骗,这个事实让科学家开始寻找受到生物视觉启发的解决方案
人工智能
WinterIsComing(31822)
发表于2021年12月06日 22时06分 星期一
来自洛基启示录
UCLA 和 Google Research 的研究人员在预印本网站发表论文《Reduced, Reused and Recycled: The Life of a Dataset in Machine Learning Research》(PDF),指出机器学习研究领域被少数开源数据集支配的现状。研究人员分析了 2015-2020 年之间不同机器学习社区使用的数据集,发现少数数据集被集中使用。在分析 43,140 个样本中,超过五成使用的数据集来自于 12个精英机构。研究人员认为这种高度集中化的趋势带来了实用性、伦理甚至政治方面的问题。研究人员称,计算机视觉受政府影响最大,自然语言处理受最少影响。计算机视觉尤其是脸部识别领域常用的数据集得到了企业、美国军方和中国政府(MS-Celeb-1M、 CASIA-Webface、IJB-A、VggFace2,其中 MS-Celeb-1M 因隐私争议被撤回)的资助。
人工智能
1
wanwan(42055)
发表于2021年12月06日 19时50分 星期一
来自梦海
算法在生活中扮演的作用越来越重要,即使其缺陷越来越明显:一名被错误指控欺诈的密歇根男子不得不申请破产;自动筛选工具不成比例地伤害想要买房或租房的有色人种;Facebook 的黑人用户比白人用户受到更多的辱骂。其他自动化系统不公正地对教师、学生进行评分,频繁地将深色皮肤的人标记为在考试中作弊。现在人们努力更好地了解人工智能的工作原理并让用户负责。纽约市议会上个月通过一项法律,要求对雇主在在招聘或晋升时使用的算法进行审查。该法律在全美尚属首例,要求雇主引入外部人员评估算法是否存在性别、种族或民族方面的偏见。如果人工智能在雇佣和晋升决策过程中发挥作用,雇主还必须告知居住在纽约的求职者。在华盛顿特区,国会议员正在起草一项法案,要求企业评估用于医疗保健、住房、就业或教育等领域的自动化决策系统,将调查结果报告给联邦贸易委员会(FTC); FTC 的五个成员中有三个支持对算法进行更严格的监管。白宫上个月提出的人工智能权利法案要求如果人工智能做出影响一个人的公民权利的决定,需要进行披露,表示人工智能系统应该“仔细审核”其准确性和偏见等问题。
人工智能
WinterIsComing(31822)
发表于2021年12月02日 22时31分 星期四
来自布兰尼肯夫人
Alphabet 旗下 DeepMind 公司的 AI 技术帮助数学家发现了新猜想和定理。 从 1960 年代开始,数学家开始使用计算机帮助发现规律和提出猜想,但人工智能系统尚未普遍应用于理论数学研究领域。 论文通讯作者、DeepMind 的 Alex Davies 和数学家一起建立了一个机器学习框架,用于协助数学研究。他们的算法搜索数学对象间潜在的规律和联系,尝试寻找意义。其后由数学家接手,利用这些观察来引导他们对潜在猜想的直觉。他们将机器学习框架这一方法应用于两个纯数学领域,发现了拓扑学(对几何形状性质的研究)的一个新定理,以及一个表示论(代数系统研究)的新猜想。他们总结认为,机器学习框架能鼓励未来数学和人工智能领域的合作。
人工智能
wanwan(42055)
发表于2021年11月30日 18时58分 星期二
来自基因先知者
想象一下未来完全自主的自动驾驶汽车。如果一切按预期进行,早上的通勤将会是准备一天的会议、了解新闻或者坐下来放松的时机。但如果出现问题?当汽车接近红绿灯,但是刹车突然失灵,计算机不得不在瞬间做出决定。它可以突然转向附近的杆子并杀死乘客,或者继续前进杀死前方的行人。控制汽车的计算机只能使用汽车传感器收集的有限信息,据此做出决定。尽管这看起来很戏剧化,但我们距离可能面临这样的困境只有几年的时间。自动驾驶汽车通常会提供更安全的驾驶,但事故将不可避免——尤其是在可预见的未来,那时自主驾驶汽车与人类驾驶员和其他道路使用者将共享道路。
人工智能
wanwan(42055)
发表于2021年11月24日 20时34分 星期三
来自惊涛怪浪
一份工作的价值是否取决于能多长时间抵御自动化?疫情期间,我看到日益壮大的外卖骑手队伍:骑手们骑着电动自行车默默呼啸而过,为我所在城市里那些不想冒险出门的人们送去外卖。这些外卖骑手持续处于在餐食变冷之前完成取餐和送餐的压力之下,为最低工资辛勤工作。

过去送货是入门级职位,是入门的一种立足方式,类似邮件收发室的工作。今天它是一项独立的业务,Uber 和 Deliveroo 之类的大型上市公司为餐馆老板提供外送服务。通过这种外包,送货成为了一项没有尽头的工作。成功只意味着你可以在白班工作。

几年前,我们以为这些工作会消失——被 Level 4 和 Level 5 级的自动驾驶系统消灭。然而随着工程师更好地理解在挤满一些不理性人类驾驶员的道路上驾驶面临的巨大挑战,曾经看起来简单的任务现在看来几乎很难完成。

但一些长期以来被认为难以自动化的任务最近取得了巨大的飞跃。在 6 月底,GitHub 推出了 AI 工具Copilot:一双虚拟的眼睛,和开发者合作以保持代码干净并逻辑正确。Copilot 还不是一个完整的解决方案——它不会自己提出复杂的算法——但它向我们展示了自动化如何让较差的程序员变得更强大。

虽然大多数编程或文案工作不太可能很快由机器完成,但这些职业现在面临着来自自动化的真正竞争。用不了多久,微软和 Nvidia 的 Megatron-Turing Natural Language Generation(MT-NLG)之类的 AI 语言模型就能完成基本的商业文案写作。其他的写作工作——消化材料提取关键细节,用易懂的语言表达它们,然后准备出版——也正向自动化投降。这一变革性飞跃的要素已经就绪。

大多数编程和文案工作不太可能很快由机器完成,但越来越多的部分会这样。这些职业现在面临着来自自动化的真正竞争。矛盾的是,至少接下来几年,骑车送外卖看起来仍然需要人的头脑来驾驭车把手。在软件吞噬一切的世界中,那些无法消化的部分继续需要人类的关注。这种关注需要人们的时间——他们可以以此为生。我们为人类完成工作支付的费用将越来越多地用机器执行该任务的成本衡量。毫无疑问,一些白领工人会受到来自机器的、新形式的竞争影响。

一个世纪前,随着农业实现机械化,农业劳动力面临过类似的贬值。几十年来,无数的制造业工作屈服于工厂自动化,但特斯拉的生产问题显示当你试图在工厂车间过度推进自动化时会发生什么。路德派(译注:该派别强烈反对机械化和自动化)的历史恰如其分地显示出,机器和人类劳动之间的紧张关系并不是新鲜事——但是它现在再一次加剧,这一次冲击了知识工作的核心。

为了领先机器一步,我们需要找到困难的部分,并保持处理它们所需的技能。创造力、洞察力、智慧和同理心——这些才能完全是人性的,并且有望在未来继续保持这一点。如果我们倾向于这些特质,我们就可以抵抗机器在竞争中的崛起。
人工智能
wanwan(42055)
发表于2021年11月19日 20时10分 星期五
来自海底两万里
我不是 Alexa 的粉丝,也不是 Google Assistant 的粉丝。或者事实上我也不是家中始终处于激活状态的任何联网摄像头或者麦克风的粉丝。我不使用声控系统,虽然需要用网络摄像头,但会确保在不使用时把它从计算机上拔下来。我是不是过于偏执了?也许吧。但是我觉得有一点担心是合理的,就智能助理迄今所提供的服务而言,这种担心不断萦绕在脑海可能不太值得。

iRobot 首席执行官 Colin Angle 不这么认为。上周 iRobot 宣布“与亚马逊合作,进一步推进家用机器人的语音智能”。iRobot 解释说,语音控制之所以重要,是因为它的机器人扫地机 Roomba 正变得非常非常复杂。最新款比以往更了解我们的家,有地图和物体识别功能,还有各种复杂和智能的行为和调度选项。iRobot 有一个应用程序,竭尽全力简化这个流程,让你的 Roomba 能完全按照你的意愿工作,但你仍然需要定期在应用程序中设定。这给 iRobot 带来了问题,它现在必须将所有这些非常酷的新功能与他们最初的机器人概念结合起来,我仍然记得最初也是最好的方式是只有一个你可以按下的按钮,上面用漂亮的大写字体写着“清洁”。

iRobot 认为语音控制是解决问题的答案。它迅速而直观,只要在你告诉机器人要做什么和机器人实际 做什么之间有一个可靠的映射,它看起来会非常成功——当然,如果你愿意让 Alexa 作为协调者的话。
人工智能
WinterIsComing(31822)
发表于2021年11月12日 16时46分 星期五
来自方舟
研究表明,用于诊断皮肤癌的 AI 系统对深色皮肤的人不太准确

AI 的潜力推动了其在医疗保健领域的发展,有研究表明,基于机器学习算法的图像识别技术可以像人类专家一样成功地对皮肤癌进行分类。NHS 信托开始探索用 AI 帮助皮肤科医生对皮肤病变患者进行分类。但研究人员表示,可用于开发或“训练”皮肤癌诊断 AI 系统的免费图像数据库中很少包含多种族或皮肤类型的信息,要想确保该 AI 技术能惠及所有的患者,还需要做更多的工作。图库中确实很少有深色皮肤的人的图像。

研究第一作者、牛津大学的 David Wen 博士表示:“你可能会遇到这样的情况,监管机构会说,因为这个算法只针对浅肤色的人的图像进行过训练,所以你只能将它用于浅肤色的人,因此这可能会导致某些人群被排除在获批进行临床使用的算法之外。或者如果监管机构更放松一点并说:‘好吧,你可以(针对所有的而患者)使用它’,那么对于没有那么多训练图像的人群来说,算法可能无法准确执行。”研究小组表示,这可能会带来其他问题,包括实施本可避免的手术,错过本该治疗的癌症,引起不必要的焦虑等风险。
人工智能
wanwan(42055)
发表于2021年11月09日 19时48分 星期二
来自太空谜案3
司机管汽车,让它直行并远离麻烦,这是老派的想法。在智能汽车的新时代,汽车将管司机。我们谈论的不是大家现在熟悉的辅助驾驶技术,这些技术帮助保持车道内行驶或靠路边停车。我们谈论的是汽车通过识别司机的情绪和认知状态,防止他们做出任何危险的事情。

市场上有一些基本的司机监控工具。大部分系统都使用安装在方向盘上的摄像头,跟踪眼球运动和眨眼频率,以确定此人是否有障碍——可能是注意力不集中、昏昏欲睡或者是喝醉了。

但是汽车行业开始意识到,障碍测量并不仅仅是要确保司机的眼睛盯在路面上,它需要的不仅仅是盯住司机。监控系统需要深入了解整个车辆以及车里每一个人的状态,以全面了解是什么影响了司机的行为,以及该行为对安全的影响。

汽车制造商正朝着这个方向推动监管。欧洲安全评级系统“欧洲新车评估计划”(NCAP)于 2020 年更新了其协议,开始根据先进的乘员状态监控对汽车进行评级。为了获得令人梦寐以求的五星级评级,汽车制造商需要开发出能检测司机疲劳和分心的技术。从 2022 年开始,Euro NCAP 将为车内独自留守儿童检测技术授予评级积分,通过向车主或应急服务机构发出警报,这类技术可能会防止因中暑而导致的悲剧性死亡。

部分汽车制造商现在正在将摄像头移到后视镜上。借助新的视角,工程师可以开发出新的系统,不仅能检测到人的情绪和认知状态,还可以检测到他们的行为、活动,还有彼此之间以及与车内物体的交互。这样的车载“老大哥”听上去可能有些令人毛骨悚然,但它可以挽救无数人的生命。
人工智能
wanwan(42055)
发表于2021年11月08日 16时00分 星期一
来自布兰尼肯夫人
一只野熊闯入一辆停放的汽车寻找食物。AI 专家 Lance Eliot 由此提出了一个问题:自动驾驶汽车能应付熊吗

自动驾驶汽车的 AI 系统是完整的。一辆停着的自动驾驶汽车可以变成移动的汽车。如果自动驾驶汽车利用它的物体检测系统,即使是停放着,AI 驾驶能力也会在(假设的)碰撞即将发生时得到警报。AI 开发人员估计,AI 驾驶系统可能会激活自汽车,试图快速驶离,以躲开即将撞过来的人类驾驶汽车。

遭遇熊是一个边缘案例。想象一辆自动驾驶汽车停在森林旁边。人类徒步旅行者离开汽车徒步到了树林深处的某个地方。一只熊晃晃悠悠地进入停车场,寻找免费的吃食。如果 AI 驾驶系统正在使用物体检测功能,很可能会检测到这只熊。如果熊决定直接走向汽车,AI 系统可能会激活躲开这只熊。 目前还不清楚熊是否会以某种方式猜到汽车能自行移动。有理由认为熊会担心那些免费的餐盒(带轮子的)好像会在它接近时移开。这可能会让部分熊死心,它们会避开停放着的汽车。另一部分熊则可能会把这变成一场游戏。有点像捉迷藏的游戏。靠近一辆车,它开走了。好玩!走到车旁,看 看它接下来往哪个方向走。在停车场度过了一段美好的时光,这是肯定的。 如果我们讲的是毛茸茸的熊的故事的话。

自动驾驶汽车的内部设计很可能与传统的人类驾驶汽车不同。如它不需要方向盘,也不需要踏板。开阔的内部也许可以容纳旋转座椅,也可能是斜倚座椅,这样你就可以在自动驾驶汽车的长途旅行中睡觉。考虑到这种内部设计,熊肯定会在自动驾驶汽车上找到比传统人类驾驶汽车更舒服的东西。接下来熊会爱上自动驾驶汽车,因为它是一个安静、宽敞、安全的地方,可休息和放松。无需担心掠食者的攻击,还能享受豪华宽敞的内部空间。

第二个问题是熊是否会弄清楚如何与 AI 驾驶系统进行通信。你知道,熊是相当敏锐的。也许一只真正有进取心的熊可以说服 AI,让自动驾驶汽车载着它来一段舒舒服服的旅行。 如果你开始看到熊乘坐着自动驾驶汽车四处行驶,请不要感到特别惊讶。 请记住,你是首先在这里听说的。
人工智能
wanwan(42055)
发表于2021年11月02日 17时14分 星期二
来自探寻者
一组研究人员构建了一个机器学习系统扫描卫星图像,寻找大于 10 千瓦的太阳能发电设施,使用的计算量相当于人类寿命的好几倍。研究报告发表在《自然》期刊上。 团队成员、牛津大学气候变化/人工智能研究员 Lucas Kruitwagen 透露了他们的发现。“我们搜索了地球陆地表面大约一半的面积,过滤了人烟稀少的偏远地区。”

我们共检测到 68,661 个太阳能设施。根据这些设施的面积,控制了机器学习系统中的不确定性,我们估算出到 2018 年年底,全球总装机容量为 423 吉瓦。这与国际可再生能源机构(IRENA)同期 420 吉瓦的估计非常接近。研究表明,从 2016 年至 2018 年间,太阳能光伏发电能力大幅增长了 81%,我们为这段时期的图像添加了时间戳。这种增长尤其受到印度(184%)、土耳其(143%)、中国(120%)和日本(119%)的引领。设施的规模差异很大,从智利、南非、印度和中国西北部的吉瓦级沙漠设施到加利福尼亚和德国的商业和工业屋顶装置,还有北卡罗来纳州和英格兰的城市拼凑装置以及韩国和日本的农村拼凑装置。

使用卫星图像的旧目录,我们能估计出 30% 设施的安装日期。这样的数据让我们能够研究导致太阳能扩散的精确条件,并将帮助政府更好地设计补贴以鼓励更快的增长。了解设施的位置还让我们能够研究太阳能发电增长的意外后果。研究中我们发现太阳能发电厂最常见于农业地区,其次是草原和沙漠。 这凸显出需要仔细考虑未来几十年太阳能光伏发电能力扩大十倍将对粮食系统、生物多样性和弱势群体土地使用产生的影响。政策制定者可以提供激励措施,改为在屋顶安装太阳能发电装置,从而减少土地使用竞争,或考虑选择其他的可再生能源。
人工智能
wanwan(42055)
发表于2021年10月28日 17时41分 星期四
来自刀剑神域进击篇05
卡内基梅隆大学(CMU)的研究人员挑战一个长期以来的假设,即在使用机器学习做公共政策决策时,要在准确性和公平性之间进行权衡。 随着刑事司法、招聘、医疗保健服务和社会服务干预等领域对机器学习的使用不断增加,人们愈来愈担心此类应用会引入新的或者扩大现有的不平等,特别是针对少数族裔和经济劣势人群。为了防止此类偏见,机器学习系统的数据、标签、模型训练、评分系统等方面都进行了一些调整。基本的理论假设是这些调整让系统变得不太准确。

卡内基梅隆的一个团队希望通过一项新的研究消除这些假设,研究论文发表在《Nature Machine Intelligence》上。 研究人员发现,针对准确性进行优化的模型——机器学习的标准实践——可以有效地预测感兴趣的结果,但在干预建议方面表现出相当大的差异。当研究人员对旨在提高公平性的模型的输出进行调整时,他们发现基于种族、年龄或收入的差异(视情况而定)的不平等可以被消除,而且不会降低准确性。
人工智能
wanwan(42055)
发表于2021年10月27日 16时11分 星期三
来自星火
我们是如何说话和阅读的?看似简单的问题推动了 MIT 的一项研究,研究人员使用 AI 模型检查大脑如何以及为什么理解语言。大脑的工作方式可能类似于智能手机的自动更正功能研究论文发表在《National Academy of Sciences》期刊上,显示 AI 语言模型的功能类似于人脑中的语言处理方法,这表明人脑可能使用对下一个单词的预测处理语言。

在新研究中,MIT 的一组研究人员分析了 43 种不同的语言模型,许多模型都对下一个单词预测进行了优化。这些模型包括可以在得到提示时生成逼真文本的GPT-3(Generative Pre-trained Transformer 3),以及其他一些旨在提供填空功能的模型。研究人员给每个模型展示了一串单词,以测量其神经节点的活动。接着他们把这些模式同受试者在完成语言任务时候的人脑活动进行比较——受试者被要求完成听、阅读完整的句子,以及一次阅读一个单词等语言任务。研究表明,表现最好的下一个单词预测模型的活动模式与人类大脑的活动模式高度相似。此外这些模型中的活动也与人类行为指标相关,比如人们阅读文本的速度。

结果表明,下一个单词预测是语言处理中的一项关键功能,这一结论支持了之前提出但尚未得到证实的一项假设。科学家还没有发现任何进行此类处理的大脑回路或机制。研究者未来计划构建一些下一个单词预测模型的变体,以了解每个模型之间的微小变化会如何影响其处理能力。他们还计划将这些语言模型与为了完成其他类大脑任务(例如对物理世界的感知)而设计的模型结合起来。
人工智能
wanwan(42055)
发表于2021年10月27日 15时50分 星期三
来自智者之惧
在酒店和公寓大楼等垂直领域之后,亚马逊宣布了针对医疗保健服务商和老年生活中心推出新的解决方案。这些解决方案是 Alexa Smart Properties 的一部分,专为满足大规模部署 Alexa 设备的需求设计,允许设施管理员为其居民或者患者创建个性化的体验。在老年生活中心,居民将能使用 Alexa 设备给家人和其他亲人打电话,了解所在社区的动态和其他社区新闻。设备还可用于发布公告,允许居民直接通过音频消息相互交流,可进行音频和视频通话,它们还可以简化其他中心活动——例如登记、维护请求和各种管理任务。亚马逊认为这可以帮助提高设施的效率和生产力。它表示包括 Atria 和 Eskaton 在内的老年生活社区将采用新解决方案。

利用亚马逊为医院提供的新解决方案,患者将能使用 Alexa 与医护人员进行交流、控制房间内的设备,享受新闻和音乐带来的乐趣。医疗保健服务商还可以使用 Alexa 的呼叫和 Drop-In 等功能,无需进入病房就能同患者进行交流。亚马逊表示,这可以帮助医院提高生产力,节省医疗用品以及手套、口罩和防护服等防护用品。由于新冠疫情,部分地方的个人防护用品一直处于短缺状态。亚马逊一直在努力解决录音和转录相关的隐私问题,该公司解释称,医疗保健和老年生活中心解决方案都不会保存录音,用户也不需要与 Alexa 共享个人信息即可使用这些设备。用户可以随时按顶部的按钮让 Echo 的麦克风静音。亚马逊表示将保障受保护健康信息的安全,这些信息经由 Alexa 的技能交互收集,符合《健康保险流通与责任法案》(HIPAA)的要求。亚马逊透露,这两种新的 Alexa Smart Properties 解决方案下月将在美推出。
人工智能
wanwan(42055)
发表于2021年10月25日 14时43分 星期一
来自摩若博士岛
亿万富翁 Peter Thiel 相信,“相比于通用人工智能(AGI),人们应该更担心‘监视AI’。” 这位联合创办大数据公司 Palantir 的风险投资家在迈阿密的一个活动上表示,在通往 AGI 的路上,你会得到监视 AI,他将其描述为“共产主义的极权技术”。那些担心 AGI 的人实际上没有“抓住真正重要的事情,”Thiel 表示,政府将使用 AI 面部识别技术控制民众。

Thiel 的言论是在彭博社报道 “Palantir 知道你的一切”的三年之后做出的。Thiel 还投资了面部识别公司 Clearview AI 和监控初创公司 Anduril。市值 480 亿美元的 Palantir 开发了数据拖网技术,情报机构和政府用这种技术监视和发现公共和私有数据库中的可疑模式。该公司的客户包括 CIA、FBI 和美国陆军……

Thiel 是一位著名的自由意志主义者,是 PayPal 的联合创始人,在 Facebook 的董事会拥有一个席位。他表示,如今的硅谷并不像六七年前那样热衷谈论 AGI了……在演讲中,Thiel 还将 AI 和加密货币相提并论,表示他更愿意看到后者成功。“如果我们说加密货币是自由意志主义的,从根本上说它是一种去中心化的力量,那么我认为我们也应该愿意说,AI 特别是低技术监控形态的 AI,本质上是共产主义的。”

他表示:“如果你把它定义为一场技术竞赛……我希望加密货币的去中心化世界能赢。”