solidot新版网站常见问题,请点击这里查看。
人工智能
wanwan(42055)
发表于2021年12月29日 15时52分 星期三
来自小无知游太阳城
亚马逊语音助手 Alexa 在“挑战”一名 10 岁女孩时,让她拿着硬币贴在通电的插脚上(插头的插脚一半插入插座,一半裸露在外),亚马逊随后更新了 Alexa 语音助手。 该建议是这名女孩在要求 Alexa 提出“挑战(challenge to do)”之后提出的。智能音箱说:“将手机充电器的插脚一半插入墙上的插座,拿着一分钱的硬币贴在另一半暴露出的插脚上。”亚马逊表示在发现错误之后,立即进行了修复。女孩的母亲 Kristin Livdahl 在 Twitter 上描述了这一事件。她说:“我们正在做一些身体上的挑战,例如躺下来,保持一只鞋在你的脚上,然后翻来翻去。之前我们是跟着 YouTube 上的一位(体育教学)老师做。外面的天气不好。她就想换一个老师。这时 Echo 音箱建议参与这个它‘在网上找到’的挑战。”这项被称为“便士挑战”的危险活动大约从一年前开始在 TikTok 和其他社交媒体网站上流行。
人工智能
1
WinterIsComing(31822)
发表于2021年12月27日 15时27分 星期一
来自寻衅滋事
中国研究人员开发出 AI 检察官,能根据对案件的口述以 97% 的准确率提出指控。上海浦东人民检察院构建和测试了 AI 检察官系统,它是全国最大最忙碌的地区检察院。中国科学院大数据挖掘与知识管理重点实验室主任石勇教授是该项目的首席科学家,他表示 AI 系统能减少检察官的日常工作量,让他们能专注于更困难的工作。在一定程度上系统可在决策中取代检察官。石勇和同事的论文发表在本月出版的《管理评论》期刊上(最新几期的论文尚未上线)。
人工智能
wanwan(42055)
发表于2021年12月21日 17时59分 星期二
来自龙岛
对大多数动物而言,生活就是决定去哪里。在世界中奔跑、游泳或飞翔,动物不断地做出行动的决定,选择去哪里进食、在哪里躲避以及和谁交往。神经生物学在过去几十年里的突破,包括获得 2014 年诺贝尔医学奖的突破已经拼凑出动物表示空间分布选择的图景。现在一个国际研究团队应用这些神经生物学知识了解动物如何从分散在空间中的选项中进行选择。从神经生物学、物理学和动物行为中汲取灵感,这个跨学科的团队构建了一个大脑决策的计算模型。该模型具有大脑表示“空间”选项的特征——在这种情况下是指向潜在目的地的方向——以了解如何在移动中做出决策。由此产生的模型预测,大脑会自发地将多个选项之间的决策分解为一系列二选一的决策,直到只剩下一个选项——也就是最终选择。这会导致动物表现出一系列突然的方向变化,每一次都与排除了一个剩余的选项有关。每一次的方向变化都是神经动力学突然变化的结果——科学家称之为“分叉”,动物和剩余选项之间存在非常特定的几何关系。这种算法被发现非常强大,以至于研究人员预测,这种“分叉”过程不仅会带来高度准确的决策,而且还可能是“通用的。”通过将很多动物模拟轨迹叠加在一起,他们发现了一个分支结构。他们预测,如果将真实动物空间决策留下的很多轨迹叠加在一起,这种结构也应该很明显。
人工智能
wanwan(42055)
发表于2021年12月17日 18时02分 星期五
来自暗影徘徊
想象一下你正在参加一场比赛。要完成它,你的身体要强壮,你的大脑要跟踪路线,控制你的步伐,防止你绊倒。对机器人也是如此。为了完成任务,它们需要精心设计的身体和“大脑”或控制器。工程师使用各种模拟改进机器人的控制并使其智能。但很少有方法可以同时优化机器人的设计。除非设计者是算法

由于计算技术的进步,终于可以编写出同时优化设计和控制的软件程序,这种方法被称为协同设计。尽管有优化控制或设计的平台,但大多数协同设计研究人员还是不得不设计自己的测试平台,这些平台通常计算量巨大且很耗时。

为了解决这个问题,MIT 研究员 Jagdeep Bhatia 等人创建了名为 Evolution Gym 的 2D 协同设计软机器人模拟系统。他们在今年的神经信息处理系统会议上展示了这个系统。他们还在一篇新论文中详细介绍了该系统。

在 Evolution Gym 中,用彩色细胞或体素组成 2D 软机器人。不同的颜色代表了不同类型的简单组件——软材料或刚性材料,以及水平或垂直致动器。由彩色方块拼凑而成的机器人在类似电子游戏的环境中移动。因为它是 2D 的,程序设计很简单,不需要太多计算能力。

顾名思义,研究人员构建了该系统以模拟生物的演化过程。它不生成单个机器人,而是生成在设计上略有差异的机器人群体。该系统具有双层优化系统——外环和内环。外环是设计优化:系统针对给定任务(例如步行、跳跃、攀爬或捕捉东西)生成许多不同的设计。内环是控制优化。
人工智能
wanwan(42055)
发表于2021年12月17日 17时54分 星期五
来自凡尔纳地球三部曲
人类非常擅长根据 2D 图像理解它描绘的 3D 场景。人工智能代理则不然。然而需要与物理物体进行交互的机器——比如收割庄稼或者协助手术的机器人——必须能从它对 2D 训练图像的观察中推断出 3D 场景的特性。虽然科学家成功使用神经网络根据图像推断出 3D 场景的模型,但这种机器学习方法速度不够快,无法适用于很多现实世界的应用。MIT 等机构的研究人员展示的一项新技术能以比某些现有模型快 15,000 倍的速度从图像中展现 3D 场景。该方法将场景表示为一个 360 度的光场,一个函数描述了 3D 空间中流经每个点和每个方向的所有光线。光场被编码到一个神经网络中,可更快地从图像中渲染底层 3D 场景。
人工智能
wanwan(42055)
发表于2021年12月17日 17时27分 星期五
来自为了我们的家园
梅赛德斯奔驰成为首家满足 UN-R157 对 L3 自动驾驶系统法律要求的汽车公司。德国联邦汽车运输管理局 (KBA) 已批准了梅赛德斯的系统,为其国际推广铺平了道路——如果国家法律允许的话。德国在 2017 年制定了针对 L3 系统的道路交通法(StVG),成为自动驾驶立法方面的先锋。客户到 2022 年上半年将可购买配备Mercedes Drive Pilot 的 S级轿车,在交通拥堵或拥塞的情况下,在德国的适用高速公路路段上,有条件地使用自动驾驶模式以最高 60 公里/小时的速度行驶。戴姆勒和梅赛德斯-奔驰理事会成员、负责开发和采购的首席技术官 Markus Schäfer 表示:“我们多年来一直在努力实现自动驾驶愿景。通过这个基于激光雷达的系统,我们为车辆开发了一项创新技术,为客户提供独特、豪华的驾驶体验,并为他们提供最重要的东西:时间。经过当局的批准,我们现在取得了突破:我们是德国第一家将有条件自动驾驶投入量产的制造商。”尽管 Elon Musk 不断声称“完全自动驾驶”,特斯拉的系统仍然是 SAE L2,需要驾驶员监督(尽管有许多记录在案的案例没有这样做)。SAE 级别和 UN-R157 规范之间存在着一些差异。
人工智能
1
wanwan(42055)
发表于2021年12月17日 15时52分 星期五
来自哈尔的移动城堡
还记得 IBM Watson,“危机边缘(Jeopardy)”节目的 AI 冠军? 2010 年的一项宣传活动称:“Watson 理解具有各种歧义和复杂性的自然语言。”然而正如我们在 Watson 随后在试图“用人工智能彻底改变医学”惨败时看到的,浮于表面的语言能力实际上并不同于真正理解人类语言。

自然语言理解一直是人工智能研究的主要目标。起初研究人员试图手工编程机器理解新闻故事、小说或人类可能写出的任何其他内容所需的一切。正如 Watson 所展示的,这种做法是徒劳的——不可能写下理解文本需要的所有不成文的事实、规则和假设。最近确立的一种新范式是:我们不建立显性知识,而是让机器简单地摄取大量书面文本并学习预测单词,自己学习理解语言。结果就是研究人员所说的语言模型。使用 OpenAI 的 GPT-3 之类的大型神经网络,这类模型可以生成非常像是出自人类之手的散文和诗歌,并且似乎可进行复杂的语言推理。

但是用来自数千个网站、书籍和百科全书的文本进行训练的 GPT-3 是否超越了 Watson 浮于表面的理解能力?它真的理解自己生成的语言并进行推理吗?AI 研究界在这个问题上分歧明显。此类讨论曾是哲学家的领地,但过去十年,人工智能已从学术泡沫中迸发进入现实世界,它对现实世界缺乏了解可能会产生真实的、有时甚至是毁灭性的后果。在一项研究中,研究人员发现 IBM Watson 提出了“多项不安全和不正确的治疗建议”。另一项研究表明,Google 的机器翻译系统在为非英语患者翻译医疗说明时出现了重大错误。

我们在实践中如何才能确定机器是否能理解?1950 年,计算机先驱图灵(Alan Turing)试图用他著名的“模仿游戏”回答这个问题,模仿游戏现在被称为图灵测试。一台机器和一个人都隐藏在视线之外,两者彼此竞争,努力仅仅通过对话让人类裁判相信他/它是人。如果裁判无法判断两者中哪个是人类,那么图灵断言,我们应该认为机器是在思考——实际上,是在理解。不幸的是,图灵低估了人类被机器愚弄的倾向。
人工智能
wanwan(42055)
发表于2021年12月14日 15时42分 星期二
来自原罪之战:天赐之力
美国空军少将 Daniel Simpson 介绍了使用基于人工智能的实验性目标识别程序的经验,该程序自认为表现良好。Simpson表示,一开始,人工智能从一个传感器获得数据,该传感器以倾斜的角度寻找单个地对地导弹。然后它从另一个传感器接受数据,该传感器以接近垂直的角度寻找多枚导弹。他表示:“算法表现不佳。实际上它的准确率大约只有 25%。”据研究人员、前海军飞行员 Missy Cummings 在 2020 年的一份报告,这是有时被称为脆弱人工智能的一个例子,“当任何算法无法概括或适应一组狭窄假设之外的条件时就会发生”这种情况。Cummings 表示,当用于训练算法的数据包含过多来自某一特定有利位置的图像或传感器数据,而来自其他有利位置、距离或条件的数据不足时,就会变得脆弱。在无人驾驶汽车实验等环境中,研究人员只需收集更多的数据进行训练。但这在军事环境中非常困难,因为可能只有大量的、一种类型的数据——比如说高空卫星或者无人机图像——很少有任何其他类型的数据,因为它们在战场上没用。Simpson 表示,算法的准确率低并不是演习中最令人担忧的地方。虽然算法只有 25% 的时间是正确的,但他表示,“它确信它在 90% 的时间都是正确的,所以它肯定是错误的。这不是算法的错。这是因为我们给它提供了错误的训练数据。”
人工智能
wanwan(42055)
发表于2021年12月13日 18时45分 星期一
来自空中城堡
有没有因为一个人移动得太快而让一张本该完美的照片变模糊?科学家在记录蛋白质因为光改变结构的图像时遇到同样的问题。这个过程在自然界中很常见,多年来研究人员一直在试图捕捉它的细节。但他们长期以来一直被发生时的惊人速度挫败。

现在一组来自威斯康星大学密尔沃基分校(UWM)和德国 Deutsches Elektronen-Synchrotron 自由电子激光科学中心的研究人员将机器学习和量子力学计算结合起来,得到了迄今为止光活性黄蛋白(PYP)被光激发后最精确的结构变化记录。他们的研究发表在 11 月的《自然》期刊上,表明他们能将发生在几个飞秒内的过程制作成视频

当 PYP 吸收光时,它会吸收其能量,然后重新排列自身。由于该蛋白质在细胞内的功能是由其结构决定的,每当PYP在光照后折叠或弯曲,都会引起巨大的变化。UWM 的物理学家、研究合作者 Abbas Ourmazd 表示,蛋白质与光相互作用的一个重要例子是植物的光合作用。未参与研究的亚利桑那州立大学应用结构发现生物设计中心主任 Petra Fromme 解释说,更具体地说,PYP 类似于我们眼睛中的蛋白质,当一种叫做视网膜的蛋白质改变形状时,会激活感光细胞,帮助在夜间看到东西。Fromme 指出,PYP 的形状变化还有助于一些细菌检测到可能对其DNA造成损害的蓝光,从而躲开它。

多年来,这种重要的光诱导分子形状转变(称为异构化)的细节一直困扰着科学家。Fromme 表示:“你看任何一本教科书,都会说这种异构化会在光激发后的瞬间发生。”但是对于科学家来说,“瞬间”并不是无法量化的——蛋白质结构的变化在极短的时间内发生——被称为飞秒或千万亿分之一秒。Fromme表示,一秒之于飞秒就相当于 3200 万年之于一秒。

科学家用同样短的X射线闪光实验性地探测这些短得令人难以置信的时间尺度。新研究使用了一个研究团队在加利福尼亚 SLAC 国家加速器实验室的一个特殊设施中以这种方式获得的数据,团队是由 UWM 物理学家 Marius Schmidt 领导。研究人员首先用光照射 PYP。然后用超短 X 射线爆击中它。从蛋白质反射回来的 X 射线(成为衍射X射线)反映了它的最新结构,这和从物体发射的光帮助拍摄传统照片的方式是一样的。脉冲的短暂性使科学家能在蛋白质的所有原子移动时获得位置的快照,这种方式类似于具有速度非常快的快门可以在猎豹奔跑时捕捉到它的腿的不同位置。
人工智能
WinterIsComing(31822)
发表于2021年12月09日 15时37分 星期四
来自苹果树下的宇宙飞船
语言生成是 AI 领域的大热门,从改进 Google 搜索引擎到创建基于文本的幻想游戏,被称为“大型语言模型”(或 LLM)系统的应用包罗万象。但是这些程序存在严重问题,包括反刍性别歧视和种族主义语言以及不能通过逻辑推理测试等。一大问题是:简单增加数据和计算能力是否能改善这些弱点,还是已到达技术范式的极限?这是 Alphabet 的 AI 实验室 DeepMind 发表的三篇研究论文探讨的主题之一。该公司的结论是,进一步扩大系统会带来很多改进。DeepMind 研究科学家 Jack Rae 在简报电话会议中告诉记者:“论文的一个关键发现是,大型语言模型的能力仍然在提高,它们在不断进步。这个领域并没有停滞不前。”

定期将工作成果馈送给 Google 产品的 DeepMind 构建了一个名为 Gopher 的语言模型研究此类 LLM,该模型具有 2800 亿个参数。参数可以快速衡量语言模型的规模和复杂程度,这意味着 Gopher 比 OpenAI 的 GPT-3(1750 亿个参数)更大,但却比不上一些更具实验性的系统,例如微软和 Nvidia 的 Megatron 模型(5300 亿个参数)。在 AI 世界中,越大越好,通常是正确的,更大的模型通常能提供更好的性能。DeepMind 的研究证实了这一趋势,并表明在最常见的基准测试(如情感分析和总结)上,扩大 LLM 的规模确实可提高性能。研究人员也提醒说,要想解决语言模型固有的一些问题,需要的不仅仅是数据和计算。
人工智能
wanwan(42055)
发表于2021年12月08日 18时11分 星期三
来自动物庄园
人工智能可以看到我们看不到的东西——这通常是不利的。虽然机器擅长识别图像,但愚弄它们仍然很容易。只要在输入的图像中添加少量人眼无法察觉的噪声,AI 就会突然将校车、狗或者建筑物识别为完全不同的对象,比如鸵鸟。

6 月发表在预印本服务 arxiv 的一篇论文中,多伦多大学的 Nicolas Papernot 和同事研究了不同类型的语言处理机器学习模型,找到一种方法,用对人类不可见的方式干预输入文本以进行欺骗。只有在计算机读取文本背后的代码并将字母映射到内存中的字节时,这些隐藏的指令才会被计算机看见。Papernot 的团队表明,即使是少量添加,例如单个空格字符,也会严重破坏模型对文本的理解。混淆也会对人类用户产生影响——在一个例子中,单个字符导致算法输出一个句子,让用户向错误的银行账户汇款。

这些欺骗行为被称为对抗样本攻击,故意改变输入欺骗算法并使其出错。2013 年,研究人员欺骗了一个深度神经网络(一种具有多层人工“神经元”来执行计算的机器学习模型),让此类漏洞在AI研究中变得突出。

目前,我们还没有万无一失的解决方案能够抵挡各种对抗样本媒体——图像、文本或其他形式。但希望已经出现。对于图像识别,研究人员可以故意用对抗图像训练深度神经网络,它就能更轻松地看待它们。不幸的是,这种被称为对抗性训练的方法只能很好地抵抗模型已见过的对抗样本。此外它降低了模型在非对抗性图像上的准确性,并且计算成本高昂。人类很少被这样的攻击欺骗,这个事实让科学家开始寻找受到生物视觉启发的解决方案
人工智能
WinterIsComing(31822)
发表于2021年12月06日 22时06分 星期一
来自洛基启示录
UCLA 和 Google Research 的研究人员在预印本网站发表论文《Reduced, Reused and Recycled: The Life of a Dataset in Machine Learning Research》(PDF),指出机器学习研究领域被少数开源数据集支配的现状。研究人员分析了 2015-2020 年之间不同机器学习社区使用的数据集,发现少数数据集被集中使用。在分析 43,140 个样本中,超过五成使用的数据集来自于 12个精英机构。研究人员认为这种高度集中化的趋势带来了实用性、伦理甚至政治方面的问题。研究人员称,计算机视觉受政府影响最大,自然语言处理受最少影响。计算机视觉尤其是脸部识别领域常用的数据集得到了企业、美国军方和中国政府(MS-Celeb-1M、 CASIA-Webface、IJB-A、VggFace2,其中 MS-Celeb-1M 因隐私争议被撤回)的资助。
人工智能
1
wanwan(42055)
发表于2021年12月06日 19时50分 星期一
来自梦海
算法在生活中扮演的作用越来越重要,即使其缺陷越来越明显:一名被错误指控欺诈的密歇根男子不得不申请破产;自动筛选工具不成比例地伤害想要买房或租房的有色人种;Facebook 的黑人用户比白人用户受到更多的辱骂。其他自动化系统不公正地对教师、学生进行评分,频繁地将深色皮肤的人标记为在考试中作弊。现在人们努力更好地了解人工智能的工作原理并让用户负责。纽约市议会上个月通过一项法律,要求对雇主在在招聘或晋升时使用的算法进行审查。该法律在全美尚属首例,要求雇主引入外部人员评估算法是否存在性别、种族或民族方面的偏见。如果人工智能在雇佣和晋升决策过程中发挥作用,雇主还必须告知居住在纽约的求职者。在华盛顿特区,国会议员正在起草一项法案,要求企业评估用于医疗保健、住房、就业或教育等领域的自动化决策系统,将调查结果报告给联邦贸易委员会(FTC); FTC 的五个成员中有三个支持对算法进行更严格的监管。白宫上个月提出的人工智能权利法案要求如果人工智能做出影响一个人的公民权利的决定,需要进行披露,表示人工智能系统应该“仔细审核”其准确性和偏见等问题。
人工智能
WinterIsComing(31822)
发表于2021年12月02日 22时31分 星期四
来自布兰尼肯夫人
Alphabet 旗下 DeepMind 公司的 AI 技术帮助数学家发现了新猜想和定理。 从 1960 年代开始,数学家开始使用计算机帮助发现规律和提出猜想,但人工智能系统尚未普遍应用于理论数学研究领域。 论文通讯作者、DeepMind 的 Alex Davies 和数学家一起建立了一个机器学习框架,用于协助数学研究。他们的算法搜索数学对象间潜在的规律和联系,尝试寻找意义。其后由数学家接手,利用这些观察来引导他们对潜在猜想的直觉。他们将机器学习框架这一方法应用于两个纯数学领域,发现了拓扑学(对几何形状性质的研究)的一个新定理,以及一个表示论(代数系统研究)的新猜想。他们总结认为,机器学习框架能鼓励未来数学和人工智能领域的合作。
人工智能
wanwan(42055)
发表于2021年11月30日 18时58分 星期二
来自基因先知者
想象一下未来完全自主的自动驾驶汽车。如果一切按预期进行,早上的通勤将会是准备一天的会议、了解新闻或者坐下来放松的时机。但如果出现问题?当汽车接近红绿灯,但是刹车突然失灵,计算机不得不在瞬间做出决定。它可以突然转向附近的杆子并杀死乘客,或者继续前进杀死前方的行人。控制汽车的计算机只能使用汽车传感器收集的有限信息,据此做出决定。尽管这看起来很戏剧化,但我们距离可能面临这样的困境只有几年的时间。自动驾驶汽车通常会提供更安全的驾驶,但事故将不可避免——尤其是在可预见的未来,那时自主驾驶汽车与人类驾驶员和其他道路使用者将共享道路。
人工智能
wanwan(42055)
发表于2021年11月24日 20时34分 星期三
来自惊涛怪浪
一份工作的价值是否取决于能多长时间抵御自动化?疫情期间,我看到日益壮大的外卖骑手队伍:骑手们骑着电动自行车默默呼啸而过,为我所在城市里那些不想冒险出门的人们送去外卖。这些外卖骑手持续处于在餐食变冷之前完成取餐和送餐的压力之下,为最低工资辛勤工作。

过去送货是入门级职位,是入门的一种立足方式,类似邮件收发室的工作。今天它是一项独立的业务,Uber 和 Deliveroo 之类的大型上市公司为餐馆老板提供外送服务。通过这种外包,送货成为了一项没有尽头的工作。成功只意味着你可以在白班工作。

几年前,我们以为这些工作会消失——被 Level 4 和 Level 5 级的自动驾驶系统消灭。然而随着工程师更好地理解在挤满一些不理性人类驾驶员的道路上驾驶面临的巨大挑战,曾经看起来简单的任务现在看来几乎很难完成。

但一些长期以来被认为难以自动化的任务最近取得了巨大的飞跃。在 6 月底,GitHub 推出了 AI 工具Copilot:一双虚拟的眼睛,和开发者合作以保持代码干净并逻辑正确。Copilot 还不是一个完整的解决方案——它不会自己提出复杂的算法——但它向我们展示了自动化如何让较差的程序员变得更强大。

虽然大多数编程或文案工作不太可能很快由机器完成,但这些职业现在面临着来自自动化的真正竞争。用不了多久,微软和 Nvidia 的 Megatron-Turing Natural Language Generation(MT-NLG)之类的 AI 语言模型就能完成基本的商业文案写作。其他的写作工作——消化材料提取关键细节,用易懂的语言表达它们,然后准备出版——也正向自动化投降。这一变革性飞跃的要素已经就绪。

大多数编程和文案工作不太可能很快由机器完成,但越来越多的部分会这样。这些职业现在面临着来自自动化的真正竞争。矛盾的是,至少接下来几年,骑车送外卖看起来仍然需要人的头脑来驾驭车把手。在软件吞噬一切的世界中,那些无法消化的部分继续需要人类的关注。这种关注需要人们的时间——他们可以以此为生。我们为人类完成工作支付的费用将越来越多地用机器执行该任务的成本衡量。毫无疑问,一些白领工人会受到来自机器的、新形式的竞争影响。

一个世纪前,随着农业实现机械化,农业劳动力面临过类似的贬值。几十年来,无数的制造业工作屈服于工厂自动化,但特斯拉的生产问题显示当你试图在工厂车间过度推进自动化时会发生什么。路德派(译注:该派别强烈反对机械化和自动化)的历史恰如其分地显示出,机器和人类劳动之间的紧张关系并不是新鲜事——但是它现在再一次加剧,这一次冲击了知识工作的核心。

为了领先机器一步,我们需要找到困难的部分,并保持处理它们所需的技能。创造力、洞察力、智慧和同理心——这些才能完全是人性的,并且有望在未来继续保持这一点。如果我们倾向于这些特质,我们就可以抵抗机器在竞争中的崛起。
人工智能
wanwan(42055)
发表于2021年11月19日 20时10分 星期五
来自海底两万里
我不是 Alexa 的粉丝,也不是 Google Assistant 的粉丝。或者事实上我也不是家中始终处于激活状态的任何联网摄像头或者麦克风的粉丝。我不使用声控系统,虽然需要用网络摄像头,但会确保在不使用时把它从计算机上拔下来。我是不是过于偏执了?也许吧。但是我觉得有一点担心是合理的,就智能助理迄今所提供的服务而言,这种担心不断萦绕在脑海可能不太值得。

iRobot 首席执行官 Colin Angle 不这么认为。上周 iRobot 宣布“与亚马逊合作,进一步推进家用机器人的语音智能”。iRobot 解释说,语音控制之所以重要,是因为它的机器人扫地机 Roomba 正变得非常非常复杂。最新款比以往更了解我们的家,有地图和物体识别功能,还有各种复杂和智能的行为和调度选项。iRobot 有一个应用程序,竭尽全力简化这个流程,让你的 Roomba 能完全按照你的意愿工作,但你仍然需要定期在应用程序中设定。这给 iRobot 带来了问题,它现在必须将所有这些非常酷的新功能与他们最初的机器人概念结合起来,我仍然记得最初也是最好的方式是只有一个你可以按下的按钮,上面用漂亮的大写字体写着“清洁”。

iRobot 认为语音控制是解决问题的答案。它迅速而直观,只要在你告诉机器人要做什么和机器人实际 做什么之间有一个可靠的映射,它看起来会非常成功——当然,如果你愿意让 Alexa 作为协调者的话。
人工智能
WinterIsComing(31822)
发表于2021年11月12日 16时46分 星期五
来自方舟
研究表明,用于诊断皮肤癌的 AI 系统对深色皮肤的人不太准确

AI 的潜力推动了其在医疗保健领域的发展,有研究表明,基于机器学习算法的图像识别技术可以像人类专家一样成功地对皮肤癌进行分类。NHS 信托开始探索用 AI 帮助皮肤科医生对皮肤病变患者进行分类。但研究人员表示,可用于开发或“训练”皮肤癌诊断 AI 系统的免费图像数据库中很少包含多种族或皮肤类型的信息,要想确保该 AI 技术能惠及所有的患者,还需要做更多的工作。图库中确实很少有深色皮肤的人的图像。

研究第一作者、牛津大学的 David Wen 博士表示:“你可能会遇到这样的情况,监管机构会说,因为这个算法只针对浅肤色的人的图像进行过训练,所以你只能将它用于浅肤色的人,因此这可能会导致某些人群被排除在获批进行临床使用的算法之外。或者如果监管机构更放松一点并说:‘好吧,你可以(针对所有的而患者)使用它’,那么对于没有那么多训练图像的人群来说,算法可能无法准确执行。”研究小组表示,这可能会带来其他问题,包括实施本可避免的手术,错过本该治疗的癌症,引起不必要的焦虑等风险。
人工智能
wanwan(42055)
发表于2021年11月09日 19时48分 星期二
来自太空谜案3
司机管汽车,让它直行并远离麻烦,这是老派的想法。在智能汽车的新时代,汽车将管司机。我们谈论的不是大家现在熟悉的辅助驾驶技术,这些技术帮助保持车道内行驶或靠路边停车。我们谈论的是汽车通过识别司机的情绪和认知状态,防止他们做出任何危险的事情。

市场上有一些基本的司机监控工具。大部分系统都使用安装在方向盘上的摄像头,跟踪眼球运动和眨眼频率,以确定此人是否有障碍——可能是注意力不集中、昏昏欲睡或者是喝醉了。

但是汽车行业开始意识到,障碍测量并不仅仅是要确保司机的眼睛盯在路面上,它需要的不仅仅是盯住司机。监控系统需要深入了解整个车辆以及车里每一个人的状态,以全面了解是什么影响了司机的行为,以及该行为对安全的影响。

汽车制造商正朝着这个方向推动监管。欧洲安全评级系统“欧洲新车评估计划”(NCAP)于 2020 年更新了其协议,开始根据先进的乘员状态监控对汽车进行评级。为了获得令人梦寐以求的五星级评级,汽车制造商需要开发出能检测司机疲劳和分心的技术。从 2022 年开始,Euro NCAP 将为车内独自留守儿童检测技术授予评级积分,通过向车主或应急服务机构发出警报,这类技术可能会防止因中暑而导致的悲剧性死亡。

部分汽车制造商现在正在将摄像头移到后视镜上。借助新的视角,工程师可以开发出新的系统,不仅能检测到人的情绪和认知状态,还可以检测到他们的行为、活动,还有彼此之间以及与车内物体的交互。这样的车载“老大哥”听上去可能有些令人毛骨悚然,但它可以挽救无数人的生命。
人工智能
wanwan(42055)
发表于2021年11月08日 16时00分 星期一
来自布兰尼肯夫人
一只野熊闯入一辆停放的汽车寻找食物。AI 专家 Lance Eliot 由此提出了一个问题:自动驾驶汽车能应付熊吗

自动驾驶汽车的 AI 系统是完整的。一辆停着的自动驾驶汽车可以变成移动的汽车。如果自动驾驶汽车利用它的物体检测系统,即使是停放着,AI 驾驶能力也会在(假设的)碰撞即将发生时得到警报。AI 开发人员估计,AI 驾驶系统可能会激活自汽车,试图快速驶离,以躲开即将撞过来的人类驾驶汽车。

遭遇熊是一个边缘案例。想象一辆自动驾驶汽车停在森林旁边。人类徒步旅行者离开汽车徒步到了树林深处的某个地方。一只熊晃晃悠悠地进入停车场,寻找免费的吃食。如果 AI 驾驶系统正在使用物体检测功能,很可能会检测到这只熊。如果熊决定直接走向汽车,AI 系统可能会激活躲开这只熊。 目前还不清楚熊是否会以某种方式猜到汽车能自行移动。有理由认为熊会担心那些免费的餐盒(带轮子的)好像会在它接近时移开。这可能会让部分熊死心,它们会避开停放着的汽车。另一部分熊则可能会把这变成一场游戏。有点像捉迷藏的游戏。靠近一辆车,它开走了。好玩!走到车旁,看 看它接下来往哪个方向走。在停车场度过了一段美好的时光,这是肯定的。 如果我们讲的是毛茸茸的熊的故事的话。

自动驾驶汽车的内部设计很可能与传统的人类驾驶汽车不同。如它不需要方向盘,也不需要踏板。开阔的内部也许可以容纳旋转座椅,也可能是斜倚座椅,这样你就可以在自动驾驶汽车的长途旅行中睡觉。考虑到这种内部设计,熊肯定会在自动驾驶汽车上找到比传统人类驾驶汽车更舒服的东西。接下来熊会爱上自动驾驶汽车,因为它是一个安静、宽敞、安全的地方,可休息和放松。无需担心掠食者的攻击,还能享受豪华宽敞的内部空间。

第二个问题是熊是否会弄清楚如何与 AI 驾驶系统进行通信。你知道,熊是相当敏锐的。也许一只真正有进取心的熊可以说服 AI,让自动驾驶汽车载着它来一段舒舒服服的旅行。 如果你开始看到熊乘坐着自动驾驶汽车四处行驶,请不要感到特别惊讶。 请记住,你是首先在这里听说的。