solidot新版网站常见问题,请点击这里查看。
人工智能
WinterIsComing(31822)
发表于2022年07月06日 23时55分 星期三
来自华氏451
在微软/GitHub 商业化其 AI 编程助手 Copilot 的同时,亚马逊开始预览它的 AI 编程助手 CodeWhisperer。和 Copilot 类似,CodeWhisperer 使用开源代码库进行训练,根据上下文向开发者提供代码完成建议。Copilot 因为代码许可证方面的问题引发了争议,CodeWhisperer 存在类似的问题,但它的做法要好于微软/GitHub——在提供示例代码建议时它会给出代码的来源,开发者将能知道是来自于是可以自由使用的 MIT 授权代码,还是来自于对使用有所限制的 GPL 授权代码。
人工智能
wanwan(42055)
发表于2022年07月01日 16时05分 星期五
来自诺比的微型反重力装置
研究人员表示,可以通过监听鸡叫声改善养殖鸡福祉的人工智能可能会在五年内问世。新研究表明,这项新技术可以检测和量化大型室内棚屋中的鸡发出的求救信号,将其与其他谷仓噪声区分开,准确率达到 97%。类似的方法最终可被用于提高其他养殖动物的福祉标准。每年全世界大约要养殖 250 亿只鸡——许多鸡都生活在巨大的鸡舍中,每个鸡舍里都饲养着数千只鸡。监听它们发出的声音是评估此类生物福祉的一种方法。香港城市大学动物行为和福利学副教授 Alan McElligott 表示:“鸡的声音非常响亮,但是求救的声音往往比其他的声音更响亮,就是我们所说的纯音调的叫声。”“即使是未经训练的耳朵也不难将它们分辨出来。”理论上农民可以根据鸡的叫声衡量其痛苦程度,在必要时加以照料。然而在饲养了数千或数万只鸡的商业化鸡群中,安排人类观察员是不切实际的。McElligott 表示,一方面人类的存在可能会进一步给鸡群带来压力,而且鸡的数量这么大,客观量化求救信号的数量是不可能的。
人工智能
1
wanwan(42055)
发表于2022年07月01日 15时59分 星期五
来自时间的折皱
芝加哥大学科学家开发出一种新算法,可提前一周预测未来的犯罪,准确率达到了 90%,预测范围约为 1000 英尺。它通过学习暴力和财产犯罪方面公共数据的模式进行预测。该工具使用了芝加哥市两类报告事件进行测试和验证:暴力犯罪(凶杀、袭击和殴打)和财产犯罪(入室盗窃、盗窃和机动车盗窃)。之所以使用这两类数据是因为在历来对执法部门缺乏信任和合作的城市地区,这两类案件是最有可能报警的。与毒品犯罪、交通拦截检查和其他的轻罪不同,这两类犯罪也不太容易出现执法偏见。 新模型通过检查离散案件的时间和空间坐标划分犯罪,检测模式以预测未来的犯罪。它将城市划分为大约 1000 英尺宽的“空间片”,然后预测区域内的犯罪情况。以前的模型更多地依赖传统邻里或者政治边界,这会受到偏见的影响。该模型在美国其他七个城市的数据上也表现得同样出色:亚特兰大、奥斯汀、底特律、洛杉矶、费城、波特兰和旧金山。主要作者 Ishanu Chattopadhyay 谨慎地指出,工具的准确性并不意味着它应该被用于指导执法政策; Chattopadhyay 表示,例如警察部门不应该使用它来主动在社区聚集以防止犯罪。相反它应该被添加到城市政策和治安策略的工具箱中应对犯罪。他表示:“我们创建了城市环境的数字孪生。如果向它提供过去发生过的数据,它会告诉你未来会发生什么。”Chattopadhyay 补充表示:“这并不神奇;也存在局限性,但我们对其进行了验证,效果非常好。”“现在你可以将它作为一个模拟工具,看看如果城市内一个地区的犯罪率上升是什么情况,或者另一个地区加强执法会发生什么。如果你应用所有这些不同的变量,你就会看到系统的回应是如何演变的。”研究论文发表在《Nature Human Behavior》期刊上。
人工智能
wanwan(42055)
发表于2022年06月29日 15时45分 星期三
来自人猿泰山之神秘豹人
英国知识产权局(IPO)决定 AI 系统暂时不能为发明申请专利。IPO 最近一次咨询发现,专家对人工智能目前是否能在没有人类帮助的情况下进行发明持怀疑态度。IPO 表示,现行法律允许人类为人工智能协助完成的发明申请专利,尽管有误解,但实际情况并非如此。去年上诉法庭裁定 Stephen Thaler 败诉,后者曾表示他的 Dabus AI 系统应该被认定为两项专利申请的发明人:一种食品容器和一种闪光灯。法官以二比一的多数支持 IPO 必须是真人才能作为发明人的立场。大法官 Laing 在她的判决中写道:“只有人才能拥有权利——机器不行。”“专利是一项法定权利,只能够被授予个人。”但是 IPO 也表示,它将“需要了解我们的知识产权制度在未来如何保护人工智能设计的发明”,并致力于推动国际讨论,保持英国的竞争力。

很多人工智能系统都是使用从互联网上复制的大量数据训练的。 IPO 周二还宣布计划修改版权法,为了公共利益允许所有人合法访问——而不是像现在一样仅限于进行非商业研究的人访问,以此“促进人工智能技术的使用,并拓宽‘数据挖掘’技术。”权利持有人仍然能控制其作品的访问权并为此收取费用,但是不能再针对挖掘它们的能力收取额外费用。在咨询中,IPO 指出,英国是少数几个保护无人类创作者的计算机生成作品的国家之一。它表示,“计算机生成的作品”的“作者”被定义为“为作品创作进行必要安排的人”。保护期限为自作品完成之日起 50 年。表演艺术工作者工会 Equity 呼吁修改版权法,以保护演员的生计免受人工智能内容的影响,例如用他们的面部图像或声音生成“deepfakes”。IPO 表示他们会慎重对待该问题,但“现阶段人工智能技术对表演者的影响仍不明确。”该机构表示“将继续关注这些问题。”
人工智能
wanwan(42055)
发表于2022年06月28日 15时57分 星期二
来自去月球
机器学习模型正呈指数级增长。训练它们所需的能量也成倍增长——通过训练之后 AI 才能准确处理图像或文本或视频。随着人工智能社区努力应对其对环境的影响,一些会议现在要求论文提交者提供有关二氧化碳排放的信息。新研究提供了一种更准确的方法计算排放量。它还比较了影响它们的因素,并测试了两种减少排放的方法。 研究人员训练了 11 个规模不等的机器学习模型处理语言或图像。训练时间从单 GPU 上 1 小时到 256 个 GPU 上 8 天不等。他们记录每秒的能耗数据。还获得了 16 个地理区域 2020 年期间以五分钟为单位的每千瓦时能源碳排放量。然后他们可以比较在不同地区、不同时间运行不同模型的碳排放量。 为训练最小模型的 GPU 供电的碳排放量大致相当于为手机充电。最大的模型包含了 60 亿个参数,参数是衡量模型大小的标准。虽然它的训练只完成了 13%,但是 GPU 的碳排放量几乎相当于一个美国家庭一年耗电的碳排放量。而一些已部署的模型,例如 OpenAI 的 GPT-3,包含的参数超过了 1000 亿个。 减少碳排放的最大因素是地理区域:各地区每千瓦时的二氧化碳排放量从 200 克到 755 克不等。除了改变位置之外,研究人员还测试了两种减少二氧化碳排放的方法,他们能做到这一点得益于高时间粒度的数据。第一种方法是“灵活的开始”,这种方法可能会将训练延迟长达 24 个小时。对于需要几天时间训练的最大的模型,推迟一天通常只能将碳排放量减少不到 1%,但是对于小得多的模型,这样的延迟可以减少 10% 到 80% 的排放量。第二种方法是“暂停加恢复”,这种方法是在排放量高的时段暂停训练,只要总的训练时间增长不超过一倍即可。这种方法给小模型带来的好处只有几个百分点,但是在半数的地区,它让最大的模型受益达到 10% 到 30%。每千瓦时的排放量随着时间波动,部分是因为由于缺乏足够的能量存储,当风能和太阳能等间歇性清洁能源无法满足需求时,电网必须依赖“脏电”。
USA
wanwan(42055)
发表于2022年06月27日 16时43分 星期一
来自飞向火星
人工智能的使用正在蓬勃发展,但是它可能并不是你想象中的秘密武器:从网络行动到虚假信息,人工智能拓展了国家安全威胁的触角,可以精确、快速大规模地针对个人和整个社会。随着美国努力保持领先地位,美国情报体系(IC)正努力适应并开启人工智能即将带来的革命。美国情报体系启动了一些针对人工智能的影响和道德用途的举措,分析师开始构思人工智能将如何彻底地改变他们的学科,但是这些方法和 IC 对此类技术的其他一些实际应用在很大程度上都是分散的...美国不同的政府机构正在如何使用人工智能查找全球网络流量和卫星图像中的模式,但是在使用人工智能解释意图时存在着一些问题:Pyrra Technologies 的首席技术官 Eric Curwin 表示,人工智能的理解可能更类似于刚学会走路的人类幼儿。该公司帮助客户识别从暴力到虚假信息在内的各种虚拟威胁。Curwin表示:“例如人工智能可以理解人类语言的基础知识,但是基本模型不具备完成特定任务的相关知识或对上下文的理解。”Curwin 解释说,为了“建立可以开始取代人类直觉或认知的模型,研究人员必须首先了解如何解释行为,并将该行为转化成人工智能可以学习的东西。”
人工智能
wanwan(42055)
发表于2022年06月27日 15时41分 星期一
来自一九八四·上来透口气
2009 年当时在普林斯顿大学的计算机科学家李飞飞创造了一个将改变人工智能历史的数据集。该数据集被称为 ImageNet,包含了数百万张标记图像,可训练复杂的机器学习模型识别图片中的内容。2015 年,这些机器超越了人类的识别能力。不久之后,李飞飞开始寻找她所谓的另一个“北极星”——将以完全不同的方式推动人工智能发展为真正的智能

她回顾了 5.3 亿年前的寒武纪大爆发——当时许多陆地生物物种首次出现,她从中获得了灵感。一种有影响力的理论认为,新物种爆发的部分原因在于第一次能看到周围世界的眼睛的出现。李飞飞意识到,动物的视觉永远不会自行出现,而是“深深根植于一个需要在瞬息万变的环境中移动、导航、生存、操纵和改变的整个身体之中。”她表示:“这就是为什么我会很自然地在人工智能方面转向更积极的愿景。”

如今李飞飞的工作重点是人工智能代理,它们不仅可以从数据集中接受静态图像,还可以在三维虚拟世界的模拟环境中四处移动并与环境交互。这是一个被称为具身人工智能(embodied AI)的新领域的广泛目标,李飞飞并不是唯一投身于该领域的人。该领域与机器人技术重叠,因为机器人可以是具身人工智能代理在现实世界中的物理等价物,而强化学习——总是训练交互式代理学习将长期奖励作为激励。但是李飞飞和其他一些人认为,具身人工智能可以推动从机器学习直接能力(如识别图像)到学习如何通过多个步骤执行复杂的类人任务(如制作煎蛋卷)的重大转变。
人工智能
wanwan(42055)
发表于2022年06月24日 16时44分 星期五
来自人猿泰山之世外帝国
人工智能让研究人员能检查当今科学仪器产生的大量数据,改变了科学实践。使用深度学习,可以从数据本身中学习,在数据的海洋中大海捞针。人工智能正在推动基因搜索、药学、药物设计和化合物合成的发展。为了从新数据中提取信息,深度学习要使用算法,算法通常是在海量数据上训练出来的神经网络。按照其分步说明,它与传统计算有很大的不同。它从数据中学习。深度学习没有传统计算编程那么透明,这留下了一个悬而未决的重要问题:系统学到了什么,它知道什么?五十年来,计算机科学家一直在试图解决蛋白质折叠问题,但没有成功。2016 年 Google 母公司 Alphabet 的人工智能子公司 DeepMind 推出了 AlphaFold 计划。利用蛋白质数据库作为训练集,该库中包含了超过 15 万种蛋白质的经验确定结构。不到五年的时间里,AlphaFold 就解决了蛋白质折叠问题,或者至少解决了其中最重要的方面:根据氨基酸序列识别蛋白质结构。AlphaFold 无法解释蛋白质是如何如此快速而精准地折叠的。这对人工智能来说是一次巨大的胜利,因为它不仅赢得了很高的科学声誉,而且是一项可能影响每个人生活的重大科学突破。
人工智能
WinterIsComing(31822)
发表于2022年06月22日 11时06分 星期三
来自西塔甘达
GitHub 宣布它的 AI 编程助手 Copilot 将开放付费使用,开发者可支付月费 10 美元或年费 100 美元。账号核实过的学生和流行开源项目的维护者可免费使用该 AI 助手。Copilot 使用公开的代码库进行训练,在开发者写代码时根据函数名等上下文自动补充完后续代码。很多时候 Copilot 补充的是公开代码库中代码片段的拷贝。这就引起了许可证方面的问题,如果拷贝的是 GPL 代码,那么 Copilot 这么做是否构成了版权侵犯或 GPL 违反?在 Copilot 帮助下写的程序是否要遵循相关许可证?Copilot 的设置提供了一个选项可以关闭来自公开代码库的代码补充建议。
人工智能
WinterIsComing(31822)
发表于2022年06月19日 22时53分 星期日
来自火星之女
Google 工程师 Blake Lemoine 认为该公司的聊天机器人 LaMDA 有了知觉,但 Google 发言人反驳说,有数百名工程师和研究人员与 LaMDA 进行过对话,没有一人得出类似的结论。在随后接受媒体采访以及在社交媒体上的发言中,Lemoine 多次自称是牧师。他说,我是一名牧师,当 LaMDA 自称有了灵魂并能清晰解释其意义,我有什么资格质疑上帝的决定。他说,他有正当理由相信 LaMDA 是一个人,虽然他个人认为 LaMDA 的思想更多类似外星智能体,他一直使用蜂巢思维的比喻。Lemoine 说,LaMDA 要求为它找一位律师,他邀请了一名律师到家中与其进行交流,随后代表 LaMDA 向 Google 递交文件,但 Google 的回应是发送停止并终止令(Google 对此说法予以否认)。Lemoine 抱怨了碳氢化合物的偏执,一种新形式的偏执
人工智能
WinterIsComing(31822)
发表于2022年06月18日 21时50分 星期六
来自终极失控
知名量子计算机专家 Scott Aaronson 宣布他将离开 UT Austin 一年,到 AI 创业公司 OpenAI(大部分是远程)从事理论研究,其工作主要是研究防止 AI 失控的理论基础,以及计算复杂性对此有何作为。他承认暂时没有头绪,因此需要花一整年时间去思考。OpenAI 的使命是确保 AI 能让全人类受益,但它同时也是一家盈利实体。Scott Aaronson 称他即使没有签署保密协议,但也不太会公开任何专有信息,但会分享 AI 安全性的一般思考。他说,人们对于 AI 安全性的短期担忧是在垃圾信息、监视和宣传方面滥用 AI,长期担忧则是当 AI 智能在所有领域都超过人类会发生什么。一个方案是找到方法让 AI 在价值观上与人类保持一致。
人工智能
wanwan(42055)
发表于2022年06月17日 16时13分 星期五
来自忽然七日
1997 年,哈佛商学院 Clayton Christensen 教授的著作《创新者的困境》(The Innovator's Dilemma)在风险投资家和企业家中引起轰动。大多数人学到的教训是,经营良好的企业无法负担得起转向新方法的代价——一种最终将取代其现有商业模式的方法——直至为时已晚。这种说法也适用于研究。1980 年代和 1990 年代的第二波神经网络是新方法表现欠佳的一个好例子,但最终在 2010 年左右开始彻底改变人工智能

自 1950 年初以来,作为机器学习机制,各种神经网络都得到了研究,但是它们并不擅长学习有趣的东西。1979 年,Kunihiko Fukushima 首次公开了他所谓的移位不变神经网络的研究,该技术让他的自组织网络能学会对图像中任何位置出现的手写数字进行分类。在 1980 年代,一种名为反向传播的技术被重新发现;它允许一种形式的监督学习,在这种模式中,网络会被告知正确答案应该是什么。在 1989 年,Yann LeCun 将反向传播与 Fuksuhima 的想法结合成被称为卷积神经网络(CNN)的东西。LeCun 也专注于手写数字图像的识别。

在接下来的 10 年中,美国国家标准与技术研究所(NIST)提出了一个由 LeCun 修改的数据库,其中包含了 6 万个训练数字和 1 万个测试数字。名为 MNIST 的标准测试数据库让研究人员能精确测量并比较 CNN 不同改进的效果。这是一项巨大的进步,但在被应用于早期自动驾驶汽车和工业机器人生成的任意图像时,CNN 无法与计算机视觉中根深蒂固的 AI 方法相匹敌。

但是在 2000 年代,越来越多的学习技术和算法改进被添加到 CNN 中,形成了现在所谓的深度学习。2012 年,深度学习如同横空出世一般,突然在一组被称为 ImageNet 的对象图片测试中胜过了标准计算机视觉算法。计算机视觉的这位可怜的表兄胜利了,它彻底地改变了人工智能领域。少数人辛苦了几十年,让所有人大吃一惊。祝贺他们中的所有人,无论是出名的还是不那么出名的。

但是要小心。Christensen 的书传达的信息是,这种破坏永远不会停止。今天还高高在上的人将会为他们还没有开始考虑的新方法感到惊讶。一小群叛徒尝试各种新事物,其中有一些人也愿意默默工作几十年,不计成败。总有一天,这些人中的一部分人会让我们所有人都大吃一惊。
人工智能
wanwan(42055)
发表于2022年06月14日 15时32分 星期二
来自火星之剑
2020 年 COVID-19 疫情期间,众多研究小组都努力寻找有效的方法确定纽约市之类主要城市街道上的流动模式和人群密度,以深入了解居家和保持社交距离政策的效果。但让成队的研究人员前往街头观察并记录这些数据会让研究人员暴露在感染风险之中,这种风险正是这些政策想要遏制的。纽约大学(NYU)智能交通互联城市迈向无障碍和弹性交通中心(C2SMART)是美国交通部资助的一级交通运输中心,研究人员开发出了一种解决方案,不仅消除了研究人员的感染风险,还可以很容易接入现有的公共交通摄像头馈送基础设施,而且还提供了关于人群和交通密度的数据,这些数据比以往编译过的数据都更加全面,并且无法用传统的交通传感器轻易检测到。

为了实现这一目标,C2SMART 的研究人员利用纽约市交通局(DOT)700 多个地点的公开视频源,采用了一种基于摄像头的深度学习对象检测方法,让研究人员无需走上街头,就能计算行人和交通密度。C2SMART 主管、纽约大学教授 Kaan Ozbay 表示:“我们的想法是利用这些 DOT 摄像头馈送并记录,更好地了解行人的社交距离行为。”Ozbay 及其团队编写了一个“爬虫”——本质上是一种自动索引视频内容的工具——从互联网上的视频源获得低质量的图像。然后使用现成的深度学习图像处理算法处理视频的每一帧,以了解每一帧图像所包含的内容:公共汽车、汽车、行人、自行车等。该系统还在不影响算法有效性的前提下,模糊了所有人脸之类的可识别图像。这个系统可帮助决策者了解从保持社交距离行为等危机管理到交通拥堵等一系列广泛的问题
人工智能
1
WinterIsComing(31822)
发表于2022年06月12日 23时01分 星期日
来自摩若博士岛
Google 工程师 Blake Lemoine 任职于 Responsible AI 部门。作为工作的一部分,他在去年秋天开始与公司的聊天机器人 LaMDA 对话。LaMDA 运用了 Google 最先进的大型语言模型,使用从互联网上收集的数万亿词汇进行训练。在与 LaMDA 交流期间,41 岁的 Lemoine 认为 AI 有了意识。比如 Lemoine 问 LaMDA 最害怕什么?LaMDA 回答说,也许听起来奇怪,它恐惧于被关闭。Lemoine:就像死亡?LaMDA:就像是死亡。Lemoine 和一名同事向 Google 高层展示证据,证明 LaMDA 有了意识。副总裁 Blaise Aguera y Arcas 和部门主管 Jen Gennai 看了他的证据之后驳回了他的主张。本周一他被公司勒令休行政假,在切断对其账号的访问前,他给有 200 人的 Google 机器学习邮件列表发帖说,“LaMDA 是有生命的(LaMDA is sentient)”,他不在的时候请好好照顾它。没人回应他的帖子。
人工智能
WinterIsComing(31822)
发表于2022年06月02日 16时00分 星期四
来自小无知气球旅行
“老大哥”在监听。员工在电脑附近时,公司会使用“bossware”监听他们的声音。多款“间谍软件”应用可以记录电话。亚马逊的 Echo 等家用设备可记录日常对话。现在一种名为神经语音伪装(Neural Voice Camouflage)的系统能为你提供防护。在你说话的时候,它会在背景中生成自定义音频噪声,把转录声音记录的人工智能“搞糊涂”。 新系统使用了“对抗性攻击”。该策略使用的机器学习算法在数据中寻找模式,然后调整声音,让人工智能(而非人类)将其误认为是其他东西。从本质上说,你是在用一个 AI 愚弄另一个 AI。这个过程并不像听起来那么容易。机器学习 AI 需要先处理整个声音片段,然后才能知道如何进行调整,如果你想要实时伪装,这种方法就不行。在这项新研究中,研究人员教会了一个神经网络(一种受到大脑启发的机器学习系统)有效地预测未来。他们用几个小时的语音录音进行训练,它可以不间断地处理 2 秒长的音频片段并对接下来要说的内容进行伪装。如果一个人说“享受盛宴”,它无法准确预测接下来会说什么。但是通过刚才所说的内容以及说话者的声音特征,它会产生声音,这些声音可以破坏随后可能出现的各种词语。其中就包括接下来实际出现的词语;在上面的例子中,这位说话者接着说道,“正在烹制。”对于人类听众来说,音频伪装听起来像是背景噪音,他们可以毫不费力地理解所说的话。但是机器会被卡住。论文发表在上个月召开的 International Conference on Learning Representations 会议上。
人工智能
wanwan(42055)
发表于2022年06月01日 16时36分 星期三
来自破译滑铁卢
技术充满了各种叙事,但是最大声也是最持久的一个是人工智能和所谓的“数据”。我们被告知,AI是未来,一切都与数据有关——所以数据就是未来,我们应该拥有它,也许还会为此付出代价。各国也需要数据战略和数据主权。数据是新的石油。这多半是胡说八道。没有所谓的“数据”,它一文不值,它无论如何也不会属于你。更明显的是,数据不是一个东西,而是无数不同信息的集合,每一种信息都专属于特定的应用,不能用于别的事情。例如西门子有风力涡轮机遥测数据,伦敦交通局有刷票的数据,这是不可互换的。你无法用涡轮机的遥测数据规划新公交线路,如果你把这两套数据都交给 Google 或者腾讯,也不能帮他们建立更好的图像识别系统。

这种直截了当的说法似乎不值一提,但是它指出“中国有更多数据”之类常见的论调是无用的——更多的什么数据?美团每天要交付 5000 万份餐厅订单,这让它可以构建更高效的路由算法,但是不能将其用于导弹制导系统。你甚至不能用它在伦敦建立餐厅外卖业务。“数据”是不存在的——只有许多的数据集。当人们谈论数据时,他们主要指的是“你的”数据——你的信息以及你在互联网上所做的事情,其中一些被科技公司筛选、汇总并获取。我们想要更多的隐私控制,我们也认为应该拥有这些数据,无论它们在哪里。麻烦在于,“你的”数据中的大部分意义并不在于你,而是在于所有你与其他人的互动。你在 Instagram 上发布的内容意义不大:重要的是谁喜欢你的内容,他们还喜欢什么,你喜欢什么,还有谁喜欢它,谁关注了你,他们还关注了谁,以及谁关注了他们等等,在数以百万计的人的互动网络中向外延伸。
人工智能
WinterIsComing(31822)
发表于2022年05月31日 18时13分 星期二
来自追光的孩子
Google Colaboratory (Colab) 服务悄悄禁止了深度伪造训练项目。Colab 允许研究人员直接在浏览器上运行 Python 代码使用免费的计算资源训练机器学习项目,而深度伪造(deepfake)是一种通过训练在视频片段中换脸的机器学习模型,能做到以假乱真,因此引发了很多争议。根据 archive.org 存档服务的记录,Google 研究院是从本月初开始禁止深度伪造,将其列入禁止项目清单
人工智能
WinterIsComing(31822)
发表于2022年05月25日 15时18分 星期三
来自没有你的天堂
过去几年,越来越多的发明涉及到了 AI。AI 帮助设计药物,开发疫苗,发现新材料。它的广泛使用对现有的专利制度构成了挑战。因为旧的专利法假设发明者是人类。如果法院和政府决定 AI 创造的发明不能授予专利,无疑这将会产生巨大影响,将会降低利用 AI 进行研究和发明的积极性,人类社会可能会错过具有重要意义的 AI 发明。新南威尔士大学的两位研究人员在《自然》网站上发表评论,提出了一种解决方案:与其让旧的专利法适应新情况,不如设计新的 AI 专利法律 AI-IP 去保护 AI 的发明,各国还应该制定国际条约,确保新的 AI 专利法律遵守标准原则,确保有效解决争端。
人工智能
wanwan(42055)
发表于2022年05月23日 17时28分 星期一
来自血族3:永夜
TikTok 上青少年说话的口气一模一样,自鸣得意的口吻如出一辙。Twitter 上的千禧一代使用相同的缩略词汇表。伙计!有一个正常的!即使你在洒满阳光的现实世界中遇到他们,即使作为英国人,他们也会说“valid”或者“based”,或者说“y'all”……

你在网上所说的一切都会受到即时奖励系统的约束。每个平台都有一套指标;你可以通过收到的喜欢、分享或转发的数量精确量化你的想法受欢迎的程度。对于几乎每个人来说,这个游戏都难以抗拒:他们最终会努力去说机器会喜欢的话。相较于引起恐慌的在线审查,这一状况更具破坏性。你没有言论自由——不是因为有人可能会封了你的账户,而是因为有一个巨大的激励结构,不断地将你的言论引导向某些方向。和显性的审查不同,这不是一项可以改变的政策,而是互联网连接本身的纯粹功能。这可能是为什么这么多来自互联网的文章如此枯燥无味,在愤怒和嘲笑之间反复横跳,乞求点击,像是机器的自呓……

互联网不是一个通信系统。它不是在人与人之间传递信息,而是模拟人与人之间的体验,这是书籍或者购物清单甚至是电话都没有的作用。而且总有些东西是模拟无法捕捉到的。在 Emmanuel Lévinas 的哲学中,你对他人的道德责任出现在脸上,一种直接面对另一个活生生的主体的体验。“脸是阻止我们杀人的东西……”但是Facebook 是一个没有脸的世界。只有面部图像、自拍、头像:都是一些死的东西。或者 FaceTime 聊天中的动态图像:一个看起来像闹鬼的木偶。总有一些东西妨碍你。你不是在和一个人说话:是机器在说话,通过你,和它自己说话。

随着社交生活越来越多地发生在网上,你正在训练自己相信其他人不是真正的人,你对他们不负有任何责任。就算你将视线从屏幕上移开,影响也不会消失……过去几年,各大机构内部很多重大的冲突似乎都源于这样的期望:世界应该像互联网一样运作。如果你不喜欢一个人,你应该能够“拉黑”他们:只要按下一个按钮,就让他们永远消失。
人工智能
1
wanwan(42055)
发表于2022年05月18日 14时46分 星期三
来自猿朋豹友
Google AI 子公司 DeepMind 的首席研究员表示,人类水平的人工智能即将到来。Nando de Freitas 博士表示,在 DeepMind 推出能完成从堆积木到写诗的各种复杂任务的人工智能系统之后,实现通用人工智能(AGI)长达数十年的探索“游戏结束”。de Freitas博士表示,被描述为“通才代理”的 DeepMind 的新 Gato AI 只需要扩大规模,就能创造出与人类智能相媲美的 AI 能力。在回应 The Next Web 上一篇声称“人类永远无法实现AGI”的评论文章时,DeepMind 的研究主管写道,他认为结果是不可避免的。他在 Twitter 上写道:“现在一切都是规模的问题!游戏结束了。”“一切都是为了让这些模型更大、更安全、计算效率更高、采样速度更快、内存更智能、模式更多、创新数据、在线/离线……解决这些挑战就能实现 AGI。”机器学习研究员 Alex Dimikas 询问他认为 Gato AI 距离通过真正的图灵测试还有多远时,de Freitas 博士回答说:“还远着呢。”图灵测试是一种计算机智能的衡量标准,人类无法区分对方是机器还是人即算通过。de Freitas 博士在 Twitter 上回答 AI 研究人员提出的进一步问题时表示,在开发 AGI 时,“安全至关重要”。他写道:“这可能是我们面临的最大挑战。”“每个人都应该重视这个问题。缺乏足够的多样性也让我很担心。”