各位朋友大家好,欢迎您进入solidot新版网站,在使用过程中有任何问题或建议,请与很忙的管理员联系。
adv
人工智能
WinterIsComing(31822)
发表于2021年04月11日 20时18分 星期日
来自
AI 的一大瓶颈是训练成本,深度神经网络(DNN)的训练通常是一系列矩阵乘法操作,这是 GPU 非常擅长的工作,但 GPU 尤其是专业级显卡要比 CPU 昂贵得多。Rice 大学的计算机科学家和英特尔的研究人员从 2019 年就开始探讨使用 CPU 训练深度神经网络,他们采取的方法是将 DNN 训练转变成能用哈希表解决的搜索问题,他们的 "sub-linear deep learning engine" (SLIDE) 设计运行在商业 CPU 上。2019 年的研究显示,SLIDE  训练所需时间为 GPU 的 2/7。现在,研究人员利用现代 CPU 的向量化和内存优化加速器改进了 SLIDE 的性能,用 CPU 算法训练深度神经网络比 GPU 快 15 倍。他们的代码发布在 GitHub 上。
人工智能
WinterIsComing(31822)
发表于2021年04月06日 23时50分 星期二
来自
人类很容易通过直觉就知道简单动作序列之间的因果性,但对于机器算法而言,因果性仍然是一大挑战。机器学习,尤其是深度神经网络,擅长于从海量数据中识别微妙的模式,但它们很难像人类那样做出因果推断。这是机器学习难以推广到更广泛领域的一个原因。Max Planck Institute for Intelligent Systems、Montreal Institute for Learning Algorithms (Mila) 和 Google Research 的研究人员最近在预印本网站发表论文探讨了这一问题。研究人员指出,今天机器学习的成功很大程度上是对独立收集且恒等分布的数据集的大规模模式识别。但随着环境日益复杂,尤其是对自动驾驶来说,缺乏对因果性的理解使得 AI 难以预测和处理新的情况。这是为什么在数百万英里的训练之后,自动驾驶汽车仍然会犯奇怪而危险错误的原因。主流机器学习算法因其可扩展性而受到青睐,但基于统计规律而不是因果性进行训练的算法是很容易失效的。
人工智能
WinterIsComing(31822)
发表于2021年03月25日 21时23分 星期四
来自
英国工会联盟一份新报告显示,英国急需出台新的法律保护措施,规范人工智能(AI)在职场的应用,防止劳动者被算法雇佣或解雇。新冠疫情加速了高科技管理工具的应用,雇主越来越多地使用人工智能来帮助他们远程招聘、筛选裁员候选人、确定绩效评级、分配工作并监控居家办公的员工的工作效率。英国工会联盟认为,劳工法未能跟上新技术的推广步伐,并希望雇主、科技公司和政府采取行动填补空白。
人工智能
WinterIsComing(31822)
发表于2021年03月23日 17时00分 星期二
来自
美国国防部高级研究计划署(DARPA )的 Air Combat Evolution (ACE)项目旨在设计降低空中作战任务的风险,探索人类和 AI 飞行员如何分享战斗机的飞行控制,最大化任务成功率。ACE 的总体概念是让人类飞行员从单一平台的操作人员转为任务指挥官,除了操作战斗机,还要指挥无人机编队协同作战。在去年 8 月的 AlphaDogfight 测试中,AI 控制的 F16 战斗机在近距离空战格斗模拟中以五比一大败人类飞行员。在今年 2 月的 Scrimmage 1 空战格斗测试中,AI 充当了僚机,两架蓝队飞机协同打败一架红队飞机。在 AlphaDogfight 测试中,AI 战斗机只使用机枪,新模拟测试引入了可攻击远程目标的导弹。随着测试的进一步深入,模拟的场景将越来越类似实战。DARPA 计划最终让 AI 飞行员能以自主的形式执行空中格斗任务。
人工智能
WinterIsComing(31822)
发表于2021年03月22日 23时36分 星期一
来自
《自然》期刊上周发表了 IBM AI 研究院的一篇论文(PDF)描述了与人类展开辩论的 AI 项目 Project Debater。Project Debater 在 2019 年与人类辩论冠军 Harish Natarajan 展开了辩论,主题是学前教育是否应该补贴。每一方在没有互联网连接的情况下给 15 分钟的准备时间,Project Debater 使用的是自己的内部内容数据库。每一方给 4 分钟的演讲时间和 2 分钟结束陈词。裁判判定 Natarajan 赢得了辩论,但 Project Debater 也令人眼前一亮,它能形成合乎逻辑的陈述和论点。项目网站提供了整个辩论过程的视频。
人工智能
WinterIsComing(31822)
发表于2021年03月15日 15时39分 星期一
来自
MIT 的科学家利用深度学习在智能手机快速生成了逼真的彩色三维全息图。研究报告发表在《自然》期刊上。这项研究可应用于虚拟现实和增强现实。全息图是一种让二维视窗看起来像三维场景的图像,而全息显示器能创造出人眼不会感到疲劳的三维图像。虽然企业在全息显示的硬件开发上取得了进步,但为这些设备生成全息数据仍然是一大挑战。全息图需要编码大量的数据以产生深度的错觉,生成全息视频通常需要超算的算力。为了普及全息视频,科学家尝试了很多方法减少计算量,但现有的方法主要是降低图像质量实现的。MIT 的研究人员利用卷积神经网络学习如何从有深度信息的图像中产生新的全息图。新的系统只需要不到 620KB 的内存,能在消费级 GPU 上每秒生成 60 张分辨率 1,920 x 1,080 的彩色三维全息图,在 iPhone 11 Pro 上的速率是 1.1,而 Google Edge TP 是 2。未来生成实时的全息图将是可能的。
人工智能
WinterIsComing(31822)
发表于2021年03月09日 10时26分 星期二
来自
为了证明 AI 驾驶比人类司机更安全,Waymo 模拟了亚利桑那州近十年发生的数十起致命车祸,假设车祸中的汽车之一由 AI 驾驶会发生什么。模拟结果显示,如果 AI 驾驶车祸中的任意一辆汽车,基本上可以完全避免死亡。这一研究旨在证明 AI 驾驶比人类驾驶更安全。全世界每年有数百万人死于车祸,自动驾驶汽车公司一直努力说服监管机构允许在公路上行驶完全自动驾驶汽车。但今天能在公路上行驶的自动驾驶汽车数量十分有限,无法提供更多统计数据,因此 Waymo 转向了模拟实际发生的车祸。
人工智能
WinterIsComing(31822)
发表于2021年03月05日 20时23分 星期五
来自
本田公司成为第一家销售 SAE Level 3 自动驾驶系统的汽车公司。它将在日本市场上销售 100 辆单价超过 10 万美元的 Honda Sensing Elite。目前市场上销售的汽车最多只配备 Level 2 自动驾驶系统如特斯拉的 Autopilot 系统,Level 2 只具有半自动能力,而 Level 4 具有全自动驾驶能力,Level 3 是朝着全自动驾驶的重要一步,意味着汽车基本具备了自动驾驶能力,跟根据周围的环境做出决定,允许司机双手脱离方向盘,在显示屏上看看视频。当然让汽车完全由 AI 控制并不安全,本田仍然建议司机注意周围环境。
人工智能
WinterIsComing(31822)
发表于2021年02月25日 21时07分 星期四
来自
蓝色巨人推出了基于 AI 的方法重编程旧的应用以运行在今天的计算机平台上。新的方法被称为 Mono2MicroApplication Modernization Accelerator(AMA),给予应用架构师新的工具去更新遗留应用程序,从中提取出新的价值。未来有一天,AI 可能会将 COBOL 写的应用程序自动翻译到 Java。IBM 研究院混合云服务总监 Nick Fuller 谨慎的指出,最新的 AI 方法只能将非模块化的大应用程序的遗留机器码分解为独立微服务,而翻译到编程语言仍然是目前还需要解决的根本难题。
人工智能
WinterIsComing(31822)
发表于2021年02月22日 14时06分 星期一
来自
新华社报道,西北大学的科研团队正依托人工智能等新技术,研发“猴脸识别技术”,用于识别秦岭地区的数千只川金丝猴。与人脸识别技术相似,猴脸识别技术通过提取金丝猴面部特征信息,建立秦岭金丝猴个体的身份信息库,最终扫描、比对、识别。“猴脸识别技术完全成熟后,我们可将其装在野外布设的红外相机中,系统可自动认猴、命名,搜集它们的行为。”研究团队成员张河说。目前,猴脸识别技术处于实验推广阶段,可识别约 200 只秦岭金丝猴。“每只金丝猴,我们采集了七八百张图像样本,识别成功率达到 94%。”张河说。
人工智能
WinterIsComing(31822)
发表于2021年01月22日 21时19分 星期五
来自
《连线》发表文章谈论了成立不久的北京智源人工智能研究院,介绍了多个正在研发的项目,以及 AI 进步带来的道德伦理问题。文章称,人大教授文继荣在该研究院做兼职,领导一个团队开发类似 OpenAI 的 GPT-3 的新语言模型。他计划组合机器学习和事实数据库,用大量的图像、视频和文字进行训练,希望创造一种对物理世界有着更深入理解的算法。吸引文教授加入智源的一个地方是它有着惊人的计算资源。他的语言模式是智源多个旨在取得基础性进步的 AI 项目之一。这些突破有望对政府提供直接的帮助。文说,他的语言系统能作为智能助手帮助公民完成在线任务如申请签证、驾照或营业许可。政府也能从其它方面受益于语言模型的进步,如扫描社交媒体内容。与此同时,官员也在担心 AI 可能会侵蚀国家权力。研究院的多个项目旨在对 AI 的商业使用设定限制,抵御道德伦理方面的挑战,遏制大型科技公司的权力。
人工智能
WinterIsComing(31822)
发表于2020年12月30日 23时03分 星期三
来自
AI 是一种计算密集型任务,据估算,训练一个 AI 模型所产生的碳足迹与制造五辆汽车并在其整个寿命期内所产生的碳足迹相当。为什么 AI 需要消耗如此多的能量?传统的数据处理工作在数据中心内完成,如视频串流、电子邮件和社交媒体。AI 对计算要求更高,它需要阅读大量的数据直到它能理解,也就是它被训练了。相比人类的学习 AI 的训练是非常低效的。现代 AI 使用人工神经网络,模拟人脑神经元的数学计算。神经元之间的连接强度是被称为权值的网络参数。一开始网络的权值是任意的,会一直进行调整直到输出结果与正确答案相同。训练一个语言网络的常用方法是输入大量的文本,将部分文字掩盖起来,让它猜出掩盖的文字。一开始模型产生的答案是错误的,但在多轮的调整之后,改变后的连接权值开始识别数据中的模式,网络最终变得很精确。最近出现的一个语言模型叫 Bidirectional Encoder Representations from Transformers (BERT),它使用了来自维基百科和英语书籍中的 33 亿个字进行训练,BERT 用数据集训练的次数不是一次,而是 40 次。一名普通儿童学会讲话只需要在 5 岁前听到 4500 万字,其数据是 BERT 的三千分之一。前不久引发轰动的 GPT-3 语言模型其网络有 1750亿个权值。
人工智能
WinterIsComing(31822)
发表于2020年12月29日 17时36分 星期二
来自
图灵(Alan Turing)在 1950 年发表了模仿游戏论文引入图灵测试去回答“机器能否思考”这个问题。测试的目的是判断机器是否能表现出人类也无法区分的对话行为。图灵预言,到 2000 年在模仿游戏中普通人能区分人与机器人的概率将会低于 70%。亚马逊语音助手 Alexa 部门的首席科学家 Rohit Prasad 认为,随着 AI 被广泛整合到手机、汽车和家庭,人们现在关心的是人机之间的互动,而不是区分机器和人类。他认为图灵测试过时了,AI 需要新基准测试。Rohit Prasad 指出,最近几年的聊天机器人程序已经能欺骗三成以上的裁判相信它是人类,而愚弄 30% 的裁判这一阈值实际上是任意设定的,并无多大的意义。
人工智能
WinterIsComing(31822)
发表于2020年12月28日 20时37分 星期一
来自
DeepMind 的最新 AI 无需知道规则就能精通游戏。该公司的研究人员在《自然》期刊上发表研究(预印本)报告了新 AI 算法 MuZero。DeepMind 以打败围棋世界冠军的 AlphaGo 闻名,AlphaGo 利用了无数棋局进行训练。2017 年 DeepMind 推出了 AlphaZero,只需要知道基本规则就能自我训练精通游戏的 AI 算法。MuZero 则不再需要知道规则。它通过不断的试错去了解规则所允许的动作,同时了解特定动作所带来的奖励。它在此过程中不断学习找到更容易获得奖励的方法。通过同时学习规则和改进玩法,MuZero 在数据利用效率超过了 AlphaZero 等前辈。研究人员正尝试将 MuZero 应用于视频压缩、自动驾驶和蛋白质设计。这一系统需要的算力非常多,但训练完成之后决策所需要的处理能力不需要多少,可以通过智能手机完成操作。儿童掌握知识的能力曾让很多人惊叹,语言学家 Noam Chomsky 曾主张儿童需要灌输语法知识否则难以掌握语言。这一观点受到越来越多的质疑。
人工智能
WinterIsComing(31822)
发表于2020年12月23日 22时50分 星期三
来自
路透根据 Google 内部文档和对研究人员的采访报道, 搜索巨人加强了对旗下科学家发表敏感主题论文的审查,告诉科学家论文的基调要正面而不要负面。Google 将涉及脸部和情感分析、以及种族、性别或政治相关主题列入敏感主题,它在内部网页告诉研究人员,技术进步和外部环境日益复杂,导致许多看似普普通通的项目却引发了道德、监管或法律方面的问题。它在标准的论文审查流程中对敏感主题加入了额外的一层审查。在一个案例中,Google 的一名高级经理在一项内容推荐技术研究发表前告诉研究人员“基调要积极”,研究人员随后更新了论文移除了所有提及 Google 产品的内容。
人工智能
WinterIsComing(31822)
发表于2020年12月23日 13时03分 星期三
来自
日经报道,索尼最早在 2021 年春季对所有使用人工智能(AI)的产品进行伦理方面的安全性审查。被判定为不合规的产品将进行整改或停止开发。AI 可以提高便利性,但由于作业时的判断标准不透明,存在可能会无意中引起歧视等问题。随着 AI 产品的普及,开发人员的责任增大,企业也将强化对策。
人工智能
WinterIsComing(31822)
发表于2020年12月17日 19时24分 星期四
来自
12 月 15 日,美国空军成功试飞了由 AI 担任副驾驶的 U-2 高空间谍飞机。这是 AI 首次控制一架美国军用飞机。对 AI 飞行员来说这次试飞可能只代表着前进的一小步,但它同时也代表着未来军事行动中计算机化的一大步。美国空军负责后勤采购的助理部长 Will Roper 博士透露,这位 AI 副驾驶被称为 ARTUµ。演示飞行模拟了 Beale 空军基地遭到导弹袭击,U-2 执行侦察任务,ARTUµ 负责搜寻敌人的导弹发射器,人类飞行员搜寻敌方飞机,AI 和飞行员共享雷达。AI 自主做出决定将雷达用于导弹搜寻而不是自我保护。U-2 给予了 AI 对雷达的完整访问,但关闭了它对飞机其它子系统的访问。这种设计允许操作人员选择 AI 不能做什么,并接受 AI 所作所为带来的风险。
人工智能
WinterIsComing(31822)
发表于2020年12月01日 10时45分 星期二
来自
Google 子公司 DeepMind 开发的 AI 神经网络取得了一项重大突破——AI 能根据蛋白质的氨基酸序列判断其三维结构。这一突破有望大大加快新药的开发过程。科学家们花费了数十年时间试图弄清一个问题:最开始为链状的化合物的蛋白质,如何折叠成三维形状?这些形状决定了其行为。即使是识别单个蛋白质的形状也可能需要数年时间,但 DeepMind 表示,其 AlphaFold 系统能够在数天内提供准确结果,精度在一个原子的宽度以内。对蛋白质及其行为方式的了解,有望帮助研究人员研究几乎所有疾病,包括新冠。
人工智能
WinterIsComing(31822)
发表于2020年11月17日 14时28分 星期二
来自
牛津大学人类未来研究所高级研究员 Toby Ord 认为,本世纪发生自然灾害的几率不到两千分之一,然而如果考虑人为灾难,这种可能性会增加到惊人的六分之一。其中一种可能的情况是 AI 创造的全球极权主义。未来研究所主任 Nick Bostrom 在他的《单例假说》中解释了如何利用 AI 或其他强大技术形成一个全球政府,以及它可能无法被推翻的原因。如果单一决策是极权主义的,人类文明将是暗淡的。曾经即使是在制度最严格的国家,新闻也可以从其他国家流入,人们也可以选择流亡。全球性的极权主义统治会彻底消灭这些希望。在过去,监视需要数十万人参与,例如东德每 100 个公民中就有一个人是线人。但现在这可以通过技术实现。
人工智能
WinterIsComing(31822)
发表于2020年11月03日 20时16分 星期二
来自
在大多数应用中,类人机器人在多大程度上优于传统机器人尚不完全清楚,但有一个领域人们会更乐于与类人机器人打交道,那就是娱乐。迪士尼研究院、加州理工、伊利诺伊香槟和 Walt Disney Imagineering 公司的研究团队正试图创造更逼真的人机互动,他们着力于一个特殊的方面:眼神交流。他们的研究报告发表在 IROS 上。研究人员在论文中称,他们试图通过人与机器人之间的目光凝视创造出一种生命幻觉。