文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
ken:feigaobox@gmail.com
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。

Solidot 公告
投 票
热门评论
- 说的是浏览器,标题能不能说清楚了 (1 points, 一般) by cutpigsrollaroundint 在 2022年05月26日10时39分 星期四 评论到 Bing 合同禁止 DuckDuckGo 完全屏蔽微软跟踪程序
- 小编懦夫 (1 points, 一般) by solidot1653484807 在 2022年05月26日09时22分 星期四 评论到 小米想要禁止用户提取 apk 文件
- 油耗降低40%? (1 points, 一般) by africwildman 在 2022年05月26日07时46分 星期四 评论到 无人驾驶汽车可能会让人类司机更高效驾驶
- 小编傻逼 (1 points, 一般) by solidot1653484807 在 2022年05月25日21时22分 星期三 评论到 小米想要禁止用户提取 apk 文件
- 这有啥好的,早就知道 (1 points, 一般) by solidot1653451451 在 2022年05月25日12时07分 星期三 评论到 研究人员演示对特斯拉汽车的蓝牙中继攻击
- ox (1 points, 一般) by solidot1551846701 在 2022年05月25日08时23分 星期三 评论到 小米想要禁止用户提取 apk 文件
- 题文不对 (1 points, 一般) by qq33357486 在 2022年05月24日10时19分 星期二 评论到 实用的无线电力传输成真
- (1 points, 一般) by wsxy162 在 2022年05月21日10时54分 星期六 评论到 Gitee 开源库将先审再上线
- 已经被外星人控制了 (1 points, 一般) by solidot1545438451 在 2022年05月21日09时54分 星期六 评论到 工程师调查 NASA 航海者1号遥测数据
- 航海者一号-->旅行者一号 (1 points, 一般) by cutpigsrollaroundint 在 2022年05月20日19时40分 星期五 评论到 工程师调查 NASA 航海者1号遥测数据

蓝色巨人推出了基于 AI 的方法重编程旧的应用以运行在今天的计算机平台上。新的方法被称为 Mono2Micro 和 Application Modernization Accelerator(AMA),给予应用架构师新的工具去更新遗留应用程序,从中提取出新的价值。未来有一天,AI 可能会将 COBOL 写的应用程序自动翻译到 Java。IBM 研究院混合云服务总监 Nick Fuller 谨慎的指出,最新的 AI 方法只能将非模块化的大应用程序的遗留机器码分解为独立微服务,而翻译到编程语言仍然是目前还需要解决的根本难题。
新华社报道,西北大学的科研团队正依托人工智能等新技术,研发“猴脸识别技术”,用于识别秦岭地区的数千只川金丝猴。与人脸识别技术相似,猴脸识别技术通过提取金丝猴面部特征信息,建立秦岭金丝猴个体的身份信息库,最终扫描、比对、识别。“猴脸识别技术完全成熟后,我们可将其装在野外布设的红外相机中,系统可自动认猴、命名,搜集它们的行为。”研究团队成员张河说。目前,猴脸识别技术处于实验推广阶段,可识别约 200 只秦岭金丝猴。“每只金丝猴,我们采集了七八百张图像样本,识别成功率达到 94%。”张河说。
《连线》发表文章谈论了成立不久的北京智源人工智能研究院,介绍了多个正在研发的项目,以及 AI 进步带来的道德伦理问题。文章称,人大教授文继荣在该研究院做兼职,领导一个团队开发类似 OpenAI 的 GPT-3 的新语言模型。他计划组合机器学习和事实数据库,用大量的图像、视频和文字进行训练,希望创造一种对物理世界有着更深入理解的算法。吸引文教授加入智源的一个地方是它有着惊人的计算资源。他的语言模式是智源多个旨在取得基础性进步的 AI 项目之一。这些突破有望对政府提供直接的帮助。文说,他的语言系统能作为智能助手帮助公民完成在线任务如申请签证、驾照或营业许可。政府也能从其它方面受益于语言模型的进步,如扫描社交媒体内容。与此同时,官员也在担心 AI 可能会侵蚀国家权力。研究院的多个项目旨在对 AI 的商业使用设定限制,抵御道德伦理方面的挑战,遏制大型科技公司的权力。
AI 是一种计算密集型任务,据估算,训练一个 AI 模型所产生的碳足迹与制造五辆汽车并在其整个寿命期内所产生的碳足迹相当。为什么 AI 需要消耗如此多的能量?传统的数据处理工作在数据中心内完成,如视频串流、电子邮件和社交媒体。AI 对计算要求更高,它需要阅读大量的数据直到它能理解,也就是它被训练了。相比人类的学习 AI 的训练是非常低效的。现代 AI 使用人工神经网络,模拟人脑神经元的数学计算。神经元之间的连接强度是被称为权值的网络参数。一开始网络的权值是任意的,会一直进行调整直到输出结果与正确答案相同。训练一个语言网络的常用方法是输入大量的文本,将部分文字掩盖起来,让它猜出掩盖的文字。一开始模型产生的答案是错误的,但在多轮的调整之后,改变后的连接权值开始识别数据中的模式,网络最终变得很精确。最近出现的一个语言模型叫 Bidirectional Encoder Representations from Transformers (BERT),它使用了来自维基百科和英语书籍中的 33 亿个字进行训练,BERT 用数据集训练的次数不是一次,而是 40 次。一名普通儿童学会讲话只需要在 5 岁前听到 4500 万字,其数据是 BERT 的三千分之一。前不久引发轰动的 GPT-3 语言模型其网络有 1750亿个权值。
图灵(Alan Turing)在 1950 年发表了模仿游戏论文引入图灵测试去回答“机器能否思考”这个问题。测试的目的是判断机器是否能表现出人类也无法区分的对话行为。图灵预言,到 2000 年在模仿游戏中普通人能区分人与机器人的概率将会低于 70%。亚马逊语音助手 Alexa 部门的首席科学家 Rohit Prasad 认为,随着 AI 被广泛整合到手机、汽车和家庭,人们现在关心的是人机之间的互动,而不是区分机器和人类。他认为图灵测试过时了,AI 需要新基准测试。Rohit Prasad 指出,最近几年的聊天机器人程序已经能欺骗三成以上的裁判相信它是人类,而愚弄 30% 的裁判这一阈值实际上是任意设定的,并无多大的意义。
DeepMind 的最新 AI 无需知道规则就能精通游戏。该公司的研究人员在《自然》期刊上发表研究(预印本)报告了新 AI 算法 MuZero。DeepMind 以打败围棋世界冠军的 AlphaGo 闻名,AlphaGo 利用了无数棋局进行训练。2017 年 DeepMind 推出了 AlphaZero,只需要知道基本规则就能自我训练精通游戏的 AI 算法。MuZero 则不再需要知道规则。它通过不断的试错去了解规则所允许的动作,同时了解特定动作所带来的奖励。它在此过程中不断学习找到更容易获得奖励的方法。通过同时学习规则和改进玩法,MuZero 在数据利用效率超过了 AlphaZero 等前辈。研究人员正尝试将 MuZero 应用于视频压缩、自动驾驶和蛋白质设计。这一系统需要的算力非常多,但训练完成之后决策所需要的处理能力不需要多少,可以通过智能手机完成操作。儿童掌握知识的能力曾让很多人惊叹,语言学家 Noam Chomsky 曾主张儿童需要灌输语法知识否则难以掌握语言。这一观点受到越来越多的质疑。
路透根据 Google 内部文档和对研究人员的采访报道, 搜索巨人加强了对旗下科学家发表敏感主题论文的审查,告诉科学家论文的基调要正面而不要负面。Google 将涉及脸部和情感分析、以及种族、性别或政治相关主题列入敏感主题,它在内部网页告诉研究人员,技术进步和外部环境日益复杂,导致许多看似普普通通的项目却引发了道德、监管或法律方面的问题。它在标准的论文审查流程中对敏感主题加入了额外的一层审查。在一个案例中,Google 的一名高级经理在一项内容推荐技术研究发表前告诉研究人员“基调要积极”,研究人员随后更新了论文移除了所有提及 Google 产品的内容。
日经报道,索尼最早在 2021 年春季对所有使用人工智能(AI)的产品进行伦理方面的安全性审查。被判定为不合规的产品将进行整改或停止开发。AI 可以提高便利性,但由于作业时的判断标准不透明,存在可能会无意中引起歧视等问题。随着 AI 产品的普及,开发人员的责任增大,企业也将强化对策。
12 月 15 日,美国空军成功试飞了由 AI 担任副驾驶的 U-2 高空间谍飞机。这是 AI 首次控制一架美国军用飞机。对 AI 飞行员来说这次试飞可能只代表着前进的一小步,但它同时也代表着未来军事行动中计算机化的一大步。美国空军负责后勤采购的助理部长 Will Roper 博士透露,这位 AI 副驾驶被称为 ARTUµ。演示飞行模拟了 Beale 空军基地遭到导弹袭击,U-2 执行侦察任务,ARTUµ 负责搜寻敌人的导弹发射器,人类飞行员搜寻敌方飞机,AI 和飞行员共享雷达。AI 自主做出决定将雷达用于导弹搜寻而不是自我保护。U-2 给予了 AI 对雷达的完整访问,但关闭了它对飞机其它子系统的访问。这种设计允许操作人员选择 AI 不能做什么,并接受 AI 所作所为带来的风险。
牛津大学人类未来研究所高级研究员 Toby Ord 认为,本世纪发生自然灾害的几率不到两千分之一,然而如果考虑人为灾难,这种可能性会增加到惊人的六分之一。其中一种可能的情况是 AI 创造的全球极权主义。未来研究所主任 Nick Bostrom 在他的《单例假说》中解释了如何利用 AI 或其他强大技术形成一个全球政府,以及它可能无法被推翻的原因。如果单一决策是极权主义的,人类文明将是暗淡的。曾经即使是在制度最严格的国家,新闻也可以从其他国家流入,人们也可以选择流亡。全球性的极权主义统治会彻底消灭这些希望。在过去,监视需要数十万人参与,例如东德每 100 个公民中就有一个人是线人。但现在这可以通过技术实现。
在一次国际象棋竞标赛中,前六名有五人因作弊被取消资格。在另一场比赛中,10 岁参赛者的父母拒绝接受他们的孩子以世界第一的水平下棋的证据。这些事件并非是孤立的。新冠疫情爆发之后,国际象棋比赛转到了网上。但随之而来的一个问题是,强大的国际象棋程序可以让参赛选手以超出其水平进行比赛,国际象棋比赛面临一场作弊危机。为了反击作弊程序,顶级比赛越来越多的要求参赛棋手必须同意接受多个摄像头的监视,允许主办方远程访问计算机,限制离开屏幕,甚至在某些情况下允许派人去检查房间,在比赛期间和选手同居一室。如果一名选手多次可疑的看望别处,跟踪眼睛的程序就可能发出警告。世界最大的国际象棋在线网站 Chess.com 表示今年的新增用户数 1200 万,而去年只有 650 万。作弊率则从去年的 5000 到 6000 增加到 1.7 万。
Daniel Voshart 是电影业的一位 VR 专家,因为新冠疫情他的工作项目都暂停了,所以他开始做一些个人爱好项目,他最近完成的一个项目是为罗马帝国的 54 位皇帝创造照片级的肖像,销售这些肖像的印刷版。出乎他意料的是,首批 300 幅肖像在短时间内就售罄了。为了创造罗马皇帝的肖像,他组合使用了多种软件和资源,主要是叫 ArtBreeder 的在线程序,该程序利用了名为生成式对抗网络的机器学习方法。Voshart 向 ArtBreeder 输入了来自雕塑、硬币和绘画的罗马皇帝图像,然后根据历史描述使用 Photoshop 进行调整,再将调整后的图像输入回 ArtBreeder,重复多次,最后得到了最佳的照片级图像。
在 DARPA 的 AlphaDogfight 近距离空战格斗模拟测试中,Heron Systems 公司开发的 AI 飞行员以 5 比 0 大败美国空军的顶尖飞行员。不过 AI 真正取代人类飞行员还有很长的路要走。Heron Systems 的 AI 程序用了约一年时间开发,该公司的项目联合负责人 Ben Bell 说,在 Trial 1 前一周,他们的程序还不十分擅长飞行。人类飞行员称,AI 在战斗模拟中极具攻击性,能持续转弯展开打击,有着超人般的瞄准能力。该公司计划在年底公布 AI 强化学习过程的部分细节。DARPA 的 Air Combat Evolution (ACE)项目的测试设计降低空中作战任务的风险,探索人类和 AI 飞行员如何分享战斗机的飞行控制,最大化任务成功率。ACE 的总体概念是让人类飞行员从单一平台的操作人员转为任务指挥官,除了操作战斗机,还要指挥无人机编队协同作战。
照片中的光影组合起来有时候会让人眼产生人脸的错觉,但并不是照片中真的存在人脸。Reddit 专门有一个频道展示此类的照片。摄影师 Jomppe Vaarakallio 拍摄了一幅会让人产生人脸错觉的照片,他用 Topaz Labs 公司的 Gigapixel AI 软件对照片进行了一下处理,结果神奇的事情发生了:软件莫名其妙的向照片添加了知名演员 Ryan Gosling 的头像。他重新用软件处理了一下,发现结果相同。关闭软件的人脸识别功能,Gosling 的脸才消失。
芝加哥大学 SAND 实验室发布了保护个人隐私的系统 Fawkes,源代码采用 BSD 3-Clause 许可证托管在 GitHub 上,相关论文(pdf)将发表在下个月举行的 USENIX Security 2020 在线会议上。Fawkes 是运行在本地计算机上的算法和软件工具,可以让用户伪装照片,限制其被用于面部识别。Fawkes 能对照片进行处理,对其进行像素级别的细微改变,而这种改变人眼无法识别出。研究人员将这种方法称为“image cloaking”。用户可以正常使用伪装后的照片,在社交网络中进行分享,可以发送给朋友。但是当有人收集这些公开的人脸照片去构建面部识别模型,伪装后的照片将会构建出高度扭曲的人脸。这种伪装效应难以探测,不会在模型训练中显示错误。如果人脸识别系统试图利用这个模型来识别你,它将会失败。
训练最新 AI 系统需要惊人的计算资源,这意味着囊中羞涩的学术界实验室很难赶上富有的科技公司。但一种新的方法可以让科学家在单台计算机上训练先进的 AI。2018 年 OpenAI 报告每 3.4 个月训练最强大 AI 所需的处理能力会翻一番,其中深度强化学习对处理尤为苛刻。现在,南加州大学和英特尔实验室的研究人员找到了一种方法,在实验室使用的高端计算机上训练深度强化学习。他们的论文(预印本)发表在上周的机器学习国际会议上。需求是发明之母,论文主要作者 Aleksei Petrenko 是南加州的研究生,英特尔的实习生。在实习结束之际他无法再访问芯片巨人的超级计算机,继续未完成的深度强化学习项目。因此他和同事决定寻找方法在简单系统上继续工作。
AI 研究机构 OpenAI 于 5 月 29 日公布了其下一代文本生成神经网络 GPT-3 的研究论文。GPT-3 的训练规模是上一代 GPT-2 的 117 倍,它是如此之大,以至于无法运行在传统计算机上,目前主要通过邀请测试的方法提供 API 供测试者使用。测试者最近发布了多篇文章,演示了 GPT-3 出色的文本生成效果,如图灵测试,一篇还算通顺的文章读到结尾你才知道前面都是 AI 生成的。Sharif Shameem 利用 GPT-3 开发了一个布局生成器,能根据你描述的任何布局生成 JSX 代码。尽管如此,它的成功率可能还是不适合生产应用使用。