solidot新版网站常见问题,请点击这里查看。
adv
人工智能
wanwan(42055)
发表于2021年09月22日 18时16分 星期三
来自影舞
上个月,由数十位斯坦福大学研究人员共同撰写的论文将一部分 AI 模型称为“基石(foundation))”,引发了人们对于 AI 未来发展的争论。斯坦福大学提议建立新的研究机构来研究这些所谓“模型”,但反对者称这些“基石”会彻底“扰乱有意义的讨论”。 有人认为这些模型的功能相当有限、而且经常出现难以解释的怪异行为;也有些人警告称,这是在过度强调实现机器智能的特定一种方法。加州大学伯克利分校研究 AI 技术的 Jitendra Malik 教授在视频讨论中向与会者们宣布,“我认为「基石」这个词用得大错特错。”Malik 承认,斯坦福大学研究人员确定的这类能够回答问题、或者根据提示生成文本的大型语言模型确实拥有巨大的实际用途,但在他看来生物学进化证明语言需要建立在智能的多种具体基石之上,比如与物理世界互动的能力。Malik 强调,“这些模型只是空中楼阁,没有任何基础、自然也不应被称为基石。这些模型中的语言是被悬置起来的虚假产物,不存在任何对语义的真实理解……”亚利桑那州立大学 Subbarao Kambhampati 教授也认为,这些模型并不能指明通往通用型AI技术的确切路径……华盛顿大学语言学系 Emily M. Bender 教授则表示,她担心基石模型的想法反映出投资行业对于以数据为中心的AI方法的过度偏好……与之并列、同样非常重要的领域则严重缺乏资金。她指出,“希望行业能在把资金投入云端之前,先照顾一下其他没那么光鲜的相关学科。”
人工智能
wanwan(42055)
发表于2021年09月22日 16时45分 星期三
来自苏珊娜之歌
亚马逊货运司机表示,因为不可控的原因,安装在货车上的监控摄像头让他们蒙受损失。今年 2 月,亚马逊宣布将在自家品牌的配送货车上安装由 AI 技术初创厂商 Netradyne 制造的摄像头,作为“保护司机安全”的“创新方案”。亚马逊公司发言人在采访中表示,截至本月,亚马逊已经在全美范围内为超过半数配送车队安装了这项技术。媒体随后与加利福尼亚州、得克萨斯州、堪萨斯州、阿拉巴马州以及俄克拉荷马州的六位亚马逊配送司机及华盛顿一家亚马逊配送服务商老板进行了交流,他们表示 Netradyne 摄像头明显不鼓励安全驾驶,而且会定期因司机无法控制或者有违安全驾驶习惯的所谓“事件”施以惩罚。他们强调,司机观看后视镜、调节收音机、在盲人路口的停车标志前驻停或者在交通拥挤时被堵住等情况下都可能遭到罚款。

Netradyne 摄像头要求亚马逊司机签署同意书以监控他们的生物识别数据。这台摄像头上有四个镜头,能够在检测到“事件”时记录司机的情况,包括跟车太近、发现停车标志、不配合指示灯行驶以及分心驾驶等。当摄像头检测到“事件”后,就会将当前情况上传给亚马逊以及配送公司能够访问的 Netradyne 界面。在某些情况下,Netrayne 还会用机器音提醒司机“您已分心驾驶”或者“请保持安全距离”。每当摄像头记录到事件时,相应画面都会被上传至系统中记录下来,并影响到司机在一周结束时收到的安全驾驶评分。亚马逊司机认为,AI 监控摄像头已经成为亚马逊节约成本的手段。亚马逊配送司机与及配送公司被称为“配送服务合作伙伴”,报道称这些与亚马逊签订了合同的受雇司机很可能因为 Netradyne 的错误判断而蒙受收入损失。
人工智能
WinterIsComing(31822)
发表于2021年09月21日 13时16分 星期二
来自白鸟异传
去年 11 月 27 日,伊朗首席核科学家 Mohsen Fakhrizadeh 遭到袭击,《纽约时报》披露了此次暗杀行动的更多细节。

从 2004 年起,为阻止伊朗获得核武器,情报机构摩萨德对伊朗核设施发动了一系列的破坏行动,其中最瞩目的是利用 Stuxnet 蠕虫破坏铀浓缩离心机。与此同时,情报机构还使用暗杀手段除掉参与核武器项目的伊朗科学家。从 2007 年起摩萨德暗杀了 5 名核科学家,绝大部分科学家都直接为核武器项目负责人 Mohsen Fakhrizadeh 工作。2009 年摩萨德曾策划暗杀 Fakhrizadeh 但在最后时刻取消了任务,原因是摩萨德怀疑阴谋暴露伊朗在暗杀地点设下了埋伏。

2020 年 11 月 27 日,情报机构使用了不同的方法暗杀 Fakhrizadeh。当天下午 Fakhrizadeh 和妻子在武装人员的保护下离开位于里海的度假屋返回位于 Absard 的家,伊朗情报机构已对暗杀阴谋发出了警告,Fakhrizadeh 对此不以为然,以色列想要杀死他很久了,太多的威胁和阴谋让他对此不再过多关注。他想要过普通人的生活,经常自己驾车而不是在让保安驾驶装甲车护送回家。在摩萨德最新的计划中,为它工作的伊朗间谍将一辆蓝色尼桑 Zamyad 皮卡停在连接 Absard 和高速公路的一处地势较高的路边上,能清楚看到靠近的车辆,车内有一挺 7.62 毫米狙击机枪。下午一点左右,暗杀小队收到了 Fakhrizadeh 和妻子离开度假屋回 Absard 的情报。

负责暗杀的是一名富有经验的狙击手,他已经准备就绪,但他的人并不在 Absard 的附近,而是在电脑屏幕前,距离暗杀地点超过 1 千英里。整个暗杀小队已经离开了伊朗。皮卡上安装了多个摄像头,能看到周围情况。摄像头将图像传输到他的屏幕以及将狙击手的反应发送到机枪的过程大约需要 1.6 秒,这足以让最精确的攻击打偏,因此机枪使用了 AI 辅助去补偿延迟、震动和车速。在不到 60 秒内机枪射出了 15 发子弹,没有一颗射到相距 25 厘米的 Fakhrizadeh 的妻子。暗杀使用的设备是零碎走私进入伊朗的,所有零部件加起来大约重一吨,由于销毁设备的炸药部分失效,伊朗因此能搞清楚发生了什么。暗杀行动并没有放缓伊朗的核计划,伊朗被认为已经接近生产出用于核弹的足够的浓缩铀。但对于真正实现核武器化 Fakhrizadeh 的死亡被认为对伊朗产生了巨大影响。
人工智能
wanwan(42055)
发表于2021年09月14日 15时20分 星期二
来自千与千寻
这个网站简单但却醒目。白色背景之下,一个巨大的蓝色按钮邀请访问者上传一张人脸照片。按饼干下方,则是 4 个由 AI 生成、供用户测试的面部选项。网站上的标语大胆宣告:通过 deepfake 技术把人脸添加进成人视频,每个人都可以是色情明星。没错,只需要上传图片、按下按钮,定制化小黄片就此完成。MIT Technology Review 对该网站表示无语,我们则将其代称为Y。这里就不放具体内容或者截屏了,免得继续给该网站引流。这个网站是由 deepfake 研究员 Henry Ajder 所发现并上报的,他一直在跟踪在线合成媒体的演变与兴起趋势。

目前 Y 网站的名气还不是很大,只有小部分用户在积极通过线上论坛为创作者提供反馈。但研究人员担心这类应用的出现会打破早已脆弱不堪的道德底线。从一开始,deepfake(或者叫AI生成式合成媒体)的主要用途就是创建女性色情视频,但当事人往往会因此受到毁灭性的心理伤害。最初推广这项技术的 Reddit 创作者会将女性名人的面孔转换进色情视频。时至今日,研究公司 Sensity AI 估计网上的所有 Deepfake 视频中有 90% 到 95% 属于未经同意的色情内容,其中又有约九成以女性为主角。
人工智能
wanwan(42055)
发表于2021年09月10日 17时53分 星期五
来自你在天堂里遇见的下一个人
机器人吸尘器对养宠物的用户来说是一笔合算的投资,它就能自动帮我们清除掉污垢与宠物散落一地的毛发。但这种扫地机器人运行声音较大,如果主人有其他事情要忙,很可能会放它自己清扫、自己出门办事。如果您也这么干过,那最好是对宠物的排泄习惯抱有坚定的信心。如果宠物没能忍住,那么就会跟扫地机器人上演了一场“便便风暴”。iRobot 将使用新的Roomba j7+ Robt Vacuum 解决这种危机。它采用了新的“Genius 3.0”障碍检测系统、一个新的前置摄像头外加 AI 支持软件。对于新一代机器人,便便也会被认定为障碍物。如果您的心理承受能力不强,千万别上网乱搜“便便+扫地机器人(poop+Roomba)”。但大家应该可以想象,扫地机器人上有很多活动部件,例如轮子和旋转刷。整个过程就像是开车碾过泥地,机器人在遇到这团“小柔软”后,自己的旋转刷会很快变成油漆滚筒。之后机器人在房间里继续行进,这些热腾腾的油漆也就铺上了每一寸地面。
人工智能
wanwan(42055)
发表于2021年09月07日 15时26分 星期二
来自伦敦场地
哈佛商学院的一份报告指出,自动简历扫描软件是美国招聘体系“崩溃”的原因之一。报告作者指出,企业雇主本打算使用这种软件快速过滤求职者,但却错误地拒绝了数百万合格候选人。这无疑加剧了“隐藏劳动力”的问题——即有能力也有意愿工作,但却由于劳动力市场的结构性问题而被拒之门外的人。研究作者确定了多种阻碍人们就业的因素,表示自动招聘软件是最大的问题之一。目前美国企业雇主中有 75% 在使用这些程序(在财富五百强企业中的普及率更是高达 99%),旨在应对 1990 年代以来数字化工作应聘的快速增长。科技确实降低了人们申请工作的门槛,但也提高了被企业意外拒绝的几率。自动化软件错误拒绝候选人的确切理由各不相同,但大多源自以过于简单的标准来划分“好申请人”和“坏申请人”。
人工智能
WinterIsComing(31822)
发表于2021年09月07日 14时01分 星期二
来自小无知月宫探险(上中下)
加州计划通过一项新法案,反对据称在亚马逊物流中心使用的生产力测量算法。这项法案于今年 5 月由加州众议院通过,预计将于下周由参议院进行投票。如果最终通过,此项法案将对自动定额分配系统提出新的透明度要求,并阻止任何组织后续部署一切可能危及工人健康和安全的类似系统。圣迭戈民主党议员 Lorena Gonzalez 在 7 月提交此法案时还引用了 The Verge 网站发布的一份报告,发现“数百名”亚马逊仓库员工因未能达到巴尔的摩一物流中心的生产力指标而遭解雇。相关文件显示,亚马逊在使用一套高度自动化系统、能跟踪单一员工的实际生产效率。
Facebook
1
WinterIsComing(31822)
发表于2021年09月07日 11时24分 星期二
来自歌剧院魅影
2015 年 Google Photos 和 Flickr 的自动识别算法曾将黑人识别为黑猩猩,到了 2021 年社交巨人 Facebook 的 AI 系统被发现会仍然会犯下同样的错误。当 Facebook 用户在观看黑人特写的新闻片时,他们被 AI 推荐系统询问是否想要继续浏览“灵长类视频”。Facebook 为此道歉,称这是不可接受的错误,它已经禁用了该系统并发起调查。
人工智能
wanwan(42055)
发表于2021年09月06日 16时42分 星期一
来自天风怒
与其他网络阴谋论类似,由铁杆信徒、网络暴民与吃瓜群体的推波助澜,“互联网已死”的受众也在不断增长。这一论断充斥着尖锐的攻击性表达,认为互联网早在 2016 年或 2017 年初就已经“彻底死亡”,如今的网络“空无一人”、已经“是不毛之地”。我们在网上看到的大部分“所谓人造内容”实际上是用 AI 编写的。作为这一阴谋论的缔造者,昵称为 IlluminatiPirate 的用户还声称负责信息传播的则是机器人程序,外加一群与政府勾结、拿钱说话的职业“水军”。阴谋集团的意图是控制民众的思想并不断培养消费观念……他们认为一切现代娱乐都是由算法所生成并推荐;随着 DeepFake 技术的成熟,一切东西都有可能是梦幻泡影;其中还指向了 2018 年发布的一篇题为《互联网上还有真东西的?事实证明,不多了》的文章。这篇帖子继续说道,“我认为鉴于这样的形势,我做出的推断明显就是客观现实。美国政府正在对全球人口开展 AI 洗脑。”到目前为止,原帖已经被浏览超过 73000 次……

这一理论也在 YouTube 上成为传播者们的二创素材,其中包括用西班牙语制作的原帖总结视频,观看次数已经接近 26 万次。关于该理论真实性的猜测也开始出现在 Hacker News 与广受欢迎的 YouTube 频道 Linus Tech Tips 的粉丝群中。在 Reddit 论坛的超自然现象分论坛中,有人用这一理论解释为什么关于 UFO 的帖子似乎经常被“误删”,由此可见观念的传播似乎确实一直受到幕后力量的控制。IlluminatiPirate 还在多个讨论阴谋论的 Reddit 分论坛上发布过一条指向其宣言的链接。虽然听起来非常离谱,但与互联网上的其他无聊、纯粹煽动性或者受奇怪政治观点驱使的阴谋论相比,“互联网已死”其实有那么一点道理。没错,大家也可以认为这个理论本身就是陈词滥调,人们也一直在讨论如今的互联网正在失去个性和活力。就连 Facebook 员工也表示自己怀念“老”互联网。作为覆盖全球的庞大平台,现在的互联网确实在鼓励用户通过不断重复的对话与情绪曲线一遍又一遍地加深自己的“成见”,以至于人们可能会发现自己像机器人一样在以可预测的方式对网上的内容做出反应、而这种反应又会让推荐系统为我们推送更多可预测的内容。
人工智能
wanwan(42055)
发表于2021年08月31日 15时42分 星期二
来自星球卫士
“GPT-3,创作一份剧本的思路清单。”上周,一出名为《AI》的实验性作品在伦敦 Young Vic 剧院上演。导演 Jennifer Tang 对 AI 生成的素材进行拼凑整理,并招募了剧作家和演员来进一步充实戏剧细节。通过这样的引导方式,他们希望探索的问题并不是“AI 能自己编写剧本吗?”,而是“剧作家如何在 AI 的辅助下高效工作?”

在接收到创作指令之后,GPT-3 给出了各种各样的答案,但其中两个引起了团队的高度关注。第一个就是关于“我们的发展之路其实就是通往混沌之路,必须悬崖勒马予以逆转”的故事,其二则是探索“对人类个性及记忆的创造”以及这些概念如何在机器身上得以体现的故事。演员们需要就这些主题设计场景,GPT-3 为他们创造了一个名为“大碰撞”的灾难性事件,之后食物越来越稀缺、人们“像野兽般”在末世的土地上游荡。

这个反乌托邦故事的主角之一,正是一个希望“摆脱自身编程束缚与制约”、全面消灭人类这一痛苦根源的 AI。其中最引人注目的成功塑造,就是它体现出 AI 模型对人类成见及癔症化思维的反映能力……通过训练数据,GPT-3 明显掌握了杀戮这一概念背后所代表的恐怖力量,也证明人类对于 AI 的恐惧也很容易体现到 AI 模型当中。但这种反映并不准确,GPT-3 的场景基调彼此冲突、难以调和,对话也重复木讷、令人昏昏欲睡。看它创作的剧本,给人一种在马戏团的哈哈镜中审视自己的错觉。
人工智能
wanwan(42055)
发表于2021年08月25日 17时20分 星期三
来自2061:太空漫游
特斯拉最新发布的辅助驾驶软件 FSD(Full Self-Driving)Beta 9.2 版表现并不令人印象深刻。马斯克(Elon Musk)自己也有同感。他在推文里抱怨道,“FSD Beta 9.2 感觉不怎么样,但 Autopilot/AI 团队正团结一致、尽快改进。”虽然特斯拉的 FSD 功能有时表现不错,但 Beta 版本测试人员提供的视频显示它在关键时刻达不到预期。在一段视频中,一辆驶近小型建筑工地的汽车突然转向一个已经围起来的坑。早期测试版也出现过特斯拉在城市街道上成功转弯,而后冲向路边车辆或一头扎进道旁草丛的情况。

目前还不清楚马斯克相不相信特斯拉能完成年内实现 L5 级自动驾驶功能的目标。但他提出的目标已经引发加州车管局的质疑,对方甚至直接向特斯拉自动驾驶软件主管 CJ Moore 发问,想弄明白一辆号称任何时候都无需人为干预的自动驾驶汽车能不能在年内出现。 车管局在一份备忘录中写道,“我局要求 CJ 从工程技术的角度回答马斯克提出的,在年底之前实现 L5 级自动驾驶能力的目标。从马斯克的推文来看,这项目标与 CJ 的工程现实严重不符。” 备忘录还提到,“特斯拉目前处于 L2 级驾驶水平,至少要达到每 100 万或 200 万英里才介入一次的极低手操频率,才能达到更高的驾驶自动化级别。特斯拉表示,马斯克正在积极改进并努力向 L5 级别进军。但特斯拉目前无法保证在今年年底之内实现 L5 级自动驾驶目标。”
人工智能
wanwan(42055)
发表于2021年08月24日 18时05分 星期二
来自繁星若尘
2017 年 11 月 15 日英国佳士得拍卖行现场打开一瓶香槟,庆祝一幅名为Salvator Mundi(拉丁语,意为「世界的救世主」)的耶稣肖像画以 4.503 亿美元价格成交,成为迄今为止最高的画作拍卖价。 但就在木槌落下之际,怀疑者的议论之声也不绝于耳。这幅画真的是由专家小组在六年之前确定,出自文艺复兴时期大师列达芬奇的手笔吗?毕竟五十多年之前,路易斯安那州的一位男子仅以区区 45 英镑就在伦敦买下了这幅画。而在这幅《救世主》之前,自 1909 年以来就一直没有再发现达芬奇的任何真迹。 部分持怀疑态度的专家对这幅作品的出处颇有微词,认为销售及转让记录没有说服力,并指出这幅严重受损的画作经过了大面积修复。也有人认为这是达芬奇众多弟子之一的作品,并非出自大师之手。 连专家自己都无法统一意见,再加上证据不够完整,我们到底能不能对艺术品的真实性做出准确判断?科学测量能确定一幅画作的年代与其他底层细节,但却无法直接断言其创作者。回答这个问题,需要我们对风格和技巧拥有微妙的把握,似乎只有艺术专家才能解决。但这项任务其实非常适合计算机分析,特别是擅长发现模式的神经网络算法。目前用于分析图像的卷积神经网络(CNN)已经在各类应用场景下体现出明确优势,包括人脸识别与自动驾驶汽车。既然如此,为什么不用它们来验证艺术品真伪呢
人工智能
WinterIsComing(31822)
发表于2021年08月23日 15时47分 星期一
来自摩若博士岛
65 岁的 Michael Williams 被控谋杀 25 岁 Safarian Herring。去年 5 月的一个晚上,Williams 驾车去买香烟,Herring 挥手尝试搭便车,Williams 认出他居住在附近让他上了车。不久后另一辆汽车停在旁边,坐在乘客座位的一个人拿出了枪对准 Herring 的脑袋开枪。Herring 的母亲称她的儿子两周前曾在一个公交车站遭到过枪击。Williams 驾车将 Herring 送往医院,他最终死于枪伤。但 Williams 却被指控谋杀了 Herring,证据来自于利用遍布整个城市的麦克风去监听枪声的 AI 工具 ShotSpotter。检方称 ShotSpotter 探测到枪声的地点监控探头视频里只看到 Williams 在车内。没有动机、没有目击证人,也没有发现用于攻击的武器。他受到指控的另一个背景是他年轻时有犯罪前科。上个月检方撤回了指控,理由是证据不足。
人工智能
wanwan(42055)
发表于2021年08月20日 17时30分 星期五
来自龙牙
众多企业都在使用机器学习技术分析人们的欲望、情感或面部特征。但有研究人员提出了新的问题:机器会学习但它会遗忘吗?作为计算机科学中的新兴领域,机器学习研究者开始探索在 AI 软件中诱发选择性失忆的方法,目标是在不影响模型性能的前提下、从机器学习系统中删除特定人员或数据点的所有痕迹。如果可行,那么这个概念将帮助人们更好地控制数据以及由数据产生的价值。虽然社会上已经有不少声音要求企业删除个人数据,但运营一方其实也并不完全理解自己调试或训练出的算法。此次提出的机器反学习有望找出一条既可产出价值、又能回避隐私问题的发展道路。
举个最典型的例子:有些用户会出于一时冲动而在网上发布一些过激的内容,事后虽然后悔、但却无法彻底抹除。但要实现 AI 遗忘概念,我们可能需要在计算机科学方面做出新的探索。企业投入数百万美元训练机器学习算法掌握了人脸识别与社交帖子排名等能力,但一旦训练完成,机器学习系统就不会轻易让步,甚至训练者自己也不清楚系统是如何掌握这些能力的。在传统上,消除特定数据点影响的可行方法只有从零开始重建系统,但高昂的成本往往令企业难以承受。也许机器反学习技术的出现,能给目前的困境带来一丝转机。
人工智能
WinterIsComing(31822)
发表于2021年08月17日 23时00分 星期二
来自纳尼亚传奇:能言马与男孩
MIT 的研究人员发现,司法系统、银行和商家正一步步依赖算法,做出各种影响人们生产生活的决定。遗憾的是,这些算法有时是有“偏见”的,如当有色人种和低收入阶层者申请贷款或找工作时,甚至当法院决定他们在等待审判前该缴纳多少保释金时,都会因算法问题产生不同的结果。研究人员开发出一种概率编程语言 Sum-Product Probabilistic Language(SPPL)纠正算法偏见。这种概率编程是编程语言和人工智能交叉的一个新兴领域,旨在使人工智能系统更容易开发。研究者称,SPPL 的工作原理是将概率程序编译成一种称为“和积表达式”的专用数据结构,并进一步使用概率电路实现高效概率逻辑的表达。因此,它为概率推理问题提供了快速、准确的解决方案。例如,对“向 40 岁以上的人推荐贷款的可能性有多大?”这样的问题,SPPL 可以对可能的推荐对象进行收入、信用、工作稳定性等分类方式的概率模型进行编码,可以解决不同肤色及社会经济地位者被推荐贷款的概率差异问题。
人工智能
WinterIsComing(31822)
发表于2021年08月17日 08时32分 星期二
来自西塔甘达
2020 年中国发表的 AI 相关主题论文的引用次数首次超过了美国。引用次数被广泛用于衡量论文的质量,高质量的论文通常有更高的引用次数。斯坦福大学的报告显示,从学术杂志上刊登的 AI 相关论文的引用次数来看,中国论文占 20.7%,高于美国的 19.8%。英国信息服务提供商科睿唯安(Clarivate)的统计显示,2012 年以后,中国的 AI 论文为 24 万篇,超过美国的 15 万篇。
人工智能
WinterIsComing(31822)
发表于2021年08月16日 10时38分 星期一
来自遥远地球之歌
过去两周,有两位蔚来车主在启用辅助驾驶时发生致命车祸。那么谁应该承担主要责任?是车主还是汽车制造商?重庆大学微电子与通信工程学院副教授韩庆文表示,蔚来或无需背负法律责任。问题的根源在于,蔚来将这一智能驾驶级别定义为 L2 级辅助驾驶,这给了蔚来很大的回旋空间。L2 级辅助驾驶要求司机握住方向盘随时注意路况。行业研究员张翔认为,对于这种事故,第三方机构没办法进行检测,因为智能汽车的软件代码和硬件系统,包括芯片的内部结构都太复杂,无法得知这个事故是不是由蔚来的软件系统、决策层、感知层或是执行层出问题引发,所以第三方机构没办法检测。虽然在这起事故中,专家学者并不认为蔚来会承担法律责任,但他们一致认为,包括蔚来在内的车企都应正确宣传自动驾驶相关功能,并明确告知消费者相关的风险,让消费者保持警惕。
人工智能
WinterIsComing(31822)
发表于2021年08月12日 22时09分 星期四
来自开普勒62号6:秘密
为游戏行业提供支付服务的俄罗斯公司 Xsolla 使用算法裁掉了 150 名员工,占到了员工总数的大约三分之一,裁员理由是算法判断他们不敬业效率低下。Xsolla CEO Aleksandr Agapitov 在给被解雇员工的邮件中称,“你收到这封邮件是因为我的大数据团队分析了你在 Jira、Confluence、Gmail、chats、documents 和 dashboards 里的活动,标记你为不敬业和无效率的员工。换句话说,当你远程工作时你并不总是在工作中。你们中的很多人可能会感到震惊,但我真的相信你们不适合 Xsolla。”Agapitov 还在接受俄罗斯媒体采访时辩护说,如果一位雇员的数字足迹不达到公司标准那么他们本来就不适合 Xsolla。Xsolla 裁员是过去六个月增长放缓的一个结果,公司领导层计划通过基于算法的裁员将薪酬预算减少 10%,并计划再减少 10% 直到重回正轨。
人工智能
WinterIsComing(31822)
发表于2021年08月02日 12时07分 星期一
来自继位之争
人类大脑有 860 亿个并行工作的神经元,处理来自处理来自感官和记忆的输入信息,产生人类认知的众多壮举。动物的大脑不具有如此广泛的能力,但数百万年的演化让它们能在特定任务中表现出惊人的天赋。例如蜻蜓只需要 50 毫秒就能对猎物的动作做出反应,它具有极强的敏捷性,能成功捕获 95% 的猎物,一天吃掉数百只蚊子。考虑下处理来自眼睛的视觉信息和肌肉产生移动所需力的时间,蜻蜓的成就无疑令人惊叹。那么我们能否创造模仿蜻蜓大脑的神经网络?美国桑迪亚国家实验室的研究人员认为可以。
人工智能
WinterIsComing(31822)
发表于2021年07月24日 23时30分 星期六
来自开普勒62号1:邀请
根据发表在预印本网站 arXiv 上的一项研究,中科院大学的三名研究人员报告恶意程序能在不被发现的情况下嵌入到机器学习模型的人工神经元中。研究人员认为,随着神经网络的广泛使用,未来这种方法将会广泛用于传播恶意程序。使用真实的恶意程序样本,研究人员替换了 AlexNet 模型最多 50% 的神经元,而同时模型精度仍能保持在 93.1% 以上。研究人员称,利用隐写术他们能在 178MB 大小的 AlexNet 模型结构中嵌入最多 36.9MB 的恶意程序,部分模型测试了 58 种常用杀毒软件,这些安全软件没有检测出病毒。机器学习模型包含了数百万参数和复杂的神经元结构,研究人员发现,改变部分神经元对性能不会产生多少影响。恶意程序在嵌入到神经元时被拆解了,利用一个恶意接收程序可以将其重新组装成功能完整的恶意程序,而恶意程序在这个过程中会被检测出来。