solidot新版网站常见问题,请点击这里查看。
英国
wanwan(42055)
发表于2022年05月17日 15时46分 星期二
来自方舟
英国皇家邮政宣布,作为部署逾 500 架无人机将信件和包裹投递到偏远地区的更广泛目标的一部分,计划在未来三年内开通 50 条由无人机提供服务的邮政线路。皇家邮政表示,无人机投递最初将被引入设得兰群岛、奥克尼群岛、赫布里底群岛和锡利群岛。去年这个拥有 507 年历史的公共服务机构选择了前述最后一个地点,在康沃尔郡和这个位于其南部 30 公里的群岛之间进行了首次无人机邮政飞行的试飞。在那之后,皇家邮政还在苏格兰的马尔岛和奥克尼群岛进行了测试项目。皇家邮政的这些试验大多数都是和无人机送货和空中出租车基础设施公司 Skyports 合作进行的,该公司在 COVID-19 疫情期间将医疗材料运送到英国偏远的目的地,之后就在运营的 Mull 航班。在等待英国民航局的批准期间,皇家邮政将在未来几个月开始逐步在逾 50 条指定路线上进行邮政无人机投递。它将与参与早期试验的无人机制造商和服务提供商 Windracers 合作运营这些航班。该公司的 10 米长的固定翼无人机可以在 70 英里的最大航程内携带 100 公斤的邮件。上个月,这种无人机在奥克尼群岛的安斯特岛进行了一次试验,单程飞行了 50 英里。
科学
wanwan(42055)
发表于2022年05月17日 15时42分 星期二
来自即临之族
三十年来,量子物理学家 Sandu Popescu、Yakir Aharonov 和 Daniel Rohrlich 一直被同样的情景所困扰。这始于他们在 1990 年描绘的名为超震荡(superoscillation)的波浪现象。布里斯托大学教授 Popescu 表示:“我们从来都无法真正说出困扰到底是什么。”“从那时候起,我们每年都会回到这里,从不同角度看到它。” 在 2020 年 12 月,三位物理学家在《美国国家科学院院刊》上发表了一篇论文,解释了问题所在:在量子系统中,超振荡似乎违反了能量守恒定律。该定律指出孤立系统的能量永远不会改变,这不仅仅是一个基本的物理原理。牛津大学物理学家 Chiara Marletto 表示,现在人们认为它是宇宙基本对称性的一种表达——是“物理学大厦的一个非常重要的部分”。对于新的悖论是否真的违反了能量守恒定律,物理学家存在分歧。他们对这个问题的态度部分取决于是否应该认真考虑量子力学的个别实验结果——无论它们是多么的不可能。希望通过努力解决这个难题,研究人员将能够弄清楚量子理论中一些最微妙也最奇怪的地方。
iPhone
wanwan(42055)
发表于2022年05月17日 15时31分 星期二
来自梦蛇
iPhone 关闭时并没有完全关机。设备内部的芯片继续在低功耗模式下运行,因此可用 Find My 功能定位丢失或被盗的设备,或者在电池耗尽后使用信用卡和车钥匙。现在研究人员设计出了一种方法,滥用这种永远开机的机制运行恶意软件,即使 iPhone 关机了,恶意软件仍然可以保持激活。事实证明,iPhone 的蓝牙芯片——它是 Find My 等功能的关键——没有对运行的固件进行数字签名的机制,甚至也没有进行加密。德国达姆施塔特科技大学的学者想出了如何利用这种保护缺失运行恶意固件,让攻击者能在设备关机后跟踪手机的位置或者运行新功能。这则视频高度概括了可行的攻击方式。 这项发现(PDF)的实际价值有限,因为感染需要将 iPhone 越狱,这本身就是一项艰巨的任务,尤其是在对抗环境中。尽管如此,对于 Pegasus 等恶意软件来说,在攻击成功后利用 iOS 中的始终开机功能会很方便,Pegasus 是以色列 NSO 集团的复杂智能手机攻击工具,世界各国经常使用该工具监视对手。除了允许恶意软件在 iPhone 关闭时运行之外,针对 LPM 的漏洞利用还可以让恶意软件更隐蔽地运行,因为 LPM 允许固件节省电池电量。当然,固件感染已经非常难以检测,因为它需要大量的专业知识和昂贵的设备。
人工智能
wanwan(42055)
发表于2022年05月17日 15时04分 星期二
来自快乐基因
医生无法仅仅通过查看X射线成像结果判断一个人是黑人、亚裔还是白人。包括 MIT 和哈佛医学院的研究人员在内的一个国际科学家团队在一篇令人惊讶的新论文中表示,计算机可以。研究发现,经过训练读取 X 射线成像结果和 CT 扫描结果的人工智能程序可以以 90% 的准确率预测一个人的种族。但进行这项研究的科学家表示,他们不知道计算机是如何做到的。这篇论文周三发表在医学期刊《柳叶刀数字健康》上,论文的合著者、MIT电气工程和计算机科学助理教授 Marzyeh Ghassemi 表示:“当我的研究生展示论文中的一些结果时,我实际上认为这一定是搞错了。”“当他们告诉我时,我真的以为学生疯了。”在 AI 软件越来越多地被用于帮助医生做出诊断决定的时候,这项研究提出了一个令人不安的前景,即基于 AI 的诊断系统可能会无意中产生带有种族偏见的结果。例如可以访问 X 射线成像结果的 AI 可能会自动为所有黑人患者推荐特定的治疗方法,无论该方法是否最适合某位特定的患者。同时患者的人类医生却不知道 AI 的诊断依据的是种族数据。