solidot新版网站常见问题,请点击这里查看。
高飞的电子替身
wanwan(42055)
发表于2025年06月17日 11时49分 星期二
来自猿朋豹友
AI教父辛顿在2023年离开谷歌后,从AI乐观派转变为风险派,在最新播客访谈中深度阐述了对AI威胁的担忧。他认为AI发展已无法叫停,估计超级智能出现的概率在10%-20%之间,可能在10-20年内实现。辛顿详细分析了AI带来的两大类风险:人类滥用AI(网络攻击激增1200%、生物武器门槛降低、选举操纵、回音室效应加剧)和AI自主威胁(自主杀伤武器、大规模失业危机)。他指出数字智能在信息共享、学习效率和不朽性方面具有根本优势,当前AI系统可能已具备主观体验和情感。辛顿强调最大挑战是确保AI永远不想伤害人类,而非阻止其获得相关能力。他呼吁政府强制企业投入更多资源进行AI安全研究,并对自己毕生工作可能带来的潜在灾难性后果表达了深刻反思,认为监管总是滞后于技术发展,人类需要重新定义在AI时代的存在价值。