我的AI不可能这么傻:深度学习的致命弱点
一辆自动驾驶汽车正在靠近一个停车让行标志,它非但没有停下,反而加速冲入了繁忙的十字路口。后续的事故调查发现,停车让行的标志上贴了几张方形标签,正是这些标签让汽车的人工智能系统将停车标志错误识别为“限速45”。这一场景没有真实发生,但AI被蓄意破坏和恶意攻击的危险却一直存在。谷歌AI工程师Franois Chollet称,“对于深度神经网络的这种根本脆弱性,目前没有修复方法”。一些专家认为,这样的系统将塑造今后10年的AI研究。Hendrycks和同事建议用大规模对抗样本来测试深度神经网络的表现,量化深度神经网络抵抗错误的鲁棒性。但他们也表示,在训练网络抵抗某种攻击的同时也会弱化网络对于其他攻击的抵抗力。谷歌DeepMind伦敦办公室的一个研究团队在Pushmeet Kohli的领导下尝试为深度神经网络“接种”抵抗出错的“疫苗”。