(资料图片)

不久前,美国国家公路交通安全管理局(NHTSA)发布了L2级自动驾驶事故数据报告,自去年7月以来报告的367起碰撞事故中,搭载自动驾驶辅助系统的车辆发生了98起严重事故。去年,AI行业还爆出更惊悚的威胁,AI医疗聊天机器人竟然推荐病人自杀。AI技术贴近现实生活应用的背后,AI技术缺陷带来的系统威胁以及技术引发的道德伦理问题,是AI行业研究者的重点课题。

为准确衡量AI模型的效果和鲁棒性,7月18日,清华大学、阿里安全、RealAI在“2021中国人工智能产业年会-安全人工智能专题论坛”上发布了全新版本的AI安全对抗攻防基准平台,提前给AI找好“陪练”和“标尺”,打造更健壮可靠的AI。相较于去年三方发布的AI Benchmark 1.0,今年AI Benchmark 2.0包含全面、系统的攻防基准,更符合工业界的评测基准,更贴近线上的攻击评测基准。

阿里、清华、RealAI发布全新AI安全对抗攻防基准平台。

“新平台从原来只有CIFAR10数据上的实验,拓展到了ImageNet 百万级数据集上的攻防评测,更加贴近工业界的实际场景。今年还覆盖了对模型未知情况下的迁移攻击,贴近线上攻击评测。此外,今年还增加了分布外的鲁棒性评测,更加全面地评估模型鲁棒性。”阿里高级安全专家越丰介绍道。

清华大学计算机系副研究员苏航介绍,鲁棒性benchmark的构建对评估人工智能模型的安全风险、推动该领域的发展具有重要意义。AI Benchmark 2.0将对使用者免费提供18个ImageNet上的对抗训练模型,包含更多的攻击场景,覆盖几十种典型的攻防算法,并提供了SOTA的鲁棒模型,为人工智能安全的研究具有一定的推动作用,可让研究人员发现AI被攻击后产生的问题,为行业提供参考,并将AI学术研究引导至更贴近实际场景的应用研究。

阿里巴巴人工智能治理与可持续发展研究中心(AAIG)负责人薛晖表示:“我们致力于建设‘可用、可靠、可信、可控’的负责任技术体系,这是阿里巴巴安全技术团队承担的科技创新和社会使命。从源头构建更加安全的AI系统,是打造更负责任的好科技中的重要一环,只有这样才能构建更好更安全的网络空间。”

(图片由阿里巴巴授权中国网财经发布)

推荐内容