为了提升团队对AI安全的认识,信息中心10月25日开展了《大模型时代人工智能安全风险与新挑战》业务讲堂线上学习,主讲人是浙江大学网络空间安全学院副院长王志波。
王志波首先介绍了AI安全的基本要素:保密性、完整性,更涉及到算法的安全性、模型的鲁棒性以及决策过程的公正性,这些要素构成了AI安全的基石,任何一方缺失都可能导致严重的后果。他表示,大模型以其强大的数据处理能力、高效的算法优化和丰富的应用场景,正引领AI技术的新一轮变革,但大模型也带来了前所未有的安全风险,因此加强大模型的安全防护和监管显得尤为重要。
王志波详细剖析了AI的内生安全和衍生安全。内生安全主要指的是AI系统在设计、开发过程中存在的安全漏洞和缺陷,这些漏洞和缺陷可能被恶意攻击者利用,导致AI系统的失效或被操控;而衍生安全则是指AI系统在应用过程中产生的新的安全风险和挑战。为应对这些安全风险,需要加强AI系统的安全审计、漏洞修复、法律法规等建设,确保其符合社会价值观和法律法规要求。
本次业务讲堂提升了信息中心对AI深入的认识和理解,提供了应对大模型时代下的AI安全风险与新挑战的宝贵思路和方法,老师们纷纷表示,将把所学知识应用到实际工作中去,加强AI安全防护和监管,为学院网络安全保驾护航。