人工智能的“安全危机”如何应对? 专家呼吁:尽快出台安全标准规范


&随着人工智能的迅速发展,数据作为人工智能技术发展和应用的基础,正发挥着越来越重要的作用。然而,在人工智能的开发和应用过程中,越来越多的数据在人们的生活场景中被收集和利用,数据安全和隐私保护面临着严峻的挑战。

&2009年由网络研究所主办的人工智能安全世界高端对话会(以下简称“0x9A8b”)正式发布。《人工智能数据安全风险与治理》提出了人工智能数据安全治理的总体框架,提出了人工智能数据安全治理的四个目标,即实现数据生命周期安全;实现数据供应链安全;实现有效的数据质量治理;不阻碍人工智能技术创新。N.

&上海市经济信贷委员会安全部主任刘山泉指出,人工智能相关技术的发展处于起步阶段,正在迅速发展。无论是世界各地的大型科技企业还是初创企业,都在技术开发和应用研究上投入了大量的资源,但很少有企业关注数据安全问题,除非存在相关的数据泄露事件或隐私争议事件。在技术层面上,虽然基于隐私的机器学习技术、恶意攻击防御技术和数据保护技术发展迅速,但仍然不能解决所有问题。

& & & & &在人工智能领域“安全危机”主要涉及数据质量,算法解释性不足,操作过程失控,系统形态不可靠等问题。由于AI是由数据驱动的,因此数据质量直接影响计算结果。恶意数据篡改和污染数据将导致结果偏离。此外,当机器生成的决策与人类决策严重不同时,我们应该聆听谁?这些都是迫切需要解决的问题。

刘善权指出,人工智能中的数据安全治理是一个系统工程,需要从法规,标准和技术等各个层面寻求应对策略,并要求监管机构,政策制定者,人工智能开发商,制造商,服务提供商,和网络安全。企业协作致力于解决数据安全的主要挑战。

目前,法律层面的人工智能信息安全普遍存在盲点。例如,对于培训数据集的质量,国内外缺乏相关法规来规范。此外,中国还没有引入《报告》《报告》等数据安全法规,现有法规无法全面有效地规范AI中涉及的数据隐私问题。

& & & &上海社会科学院互联网研究中心主任惠志斌呼吁尽快引入人工智能安全标准,以指导数据,算法和技术应用,以更好地保证。目前,世界上缺乏与AI数据安全或子域标准相关的通用标准。人工智能在中国的发展与世界同步,应该具备这种能力和责任。希望在未来三到五年内,中国将率先建立人工智能应用的安全系统。