当前位置: 首页 » 资讯 » 科技 » 网络 » 正文

全球聚焦:当下世界人工智能信息安全问题探析

放大字体  缩小字体 发布日期:2019-01-24  来源:网信防务
核心提示:原标题:聚焦 | 当下全球人工智能信息安全问题探析如果说今日的人工智能是互联网,乃至整个信息技能范畴的皇冠,那么安全无疑是

原标题:聚焦 | 当下全球人工智能信息安全问题探析

如果说今日的人工智能是互联网,乃至整个信息技能范畴的皇冠,那么安全无疑是皇冠的基座。就像任何新技能相同,人工智能的安全与否很大程度上影响着其未来的开展和运用。契合什么规范的人工智能才算是安全的?或许人工智能的安全首要包含哪些方面?本文拟经过对美英人工智能国家战略的扼要剖析,介绍当下人工智能安全问题的几个首要维度。

一、美英人工智能开展战略简介

1. 美国

2016 年 10 月,美国相继发布了两份与人工智能开展相关的战略文件,《国家人工智能研讨和开展战略计划》和《为了人工智能的未来做好预备》。12 月,白宫又发布了一份名为《人工智能,自动化和经济》的陈述。

《国家人工智能研讨和开展战略计划》由美国国家科学技能委员会下属的网络和信息技能研讨与开发小组委员会发布,首要针对人工智能工业自身的开展。该战略为美国联邦政府赞助的内部和外部人工智能研讨拟定了一系列方针,断定了政府赞助人工智能范畴研讨的七项严重计划,包含:1. 对人工智能研讨进行长时间投资;2. 开发有用的人类与人工智能协作办法;3. 了解并处理人工智能的品德、法令和社会影响;4. 保证人工智能体系的安全牢靠;5. 开发用于人工智能培训及测验的公共数据集和环境;6.

拟定规范和基准以测量和评价人工智能技能;7. 更好地了解国家人工智能人力需求。该战略终究提出了两方面主张:1. 开发一个人工智能研制施行结构,以抓住科技时机,并支撑人工智能研制投资的有用和谐,与战略的第一至六项计划相对应。2. 研讨创建和维持一个健全的人工智能研制部队的国家愿景,与战略第七项计划对应。

《为了人工智能的未来做好预备》和《人工智能,自动化和经济》与前一份战略不同,这两份陈述首要针对的是人工智能对国家社会、经济可能发作的影响。《时刻预备着:为了人工智能的未来》介绍了人工智能的开展前史和在公共范畴的运用现状,剖析了政府在推动人工智能开展中应当扮演的人物,着重应充沛注重人工智能在未来可能带来严重的影响和应战,要求坚持国内和国际两个维度、多主体间的密切协作。陈述在终究,就研讨、规范、政府运用人工智能、实践、监管方针、人员部队建造等方面提出了主张。

《人工智能,自动化和经济》是《为了人工智能的未来做好预备》的连续,针对人工智能对劳动工作的影响问题进行了展开,从生产力、劳动力等方面进行了剖析,并就投资、培训以及工人转型过渡等方面提出了主张。

特朗普年代的美国人工智能方针2018年3月,美国白宫科技方针办公室发布了《科学和技能要害——特朗普执政首年回忆》,该陈述回忆了自 2017 年 1 月执政起,特朗普政府在科学和技能范畴取得的严重成就。其间在人工智能范畴首要包含四点:1. 消除自治体系商业化的监管妨碍;2. 将无人机整合进国家航空体系;3. 完成自动驾驶轿车在美国道路上的安全布置;4. 运用机器学习改善医疗确诊。不难看出,特朗普政府关于人工智能的重视更多地会集在详细的运用和落地。尽管美国科技界对注重人工智能开展的呼声仍然高涨,但美国从国家层面对人工智能拟定的战略性方针现在仍然逗留在上文所述的三份战略上。

2. 英国

英国 2016 年先后发布了两份与人工智能相关的战略,分别是《人工智能对未来决议计划的时机和影响》和《机器人技能和人工智能》。2017 年,英国政府将人工智能作为英国经济社会开展面对的四项应战之一,写进了《工业方针:建造面向未来的英国》。2018 年 4 月,包含英国在内的 25 个欧盟国家签署了人工智能协作宣言,随后欧盟委员会发布了《欧盟人工智能》草案。

《人工智能对未来决议计划的时机和影响》由英国政府科学办公室发布,陈述首要解说了人工智能的根本概念和运用现状,剖析了人工智能运用将给英国政府和社会带来的益处,并就处理人工智能带来的品德和法令危险提出了主张。陈述中要点重视了人工智能对个人隐私、工作以及政府决议计划可能带来的影响。尽管陈述在终究并未提出十分详细的应对主张,可是陈述清晰英国政府应当以活跃、担任的情绪处理与人工智能相关的决议计划。并重申了人工智能开展过程中应当恪守现有法令规范,但关于有限的、受控的试错应抱敞开情绪。

《机器人技能和人工智能》由英国下议院科学和技能委员会发布,陈述首要重视英国机器人、自动化和人工智能工业全体,针对英国怎么充沛运用自身优势,掌握工业开展过程中的时机进行了剖析。陈述首要剖析了人工智能给社会带来的影响,要点聚集于对工作和教育的冲击。其次,陈述剖析了人工智能在安全和可控以及治理上的应战。终究,陈述断定了一份包含资金、领导者以及技能三个方面的 2020 的举动计划。

《工业方针:建造面向未来的英国》由英国商务动力与工业战略部发布,陈述阐明晰英国环绕理念、工作、基础设施、商业环境以及区域开展五个方面的开展方针,方针是进步全英的生产力和收入水平。在该份战略中,人工智能和大数据与绿色开展、新式流动性以及社会老龄化一同被以为是英国未来开展面对的四项首要应战。该战略在人工智能范畴提出了四项优先方针:1. 将英国打造成为人工智能和数字经济的全球立异中心;2. 支撑工业部分运用人工智能和数据剖析技能进步生产力;3. 坚持在安全和合理运用人工智能和数据上的世界领先,以增强大众和企业的信赖和信心;4. 帮助大众开展习惯未来工作需求的技能。

欧盟人工智能协作宣言与《欧盟人工智能》草案2018 年 4 月,包含英国在内的 25 个欧盟国家签署了人工智能协作宣言,宣言清晰表明欧盟成员国迁就进步欧盟在人工智能范畴的竞赛力以及和谐处理人工智能带来的社会、经济、品德以及法令等问题开展协作。随后发布的《欧盟人工智能》草案以拥抱革新开篇,介绍了欧盟在全球人工智能竞赛格局中所在的位置,并就推动欧盟人工智能开展提出了建议。草案以为:首要,应推动欧盟技能和工业才能开展,以进步人工智能在各个经济范畴中的运用;其次,应做好预备,以应对人工智能开展带来的社会经济革新;第三,应构建恰当的品德和法令结构,为人工智能的运用和开展供给可信赖、可问责的环境;第四,在联合各成员国、各利益相关方,乃至国际社会各方力气,一起推动人工智能开展的过程中,欧盟能够、也应当发挥愈加活跃的效果。

二、美英人工智能开展战略中的信息安全

在美英两国的几份人工智能战略对信息安全均有触及,虽详细表述不同,但大体逻辑根本一起,首要包含以下几个方面:

1、通明和可信

美英人工智能战略均将通明,作为人工智能安全和可控的首要指标。人工智能的通明性能够理解为人工智能行为的可解说性。现在基于包含深度学习在内的多种人工智能算法,关于用户来说均是不通明的,缺少有用的机制对其行为进行解说。无法精确解说发作成果的原因就意味着无法对成果进行验证,这在很多关乎用户安全的范畴,例如医疗、自动驾驶等,会运用户发作严重的不信赖感。其间,《美国国家人工智能研讨和开展战略计划》对人工智能应当到达的通明、可信进行了剖析,以为体系的通明可信应当详细体现在以下几个方面中:1. 通明,即以用户可见的办法进行操作;2. 可信,即用户可接受的体系输出;3. 可审计,体系可评价;4. 牢靠,体系依照用户希望举动;5. 可康复,用户可在需求时康复操控。尽管,通明、可信被以为是人工智能安全可控的首要要素,但美英两个的多份战略均供认,现在还没有科学有用的办法对人工智能的决议计划过程进行追寻和解说。

2. 可验证和可承认

可验证性和可承认性是通明和可信在逻辑上的天然延伸。人工智能体系需求新的办法来验证和承认,《美国国家人工智能研讨和开展战略计划》以为“可验证”指断定体系满意正式规范,而“可承认”指断定体系满意用户的操作需求。安全的人工智能体系需求新的评价办法(断定体系是否发作毛病,特别当体系可能在预期参数以外运行时)、确诊办法(断定毛病原因)和修理办法(调全体系以处理毛病)。《机器人技能和人工智能》中则着重验证和承认的办法需求制度化,并着重现在尚没有有用的办法能够保证人工智能体系的测验和量化。

3. 品德和隐私

品德和隐私问题首要针对的是人们对数据密布型人工智能算法犯错和乱用的敏感性,以及对性别、年纪、种族或经济类信息可能发作的影响所表达的忧虑。

其间,因为运用人工智能体系进行决议计划依赖于密布的数据搜集和处理,而且这种工作是一种日常的、继续的。在这种情况下,大数据所带来的隐私维护和数据权属问题被扩大,需求寻找新的平衡点。除掉朴实的数据相关问题,出现在人工智能规划上的更大的问题本质上是公正、公正、通明和担任。在这个问题上《机器人技能和人工智能》引用了谷歌相册软件将深色皮肤的人群标记为大猩猩的比如,意在说明技能上的误差可能导致不安与敌视。《美国国家人工智能研讨和开展战略计划》以为怎么表明和“编码”人类价值和崇奉体系是人工智能开展的重要研讨课题。

4. 职责方式

关于职责方式忧虑出现在《机器人技能和人工智能》中,指人工智能体系的规划者和布置者关于人工智能体系行为的成果应当承当何种职责。比较以上几个方面,职责方式的问题愈加具有针对性,现在首要体现在关于自动驾驶轿车行驶过程中出现事故的职责分担上。

5. 安全防护和长时间优化

《美国国家人工智能研讨和开展战略计划》中着重了传统的网络安全在人工智能环境中可能带来的新的应战。以为嵌入要害体系中的人工智能体系有必要经用、安全,以敷衍大范围的故意网络进犯。以为人工智能体系的运用将带来一些新的,一起的要挟方式。陈述列举了一项名为“对立机器学习”的研讨项目,该项目经过“污染”练习数据、修正算法或经过对阻碍其得到正确辨认的某一方针进行细小改变(例如,诈骗面部辨认体系的假肢),以此来探究对人工智能体系的一起损害。陈述以为在需求高度自主性的网络安全体系中施行人工智能是一个需求进一步研讨的范畴。一起,陈述还着重,人工智能体系终究可能采纳“循环自我改善”,即很多软件修正会由软件自身进行,而非由人类程序员进行。为了保证自我修正体系的安全性,需求进行额外研讨来进行开发,例如树立自我监测架构经过规划者的原始方针来检查体系的行为一起性;或可证明的,能反抗自我修正的价值架构等。

三、结语

人工智能体系面对的一个个安全问题 反映出了技能和工业的不成熟,但不能据此将其妖魔化,否定人工智能开展的可能性。现在,关于人工智能治理的研讨和讨论已经成为世界范围的热门。尽管离构成终究定论尚有间隔,但已有研讨陈述提出了包含强化算法通明、清晰奉告责任、拟定评测规范、限制运用范畴、刺进人工环节、立异法令职责等多种计划,企图处理人工智能开展带来的种种问题。

立异总是意味着发作新的问题,而这些问题终究相同需求经过立异处理。立异的应战历来不在于立异自身,而是对能否有用习惯新事物和处理新问题的考验。今日咱们怎么以审慎、容纳和立异的情绪面对人工智能开展带来的改变,是政府、社会、企业以及用户今日一起面对的课题。



免责声明:本文若有侵权,请联系我,立刻删去!本文仅代表作者个人观点,与全球资源网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
 
 
[ 资讯搜索 ]  [ ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]

 
0条 [查看全部]  相关评论