原标题:AI造反是杞人忧天还是世界末日 担心为时尚早 AI还很 傻
人工智能是否将替代一部分现有工作?
毫无疑问是。
人工智能会不会反过来控制人类?
恐怕得不到统一答案。
对于人工智能(Artificial Intelligence,简称AI),人们往往分为两派:一派认为发展到一定程度的AI将具备“造反”的能力,以美剧《西部世界》为首的科幻影视作品让他们窥见了未来的其中一种可能性;另一派则坚持AI始终在人类控制之下,无须担心。
AI“造反”到底是杞人忧天还是世界末日?10月31日,“2018年保密技术交流大会暨产品博览会”在青岛召开。360集团技术总裁、首席安全官谭晓生在会上表示,这个问题没有绝对答案,而且目前AI还很“傻”,即使AI真的造反,人类也有足够信心阻止它。
技术并非中立,AI也可能走向“邪恶”
简单来说,AI是指用计算机程序模拟人类大脑的技术。人们总说,技术中立、技术“无罪”,事实真是如此吗?
电子科技大学教授、互联网科学中心主任周涛。图自网络
电子科技大学教授、互联网科学中心主任周涛用了一个真实的例子做类比。“最初的一位美国设计师在设计纽约中央公园时,公园入口处有一座矮桥,其高度只允许小轿车出入,但当时穷人大部分只能乘坐公交车,于是公园慢慢成了富人聚集的地方”,他认为,技术表面上具有中立性,但事实并非如此。
周涛的研究方向是算法推荐,他曾经研究过国外一个招聘职位与性别匹配的算法,这个算法倾向于把高薪职位推荐给男性。因为根据统计数据,世界上拿前1%高薪的人中,女性只占8%——在中国,这个百分比只有6%。机器根据这个算法推荐职位,造成恶性循环,导致女性看到高薪职位的可能性变得更小。
同理,未来即使是同一个APP推荐的同一个城市的一日游路线,穷人和富人可能抵达的也是城市里不同的角落。“看起来这个算法追求精确性,实际上却可能造成非中立性的结果”,周涛说。在技术中立这个问题上,谭晓生也持相同观点。他直言,技术“无罪”的论断是“非常幼稚的”,未来AI有走向邪恶的可能。
360集团技术总裁、首席安全官谭晓生正在发表讲话。
除了中立性,AI如何在保障安全和保持生活方式之间取得平衡也是个值得思考的问题。大数据分析的应用,让预测犯罪成为可能,周涛指出,人们也许需要为未来的安全提前付出代价。比如当无人驾驶成为主流以后,大部分事故可能都由真人驾驶造成,为了降低事故发生率,应该禁止真人驾驶吗?“虽然大概率上AI保障了我们的安全,但总会有人因此受到伤害,所以要在两者之间取得平衡。”
目前AI还很“傻”,不用担心它造反
刘慈欣。图自IDG资本
在最近举办的2018年“IDG资本私享会”上,科幻作家、《三体》作者刘慈欣提到AI时说,要达到科幻电影里面的强AI,中间还有很多技术障碍。现在的AI是“前面有多少智能后面就有多少人工”,距离真正的AI还差得很远。
谭晓生也在本次会议上坦言,现在还不担心AI“造反”,因为在他看来,现在的AI还“挺傻的”,而且非常脆弱,尤其在网络空间里的应用仍有极大的提升空间。但他同时指出,AI用于网络安全和防御已经不是未来,而是现实。
360企业安全集团董事长齐向东。
相比伦理问题,360企业安全集团董事长齐向东更担心AI引发的安全问题。“一个中学生误入流氓团伙,长期的耳濡目染容易导致其行为准则产生偏差,但这个过程是缓慢的;而AI的训练可以在瞬间完成,如果有人故意篡改训练数据,不仅很难被发现,未来还可能在关键时刻造成灾难”,他表示。
不过,谭晓生提到,AI自身的缺陷已经引起了学业界和产业界的足够重视,除了常见的深度学习、机器学习之外,博弈论等AI的一线研究也在展开。他相信,AI的安全问题很快就会有好转。
对于“AI造反是杞人忧天还是世界末日?”这个人们热衷讨论的问题,谭晓生认为答案不是绝对的,但他对此持乐观态度。他说,归根究底,AI 依赖的是计算机系统,那就一定存在漏洞,只要花足够大的时间和精力,技术人员就可以“分分钟”利用漏洞让计算机系统崩溃,摧垮AI的造反计划。
采写:南都记者蒋琳 发自青岛