支持单位: 全国警用装备标准化技术委员会 , 公安部安全与警用电子产品质量检测中心 , 公安部特种警用装备质量监督检验中心 , 国家安全防范报警系统产品质量监督检验中心
jiangbei
历届评选

防范人工智能潜在威胁

2018-09-04 10:58:19  作者 : 李帅  来源 : 中国社会科学报


        警用装备网讯: 人工智能已成为变革我们生活方式的重要驱动力量,渗透到生活的方方面面。目前,人工智能发展迅猛,许多专家系统已于某些领域超过人类。因此,许多学者开始担忧,当人工智能由弱人工智能向强人工智能突进的过程中,是否会产生不友好的动机,如某些科幻电影中的情景,奴役甚至毁灭人类。有些学者认为,人工智能近期可能会导致很多人失业,以及人工智能的军事化用途会带来世界格局的动荡;长远来看,人们可能会面临人工智能的失控和反叛,进而危及人类生存——此类论调被称为“人工智能末日论”。人工智能末日论基于不可靠的归纳论证,因而在逻辑上难以成立。但是,居安思危、防微杜渐,是我们面对即将到来的人工智能时代应有的姿态。



  人工智能末日论缺乏逻辑必然性



  工程师为人工智能设计的一系列目标即使同人类社会的发展相容,但是当人工智能发展到一定水平时,工程师们可能将无法控制它们。有学者认为,可以在把人工智能的具体成果应用到人类社会前反复测试其友好性和安全性,以此避免人工智能对人类的不利影响。但波斯特洛姆(Nick Bostrom)提出“背叛转折”(treacherous turn)概念,他认为,超级人工智能会使用一些策略,实施计划的同时并预测人类的可能反应,一个拥有足够智能的不友好人工智能或许会意识到,如果它一开始表现得友好,这样它就会被信任,最后越容易实现它的不友好目标。虽然反驳人工智能的归纳论证在“背叛转折”原则下失效,但是这个原则预设了人工智能拥有目标“动机”。那么,人工智能是否能够发展出类似“动机”的人类认知因素?



  目前看来,人工智能的认知能力尚无法实现上述效果。2017年,人工智能小冰“出版”了一本诗集《阳光失了玻璃窗》,但那些看似天马行空的“想象”只是一些数据库词汇和句型的随机组合,无法体现人类诗歌中的情感和胸臆。智能系统要想发展出高阶认知功能,单依靠算法似乎无法实现,可能需要依赖人工智能算法和全脑仿真的协同发展。全脑仿真“通过扫描和对生物大脑仔细建模的方法制作智能软件”,这项技术能够模拟人脑所具备的功能,并加以原理化。这种技术建立在硬件基础上,那么,硬件升级速度能否跟上人工智能的发展?



  硬件更新迭代速度同技术的“指数爆炸”概念密切相关。“指数爆炸”是数学领域的概念,表示指数函数式的爆炸性增长。后被应用于计算机领域,意在说明计算机的计算能力以指数形式提升,即每隔相对固定的周期计算机的计算能力将翻番。从第一台现代意义上的计算机诞生至今,计算机运算能力的发展趋势基本符合“指数爆炸”,以超级计算机领域为例,超算的运算能力大约每14个月提升一倍。如果计算机能够保持“指数爆炸”式发展,那么全脑仿真技术就有了硬件上的保证。



  在上述分析中,我们运用了溯因推理和归纳推理两种论证方法。溯因推理是由果溯因的逻辑方法,我们首先假定人工智能末日论成立需要具备哪些条件,展开一个连锁式的溯因推理结构,随后借助归纳论证。学界一般将由具体事例推出一般事实的推理称为归纳论证,即根据已发生的经验案例预测将要发生的所有事例皆是如此这般。我们不能因为目前所观察到的乌鸦都是黑色,就武断认为天下乌鸦皆为黑色。类似地,我们也不能因为迄今为止计算机领域的发展符合“指数爆炸”或“摩尔定律”,就推测该定律适用于计算机领域的所有发展阶段。基于目前的发展水平推断未来发展速度依旧保持不变并不存在必然性,由此,我们认为人工智能末日论在逻辑上站不住脚。



  人工智能末日论是一种可能信念



  虽然人工智能末日论在逻辑上站不住脚,但我们可以将其视为一种信念。我们可以将“帕斯卡赌”论证应用于人工智能末日论的信念分析,即当前我们无法预测人工智能末日论信念为真的概率,但如果该信念为真,其后果将是毁灭性的。即便现有的种种证据都不利于人工智能末日论,背叛转折也不容忽视。以波斯特洛姆为代表的人工智能末日论不乏一些夸张的未来预测,但他们将人工智能的可能威胁以这种方式呈现出来,引发广泛的社会讨论,在人工智能狂飙突进的同时,警惕可能的背叛转折风险,彰显了该论调的实践意义和认知意义,这是人工智能末日论信念所传达的积极信息。



  有人认为波斯特洛姆的背叛转折概念荒诞不经,因为这种观念迫使我们重新评估我们与当前技术的关系,重新评估我们已习惯性、成功依赖的各种归纳推理。这样做似乎很荒谬,因为归纳推理在人工智能各种项目中得到广泛应用,并且迄今为止相当可靠。但我们换个角度看,波斯特洛姆的人工智能末日论其实是对经典休谟经验怀疑主义的重新表述。休谟的着名论断表明,我们不能仅凭太阳过去每天升起,进而推断出太阳明天照常升起。我们与人工智能的互动更为有限,不能仅仅从人工智能在过去所有场合都是安全的这一事实来推断人工智能未来依旧友好或安全。当然,在某种意义上,休谟的观点是合理的,我们都能理解其论点的逻辑性。但我们在日常生活中却往往忽视了归纳推理的潜在弊端,否认此类归纳论证会产生荒谬的情形和严重的认知后果,也许波斯特洛姆关于背叛转折的概念也遭受了与休谟论断同样的处境。正是对归纳推理的重新审视,我们才会深入考察人工智能末日论信念的深远意义,这与将赌注押在其可能带来的消极后果上的考量不谋而合。此外,一种折中的观点指出,人工智能可能带来灾难性的风险,同时也给人类社会发展注入了强大推力,推动了社会进步。但是,现在讨论的焦点并非人工智能的积极影响,而是如何看待人工智能给人类文明带来的潜在威胁。



  应对人工智能潜在风险



  为应对潜在风险,当前学界讨论较多的是人工智能的价值观加载问题,但是将我们设定的价值观以程序代码的形式输入人工智能系统,能否防止人工智能因动机不纯而偏离预设轨道?给人工智能戴上“紧箍咒”似乎是最有效的方式,人工智能工程师需要将类似阿西莫夫“机器人三定律”这样的价值观嵌入到人工智能系统中,作为其决策和行动的准则。然而,这条进路面临三个挑战。



  1.理论层面。价值观是一个十分含混的观念集合体,我们应该给人工智能加载哪些价值观,以及人工智能系统是否能“理解”以程序代码形式表征出来的价值观。假如我们让人工智能系统处理“电车难题”,人工智能该如何抉择?



  2.应用层面。假如我们为人工智能系统设定了一个目标——“保证人类总体的快乐最大化”,若人工智能系统将快乐理解为对大脑中负责快乐的中枢部位刺激,那么智能系统可能会创造出一个“缸中之脑”,在负责快乐的中枢部位植入电极,持续不断地刺激这个部位,并不断擦除先前的记忆,以免大脑厌倦重复不断的刺激。



  3.技术层面。目前看来,将伦理准则嵌入人工智能机器面临许多问题。以自动驾驶技术为例,智能驾驶系统在做决策时,会面临自上而下和自下而上两方面的困境。自上而下是指为智能驾驶系统设定像康德的决定律令这般的伦理准则,这样的系统往往缺乏常识。自下而上则是通过模拟真实场景进行自我学习,但这种方法并不适用于道德判断。



  由此观之,虽然人工智能价值观嵌入看似一劳永逸,实际上尚存在诸多难题。我们可以借鉴其他高风险技术领域的经验,比如克隆技术、基因编辑技术等保持着较为安全平稳的发展势头,主要是由于各国在这些领域协同发展、共同应对,制定严格规范研究行为的公约。



  各国在人工智能领域竞争的同时,应加强机构间或国际间的沟通合作,这会降低机器智能研发过程中的草率决定,使安全问题得到更多的投入,促进项目之间就如何解决人工智能控制问题进行有效交流。随着人工智能的深入发展,可以出台相应法律法规,在合作和规范中发展人工智能,共同应对可能的突发情况。



  (本文系国家社科基金重大项目“现代归纳逻辑的新发展、理论前沿与应用研究”(15ZDB018)阶段性成果)



  (作者单位:南开大学哲学院)




  新闻稿件欢迎直接联系:QQ 34004818 微信公众号:cpsjyzb

我要评论

表情 验证码 评论

0 条评论

  • 还没有人评论过,赶快抢沙发吧!