阅读下面的文字,完成下面小题。
材料一:
当前,科学技术的巨大进步推动了人工智能的迅猛发展,人工智能成了全球产业界、学术界的高频词。有研究者将人工智能定义为:对一种通过计算机实现人脑思维结果,能从环境中获取感知并执行行动的智能体的描述和构建。
人工智能并不是新鲜事物。20世纪中叶,“机器思维”就已出现在这个世界上。1936年,英国数学家阿兰·麦席森·图灵从模拟人类思考和证明的过程入手,提出利用机器执行逻辑代码来模拟人类的各种计算和逻辑思维过程的设想。1950年,他发表了《计算机器与智能》一文,提出了判断机器是否具有智能的标准,即“图灵测试”。“图灵测试”是指一台机器如果能在5分钟内回答由人类测试者提出的一系列问题,且超过30%的回答让测试者误认为是人类所答,那么就可以认为这台机器具有智能。
20世纪80年代,美国哲学家约翰·希尔勒教授用“中文房间”的思维实验,表达了对“智能”的不同思考。一个不懂中文只会说英语的人被关在一个封闭房间里,他只有铅笔、纸张和一大本指导手册,不时会有画着陌生符号的纸张被递进来。被测试者只能通过阅读指导手册找寻对应指令来分析这些符号。之后,他向屋外的人交出一份同样写满符号的答卷。被测试者全程都不知道,其实这些纸上用来记录问题和答案的符号是中文。他完全不懂中文,但他的回答是完全正确的。上述过程中,被测试者代表计算机,他所经历的也正是计算机的工作内容,即遵循规则,操控符号。“中文房间”实验说明看起来完全智能的计算机程序其实根本不理解自身处理的各种信息。希尔勒认为,如果机器有“智能”,就意味着它具有理解能力。既然机器没有理解能力,那么所谓的“让机器拥有人类智能”的说法就是无稽之谈了。
在人工智能研究领域中,不同学派的科学家对“何为智能”的理解不尽相同。符号主义学派认为“智能”的实质就是具体问题的求解能力,他们会为所设想的智能机器规划好不同的问题求解路径,运用形式推理和数理逻辑的方法,让计算机模仿人类思维进行决策和推理。联结主义学派认为“智能”的实质就是非智能部件相互作用的产物,在他们眼里人类也是一种机器,其智能来源于许多非智能但半自主的组成大脑的物质间的相互作用。他们研究大脑的结构,让计算机去模仿人类的大脑,并且用某种数学模型去重建一个简化的神经元网络。行为主义学派认为“智能”的实质是机器和人类的行为相似,研究人工智能应该研究人类感知和行动的本能,而不是高级的逻辑推理,不解决基本问题就无法实现复杂的思维模拟。因而他们让计算机模仿人的行为,建立人工智能系统。
时至今日,研究者们对”智能”的理解仍未形成共识。但是,正是对“何为智能”这个核心问题的不断思考和解答,推动了人工智能技术在不同层面的发展。
(取材于谭营等人的文章)
材料二:
2018年5月,谷歌Duplex人工智能语音技术(部分)通过了“图灵测试”。这个消息进一步引发了人们对于人工智能的思考:当机器越来越像人,我们应该怎样做?
在人工智能的开发过程中,设计者会遇到伦理问题的挑战。比如著名的“隧道问题”:一辆自动驾驶的汽车在通过黑暗的隧道时前方突然出现一个小孩,面对撞向隧道还是撞向行人这种进退维谷的突发情况,自动驾驶汽车会怎么做?
自动驾驶汽车依靠的是人工智能“大脑”,它会从以往案例数据库中选取一个与当前情景较相似的案例,然后根据所选案例来实施本次决策。当遇到完全陌生的情景时,汽车仍然会进行搜索,即在“大脑”中迅速搜索与当前场景相似度大于某个固定值的过往场景,形成与之对应的决断。如果计算机搜索出来的场景相似度小于那个值,自动驾驶汽车将随机选择一种方式处理。
那么,如果自动驾驶汽车伤害了人类,谁来负责呢?有的学者认为不能将人工智能体作为行为主体对待。因为“主体”概念有一系列限定,譬如具有反思能力、主观判断能力以及情感和价值目标设定等。人工智能不是严格意义上的“智能”,它所表现出来的智能以及对人类社会道德行为规范的掌握和遵循,是基于大数据学习的结果,和人类主观意识有本质的不同。因此,人工智能体不可以作为社会责任的承担者。以上述自动驾驶汽车为例,究竟由人工智能开发者负责,还是由汽车公司负责甚至任何的第三方负责,或者各方在何种情形下如何分担责任,应当在相关人工智能的法律法规框架下通过制订商业合同进行约定。
人工智能在未来还可能产生的一个问题就是“奇点(singularity)”。所谓“奇点”就是指机器智能有朝一日超越人类智能,那时机器将能够进行自我编程而变得更加智能,它们也将持续设计更加先进的机器,直到将人类远远甩开。尽管研究者对“奇点”到来的时间和可能性还有争议,但是不管“奇点”时刻能否真的到来,在技术不断完善的过程中,我们都要小心被人工智能“异化”。在我们训练人工智能的同时,有可能也被人工智能“训练”了。我们的一举一动、生活爱好都将被人工智能塑造,人工智能在无形中暗暗决定了我们的思维方式,当我们还在发自己的自由意志而骄傲的时候,也许已不知不觉地沦为了数据的囚徒。
面对人工智能可能带来的种种冲击,20世纪50年代美国科幻小说家阿西莫夫提出的机器人三大定律,今天对我们依然有借鉴意义。这三大定律是:机器人不得伤害人,也不得见到人受伤害而袖手旁观;机器人应服从人的一切命令,但不得违反第一定律;机器人应保护自身的安全,但不得违反第一、第二定律。归根结底,人是智能行为的总开关。人工智能的开发者应该始终把对社会负责的原则,放在对技术进步的渴望之上。人类完全可以做到未雨绸缪,应对人工智能可能带来的威胁。
(取材于芮喆等人的文章)
材料三:
人工智能安全性问题的根源,并不在于它能否真正超越人类,而在于它是否是一种安全可靠的工具,人类是否对其拥有充分的控制权。就像高铁、飞机等交通工具那样,虽然它们的速度远远超过了人类,但人类拥有绝对控制权,所以人们相信它们是安全的。
为了实现对其控制的目标,首先需要对人工智能的自主程度进行限定。虽然人工智能发展迅速,但人类智能也有自己的优势,比如目前人工智能的认知能力还远不如人类智能。我们可以充分发挥人工智能在信息存储,处理等方面的优势,让它在一些重大事件上做人类的高级智囊,但最终的决定权仍在人类手中。比如,当我们把人工智能应用于军事领域时,我们可以利用人工智能来评估危险程度,以及可以采取的措施,但是否应该发动战争、如何作战等重大决策,还是需要掌握在人类自己手里。正如霍金斯所说的那样:“对于智能机器我们也要谨慎,不要太过于依赖它们。”
与限定人工智能的自主程度类似,我们也需要对人工智能的智能水平进行某种程度的限定。从长远来看,人工智能是有可能全面超越人类智能的。从人工智能的发展历程来看,尽管它的发展并非一帆风顺,但短短六十年取得的巨大进步让我们完全有理由相信将来它会取得更大的突破。从世界各国对人工智能高度重视的现实情况来看,想要阻止人工智能的发展步伐是不现实的,但为安全起见,限定人工智能的智能程度却是完全可以做到的。
我们应当成立“人工智能安全工程”学科或方向,建立人工智能安全标准与规范,确保人工智能不能自我复制,以及在人工智能出现错误时能够有相应的保护措施以保证安全。人们对人工智能安全问题的担忧的另一主要根源在于,人工智能的复制能力远胜于人类的繁衍速度,如果人工智能不断地复制自身,人类根本无法与其抗衡。因此,在人工智能的安全标准中,对人工智能的复制权必须掌握在人类手中。同时,建立人工智能安全控制许可制度,只有人工智能产品达到安全标准,才允许进行商业推广和使用。
从源头上看,人工智能安全问题是由人工智能技术造成的,可见,科学技术研究并非无禁区。技术的发展成熟固然是解决安全问题的关键因素,但任何技术都有不确定性,且科技产生的问题通常不能仅仅依靠科技本身得到圆满解决。因此,解决人工智能安全问题还需要充分发挥外部进路的重要作用。
(摘编自杜严勇《人工智能安全问题及其解决进路》)
1.下列关于原文内容的理解和分析,不正确的一项是(
)
A.行为主义学派认为“智能”的实质就是具体问题的求解能力,他们会为所设想的智能机器规划好不同问题的求解路径,运用形式推理和数理逻辑的方法,让计算机模仿人类思维进行决策和推理。 |
B.时至今日,在人工智能研究领域中,研究者们对“智能”的理解仍未形成共识,但正是对“何为智能”这个核心问题的不断思考和解答,推动了人工智能技术在不同层面的发展。 |
C.人工智能所表现出来的智能以及对人类社会道德行为规范的掌握和遵循,是基于大数据学习的结果,和人类主观意识有本质的不同,所以说它不是严格意义上的“智能”。 |
D.面对人工智能可能带来的种种冲击,人工智能的开发者应该本着对社会负责的原则,着重于追求技术的进步,这样人类完全可以应对人工智能可能带来的威胁。 |
2.下列对材料三论证的相关分析,不正确的一项是(
)
A.对于人工智能安全问题,文章先明确态度,接着从多方面进行分析,提出了解决问题的方法。 |
B.文章在论证中运用了例证法和引证法等论证方法,强调人类应该对人工智能有控制权。 |
C.文章从限定自主程度和智能水平两个方面人手,分析如何面对人工智能的安全性问题。 |
D.文章以人工智能的可控性为立论前提,并由此指向保证人工智能安全性的具体措施。 |
3.根据原文内容,下列说法不正确的一项是(
)
A.“图灵测试”提出了机器是否具有智能的判断标准。 |
B.自动驾驶汽车能够根据情景的相似度进行决策。 |
C.人们认为人工智能的“奇点”总有一天会到来。 |
D.人工智能有安全性问题,因而科学研究有禁区。 |
4.如何实现对人工智能控制的目标?请根据材料三简要概括。
5.请根据材料一、材料二,简要说明人类对人工智能的认识是如何不断深化的。