当前位置: 首页 » 论文导航 » 政治法律 » 正文
溯本正源:人工智能未来危害风险的理性去魅与刑法纠偏
发布日期:2020-05-22  来源:华东政法大学学报   浏览次数:53
核心提示:(一)技术去魅:被夸大的智能风险不具有刑法独立归责的客观基础1.风险的场域限制:市场逻辑的利益驱动导致危害风险范围有限任何新生事物的产生与蓬勃
 (一)技术去魅:被夸大的智能风险不具有刑法独立归责的客观基础

1.风险的场域限制:市场逻辑的利益驱动导致危害风险范围有限

任何新生事物的产生与蓬勃发展背后都有利益驱动。马克思曾指出,把人和社会连接起来的唯一纽带是天然必然性,是需要和私人利益,[29]人类社会后天任何技术之物的产生与发展都同利益密切相关。脱离利益的驱动则社会物质无发展之动力。毫无疑问人工智能作为新生之物,它的产生、发展和以后的广泛使用的背后肯定是利益驱动。所以,一个不容忽视的因素是人工智能的快速发展背后其实是经济利益驱动下的市场逻辑的产物。即从现有的国家战略和发展布局来看,人工智能主要是服务经济社会的发展的需求,这就决定了推动人工智能的发展必然有“成本—回报—收益”的经济效益的诉求。人工智能的天然具有经济属性,其产生与发展具有经济利益的目的性,其适应的领域和范围也具有有限性,即“有利我才在”。人工智能不可能向人或者动物的产生和存在一样,具有物种保全和延续生命的自然属性,从而可以“遍地存在”。基于人工智能经济利益的诉求性,导致其创设的危害风险的场域范围极其有限,其风险系数很低,甚至比不上“狗咬人”的风险系数。

2.风险的技术限制:被夸大的智能技术导致危害风险缺乏技术基础

现在探讨人工智能犯罪主体肯定说都是建立在超人工智能具有假设性的自主意识和能动行为的前提下,认为它会像人一样创设不可预料的危害风险。但是必须理性的审视人工智能的发展之路并非预想的一帆风顺,技术发展的结果能否造就出一个具有深度学习能力和独立行为能力的超人工智能是存疑的。前文论证的所谓技术奇点、图灵测试等都存在技术上的障碍或者难以解决的问题。现实的困难与美好的技术愿景之间存在很大的差异,能否克服这种技术障碍还有漫长之路需要走。被夸大的人工智能的危害风险,目前缺乏技术基础,未来存在技术障碍。从另外一个角度思考,“技术”具有两面性。人工智能能够自我产生危害风险,但人工智能也完全可以自我消解危害风险,利用人工智能的技术之盾,防备人工智能的风险之矛,也能够确保人工智能的风险被最小化。所以,被夸大的人工智能的危害风险,目前缺乏技术基础,未来存在技术障碍。3.风险的性质限制:从风险到实害的过程限缩降低了危害风险

人工智能无论其智能程度如何,其存在的风险,既有作为工具性的危害风险,也有作为自主性的危害风险。人工智能作为工具性的风险属于人的责任范畴。这种风险属于传统的风险范畴,天然存在且不可消灭。这种风险具有法律的可控制性和责任的归宿性。但对于人工智能自主性的风险还存在跨越时空性、不可预测性和复杂的关联性。所以,目前探讨的人工智能的风险都是一副概率性的图景。但刑法关注的危险和实害。从风险到危害或者实害的转变,是有一个逐步限缩的过程。首先,人工智能的应用风险要经过实验室的验证和运行,运行成熟了才扩展到社会应用领域。实验室具有风险的过滤作用。其次,人工智能的社会应用也有一个从局部应用到全面扩展的过程,相应的也会过滤掉一定的危害风险。最后,从风险到实害是一个从未然到实然的过程,这一过程风险可能发生实害,也可能不发生实害。当发生实害概率很低的时候,尽管有实害,但也属于刑法中被允许的风险范畴。

(二)价值去魅:未来智能风险属于传统风险无须改变传统的刑法体系

任何一个社会形态都天然的伴随着风险,从农业社会的自然风险到工业社会的机器风险到智能社会的科技风险。所以,社会层面的危害风险所处的阶段不同,条件不同,自然风险的表现形式也各异。无论社会如何变迁,社会风险的演变在性质上仍旧是人类活动的结果。对于人工智能时代的到来,人类要保持足够的主体自信和技术自信。在价值批判上,人工智能创设的科技风险依旧属于传统的社会风险范畴。传统的刑事法律体系完全能够有效应对未来可能出现的任何科技风险。

1.人工智能的危害风险不会引发人类的生存危机

风险一直伴随着人类社会发展而存在。风险包含自然风险和社会风险。法律关注和评价的是社会风险。社会中任何具有自主能动性的物,比如动物或者人类都可能成为社会风险的来源。如前述案例,人工智能也可以在社会应用场域之中形成对人或者物的危害风险。无论是作为工具型的人工智能还是作为独立自主型的人工智能只要活动在社会关系之中就伴随着一定的危害风险。这种人工智能的危害风险囿于刑法规范逻辑的限制,还不能评价为犯罪风险。即便立足于人工智能犯罪主体肯定说的立场而言,人工智能产生的犯罪风险仍旧属于传统犯罪中人性的犯罪风险的外在延伸。理性的审视这种衍生的犯罪风险,在事实认定和价值评判上,其仍旧属于传统的犯罪风险的范畴,最底线的思考人工智能独立犯罪也只限于特定领域的特定犯罪,其实质并没有脱离现有的刑法规定所保护的法益范畴。同时,从风险概念的本身来讲就意味着预防风险的逻辑。风险概念本身表明人们更加审慎的决定或者有意识的控制外界危害后果,使其尽可能的具有预见可能性。通过有意采取的预防性行动以及相应的制度化的措施战胜种种(发展带来的)副作用。[30]总之,人工智能的危害风险不会引发人类的生存危机。
 
 
2020-08-06
浏览次数:5

人工智能产品的法律主体资格

(一)国外的发展情形2010年11月,日本机器人帕罗曾以作为宠物的身份取得了日本某个城市的户籍资格。2017年10月,沙特阿拉伯将该国的公民身份给予了香

2020-05-29
浏览次数:21

人工智能时代下公共服务发展和创新的驱动力

在社会与科技蓬勃发展的今天,政府需要把握好机遇利用新技术为公民提供智慧型服务。人工智能可以为公共服务的发展和创新提供新的驱动力。(一)提供个

2020-05-22
浏览次数:35

我国教育人工智能赋能教育现代化实践路径

(一)制定教育人工智能相关政策和法律法规教育人工智能的发展离不开政策的引领和法律法规的保障,各级政府和教育主管部门应该树立教育人工智能优先发

2020-05-22
浏览次数:36

教育人工智能相关技术

教育人工智能主要研究领域有:专家系统、机器学习、自然语言处理、人工神经网络和机器人等。(一)专家系统专家系统是一类具有专门知识和经验的计算机

2020-05-22
浏览次数:77

我国教育人工智能的发展历程

人工智能,英文为AI,起源于1956年达特茅斯学院召开的第一次关于人工智能的学术会。在会议上麦卡锡首次提出人工智能一词,这次会议也是人工智能被确立

2020-05-22
浏览次数:54

反思与批判:人工智能“犯罪主体肯定说”观点证伪

(一)基于技术标准的观点批判:(超)强人工智能及其技术局限人工智能犯罪主体肯定说的逻辑论证都普遍建立在(超)强人工智能的技术的前提之下。根据

2020-05-22
浏览次数:50

问题的提出:人工智能刑事归责的学界共识与分歧

(一)学界的共识与分歧在刑事法领域探讨人工智能的犯罪与刑事责任的问题,主要集中在两种情况来论证。第一种类型是以人工智能作为工具辅助型所产生的

2020-05-20
浏览次数:27

青少年人工智能素养的要素分析

弄清青少年人工智能素养的构成要素是开展人工智能素养培养工作的前提条件。人工智能素养培育的重心在于助力青少年形成适应智能时代发展的基本伦理素养

2020-04-01
浏览次数:31

人工智能——作为技术的本质

在海德格尔构架的技术化涵义中,生命的一切领域普遍地被卷入技术化的潮流,教育作为社会发展的重要组成部分,毫无例外地深受技术发展的影响。技术之所

2020-03-31
浏览次数:49

人工智能概述

1956年夏天,在美国达特茅斯学院,麦卡锡、明斯基、香农等不同研究领域的学者,聚在一起讨论用机器来模仿人类学习智能,正式确定了人工智能这门研究学

 
评论详情
 
0条 [查看全部]  相关评论
 
 
 

免责声明:本平台并非任何杂志官网,仅限于整理学术信息以及期刊投稿渠道