断桥铝门窗材料如何选择
作者:赣州市 来源:中沙群岛的岛礁及其海域 浏览: 【大 中 小】 发布时间:2025-04-05 17:14:52 评论数:
(8)通过全球视野的比较法研究,推动了法律全球化趋势的研究和跨文明与跨文化的法律对话。
第二个层面上的不可持续行可能更为切中要害,但同时又不如第一个层面表现的那么直观和易于观察。但是由于执法者自身资源的稀缺性,不可能一直保持这样的高强度执法力度,因此其对于特定行为的执法力度就会呈现所谓的松紧性—即,在运动式执法期间,由于高强度的资源投入,对于特定行为的打击就会比较见效,也就是一般人所说的抓的比较紧。
但历史资料也同样告诉我们:这样的举措虽然在一定时期内具有一定的效果,但同时还随之伴生出一些严重的社会问题、甚至常常成为引发社会动荡或朝代更迭的一个诱因。引文 运动式执法是一种颇为凸显现阶段中国治理模式的执法方式,并已成为一个司空见惯的社会现象而被一般民众所认知和熟悉。又因为运动式执法的特点,执法强度不能一直维持,所以在每次执法之后,从事性服务业的风险(成本)就会相对降低,这样在边际上就会诱使更多的人在运动式执法之后的一段时间内进入这个市场,提供相应的服务。以中国古代的食盐专卖制度为例,因为官府想要获得食盐—这一当时战备物资和生活必需品的垄断经营权,所以宣布所有私贩食盐的行为为违法并采取强力措施来打击。最糟糕的情形是:随着非法交易者组织化的进一步深入,形成了所谓的黑社会,当这种组织全面渗透某一层级执法部门时,这一层级的执法者就有可能从人民的公仆沦落为非法交易者的看门狗。
通过上面这样一个示例可以看出:出于某些政策考虑而采取运动式执法方式非但不能完全解决其想要解决的问题,有时反而会走向它的反面—可能带来更多的问题或者造成更严重的后果,这对政策制定者来说无疑是一个难以接受但又必须深入思考的后果。本文的第二部分将会采纳一个经济学的视角,运用市场价格一般形成机制对运动式执法的后果给予详尽的考察,并会通过一个示例来展示那些可能会被这些批评遮蔽或者忽视的问题。文中梳理了六大主要问题,包括:机器人法律资格的民事主体问题,人工智能生成作品的著作权问题,智能系统致人损害的侵权法问题,人类隐私保护的人格权问题,智能驾驶系统的交通法问题,机器工人群体的劳动法问题。
[2] 中国知网的数据库统计显示,在法学学科的期刊文献分类范围内,关于人工智能这一主题的研究从2001年开始出现,从2001年到2013年,文献数目都徘徊于个位数,其中2003、2004两年完全空白,2014年首次达到10篇,2016年增长到26篇,2017年目前已达到98篇。即使不涉及更复杂的理论分歧,仅以同案同判作为一个简单的实现司法公平的标准,什么是同案同判,首先也是一个众说纷纭的问题,关于同类的标准,在不同的法学理论中有不同的认识。[14] 但与如何达成公平这一复杂标准相对,如何提高效率则是一个更容易被量化的简单标准。[10] 参见胡凌:《人工智能的法律想象》,载《文化纵横》2017年第4期。
在法律实证主义看来,规则与事实相结合形成的判决确定性是一种应对尽可能接近的理想状态。互联网上的海量数据,一旦可以被储存和认知,也就成为了有意义的信息。
弱者只能了解到自己面对的规则会以什么样的概率表现出来,但不清楚黑箱是基于自己的哪些信息形成了这种概率。人工智能与法律的相关研究,作为一个新的学术增长点,在短时间内可谓形成了爆发式的增长。而法律现实主义虽然质疑这种确定性,但其指出的不确定性来源在于人的有限理性无法认识确定的事实,或是无法理解确定的规则,是一种局部不确定性,其前提还是存在着一般性的规则,因而对于许多简单案件是确定性的。因此人工智能在进行具体的法律推理时,如何达到一个最优的选择,首先还需要经历法学理论的诸神之争,目前不可能形成一种统一的得到普遍认同的算法。
在前一种情形下,他们所认识的法律首先还是规范条文,而后一种情形下则更直接呈现为运作结果。[6]进一步来说,就是可能成为机器人形态的人工智能如何与人类在社会中有序共存。对于不同个人而言,即使他们知道法律规则是一般性的,也会发现对于自己有实际影响的规则是个体性的。[4] 参见王迁:《论人工智能生成的内容在著作权法中的定性》。
[41] 周志华:《机器学习》,清华大学出版社2016年版,第23-24页。能够以很低成本获取关于个人的信息,就能够进一步将个人同其他人区分开来,更为有效的预测他/她会对于规则的反应,也就能更有针对性的运用规则调整其行为。
为什么会形成特定性规则?信息成本的大幅度降低意味着规则所调整的行为可能进入一个长期动态的重复博弈,而非规则文本所预设的一次性博弈的静态。而在信息成本的大幅度下降揭开了无知之幕之后,人们可以确定参与博弈的对方的相关信息,因而进入到重复博弈中,每一项行为的评价与回应都不会是孤立的,而是和此前的行为结合在一起,因而引发相应的对策。
当人们会更直观的获得来自于人工智能的处理结果时,出于节约思维成本的考虑,会本能的快速接受这一结果,而不太愿意消耗自己的精力去分析推导过程。在经典的法理学观念中,法律规则的重要特征就在于,以全有或全无的方式(all-or-nothing manner)应用,只要是有效且可适用于特定案件,就能够完全确定结果。造成这种现象,显然并不是因为法律人在价值观上存在着高下之分,而是因为对于人工智能而言,去把握如何提高司法的效率,要比去把握如何实现司法的公平更容易。但事实上,在人工智能时代,即使立法者名义上制定的仍然是同过去一样的一般性规则,实际上人们所能认识到的规则也还是个体化了。在信息高度不完全,不对称的陌生人世界里,人们通过承担足以显示自己属于注重未来收益的好人类型的信号成本来寻求合作,法律以及其他各种类型的社会规范,都起到了信号传递功能。而从不同标准出发,不同的法学理论也有不同的推理模式。
[20]从商业逻辑出发的这种推动力,甚至会比起政府或司法部门的推动力更加有力。正如我们在蒸汽火车时代无法想象高铁网络对地理空间的重塑,在手摇电话时代无法想象4G通信对信息传递的重塑,当这种预测的形成速度超过一定临界点时,变革就会变得明显起来。
正如普通人在操作电脑时,不会再愿意自己运用程序语言编写程序来完成某一功能,而是选择适用某一软件进行一键式的操作。[24]人工智能的运用,相对于此前的数据挖掘与处理技术,一个更为突出的特征就在于机器自身的深度学习。
总而言之,本文试图预测人工智能在法律领域的广泛运用将会如何重构我们传统认知中的法律,人工智能是一个外在的变量,分析的重点仍然是法律本身。退一步说,即使我们固守法律应当是一般性规则而非个体性规则的经典原则。
因此,不仅立法中何谓法律面前人人平等面临重构,司法中也是如此。人工智能建立于大数据基础之上,但不是简单停留于对大数据的处理,而是试图向小数据,大任务的认知构架发展。重点其实还不在于普及的广度,而在于思维的速度与深度。如果说蒙上双眼的正义女神曾经是法律中的公平正义最典型的象征符号的话,那么,借助于人工智能的法律运作可能不仅摘下了蒙眼布,而且还带上了柏拉图在《理想国》开篇所讨论的古各斯的戒指(the ring of Gyges),可以没有任何障碍的窥视一切人,以0成本获取信息。
[39] Supra note 21, p260. [40] [德]施路赫特:《理性化与官僚化:对韦伯之研究与诠释》,顾忠华译,广西师范大学出版社2004年版,1-4页。[30]因此,信息的意义在于人们能够对于事件的特定性进行更为准确的定位,我们所获得的信息越多,就越能确定一个事件相对于其他事件的特定性。
当然,人工智能的运用不会局限于司法机关,更重要的是在各类法律活动中的全面推广。这种对于法律认知模式的重构,会在很大程度上使人们对法律的预测由人工智能的算法确定,使算法实际上成为了法律。
而对于这种弱人工智能的界定,去除了简单的拟人式想象,只将其看作一种基于算法设计通过数据自主学习以优化数据处理的计算机制,本质在于算法和数据。[28]霍姆斯的预测理论意味着法律是预测在什么情况下公共权力通过法院起作用,[29]而当公众不仅仅预测通过法院起作用的权力,同时也在预测其它可能具有公共意义的权力如何发挥作用时,公众通过算法获得预期,算法也就成为了法律。
站在正统的法律视角来看,由于法律本身的复杂性,人工智能的预测能力可能在较长的一段时间内并不能达到令人满意的程度,这种向公众输出的法律预测事实上很可能扭曲了真实的法律。可以说,我们之所以愿意去获取关于累犯之类的早前信息,而不去获取关于当事人的其他信息,并没有价值上的绝对差异,而主要是信息成本的考量。因此,基于人工智能和大数据的案件预测将深刻影响当事人的诉讼行为和法律纠纷的解决。即使人工智能的预测真是扭曲了真实的法律,但对错误的法律预测达到一定程度时,这种错误的预测本身就塑造了人们的预期,就像真实的法律一样产生作用。
[21] 简单来看,这似乎也并没有什么根本性的变革。[31] 参见[美]波斯纳:《法理学问题》,苏力译,中国政法大学出版社2002年版,第57页。
而类似的技术也完全有可能进一步进行商业推广,不局限于单一平台。[15]从这样的要求出发,算法的设计就可以相对简化,无需深入到终极算法的层面,只需要对现有数据进行一般性的归纳和类比,技术上也没有太高难度。
但为什么这一定是不可动摇的根本特性呢?仅仅是我们总结以往的法律规则都是一般性的,并不能构成有效的论证。更为理性化的法律缺少了感性的移情式理解,并不是说无差别的面向所有个体。