现在(zài)全球已经进入AI人工智能(néng)时代,这(zhè)是(shì)世(shì)界的第四次革命,之所以称之(zhī)为革(gé)命,是对(duì)世(shì)界的影响大。
这样的科技(jì)革命(mìng)是历史(shǐ)发展的必然规律使然,跟随人工智能时代,学界兴(xìng)起了(le)人工智能法学研究热潮(cháo),涉及(jí)的方面包括(kuò):人工智能生成的著(zhe)作权归属、智(zhì)能机器人是(shì)否(fǒu)具有人格(gé)权、涉人工智能犯罪刑事责任的研究有无(wú)必要(yào) 。
人工智能法学定义为(wéi):以人工智能的法律规制及(jí)其在各法律职业的应用为研(yán)究对象(xiàng),以“规则”和(hé)“技术”的取得为其研究(jiū)目的新兴交(jiāo)叉(chā)学科,为人工(gōng)智能(néng)的科(kē)学研(yán)究、人(rén)才培(péi)养和社会服务奠(diàn)定(dìng)了基础。“问题(tí)就是时代的口号(hào)”。人工(gōng)智(zhì)能虽然已经给各行各业(yè)带(dài)了(le)便利和好处(chù),但也(yě)存在着很(hěn)多(duō)问题。需(xū)要(yào)法学(xué)理论研究工作者给予回复。
虽然已经进入(rù)人工智(zhì)能时(shí)代(dài),但目前人工智能的发展仍(réng)然(rán)处于弱人工智能阶段(duàn),当前并不(bú)能够制定出关于(yú)人工智能的(de)完(wán)整的法律制度。人工智能立法有一个(gè)比较复杂的地方的地方就在于(yú)不(bú)用的(de)场景和不(bú)同的功能立(lì)法的要求是(shì)不同的,但是立法的(de)动作(zuò)还是要(yào)提前走。人工(gōng)智(zhì)能的法律规制(zhì)需要和(hé)具体的领域结合起来,在每一个细分领(lǐng)域里,存在着不(bú)同的规制方(fāng)法、进路和(hé)手段。当务之急(jí)是修改(gǎi)现有的法律,使得它能(néng)够兼容大数据和(hé)人工智能技术(shù)在具体领域和场(chǎng)景中的应用(yòng)。
法(fǎ)律一般不对实践中没有定型的经验、社会中没有(yǒu)成熟的关系进(jìn)行调(diào)整。就人工智(zhì)能发(fā)展的阶段而言,一般(bān)认为存在(zài)着弱人(rén)工智能、强人工智能和超(chāo)人工智能三个阶段。目(mù)前人工智能的发展仍然处于弱人工(gōng)智能阶段,因此当前并不能够制定出关于人工智能的完整的法(fǎ)律制度。
人工智能的法律规制需要和(hé)具(jù)体的领域结合起(qǐ)来,在每一个细(xì)分(fèn)领域(yù)里,存在(zài)着不(bú)同(tóng)的规制方法(fǎ)、进(jìn)路和手(shǒu)段。电子商务(wù)将(jiāng)互联网(wǎng)的技术(shù)运用于(yú)商业领域,政府监管(guǎn)的重要目的在于促进(jìn)竞争和反垄(lǒng)断,保护消(xiāo)费者权利(lì),维护市场秩(zhì)序。人工(gōng)智能广泛运用于医疗(liáo)领域,相(xiàng)关(guān)数据往(wǎng)往属(shǔ)于个人(rén)敏(mǐn)感数据,政府在设计监管模式(shì)的时候,必然采取(qǔ)高准入、严许可的进路。
规制人工(gōng)智能的立法进路
就人(rén)工智能的法(fǎ)律应对而言(yán),我国目前更多的是从(cóng)产业政策促进、扶持(chí)和发展(zhǎn)的(de)角度对人工智能提供(gòng)行政指导。2017年国(guó)务院(yuàn)发布的《新一代人工智(zhì)能发(fā)展规划》突出地反(fǎn)映了这一思路。
在监管层面上,目(mù)前对人工智(zhì)能的(de)法律规(guī)制在电(diàn)子(zǐ)商务(wù)、数据安全(quán)和智能投顾领域(yù)的立法中已经有个(gè)别条款分(fèn)别涉及。《电子(zǐ)商务法(fǎ)》规定,电子商(shāng)务经营者根据(jù)消(xiāo)费者(zhě)的兴趣爱好、消费(fèi)习惯等特征向其推销商品或服务的搜索结果的(de),应当同时向该消(xiāo)费(fèi)者提供不针对其个人特征的选项,尊重(chóng)和平等(děng)保(bǎo)护消费者合法权(quán)益。这是在法(fǎ)律层面对大数据算法(fǎ)杀(shā)熟的回应。此外,《电(diàn)子商(shāng)务法》第40条规定,对于竞(jìng)价排名的商品或(huò)服务,应当显著标明“竞价”。
规(guī)章层(céng)级的《数(shù)据安全管(guǎn)理(lǐ)办(bàn)法》(征求意见稿(gǎo))也(yě)对算法进(jìn)行了(le)相应的规(guī)制。《办(bàn)法(fǎ)》规定,“网络运营者利(lì)用大(dà)数据和人工智能等技术(shù),通过算法自动合成的(de)新闻信息(xī)、博文、帖子、评论等,应当以显著方式表明‘合成’字(zì)样。”对于(yú)算法推荐的规制,除了披露义务(wù)之外,规(guī)范信息流程、报备模型(xíng)参数、违规(guī)行为惩处等长效机(jī)制都是法律(lǜ)制度设计需要考量的要素(sù)。
2018年(nián)3月28日,中国(guó)人(rén)民银(yín)行、银保监会、证监会(huì)、外汇局联合发布《关于(yú)规范金融机构资产管理业务(wù)的指导意见》(以下简称“指导意见(jiàn)”)。该指(zhǐ)导意见对(duì)人工(gōng)智能在(zài)金(jīn)融领域(yù)的(de)应用进行了规制,从胜任性要求、投资者适当性以及透明披(pī)露(lù)方面(miàn)对智能投顾(gù)中的算法进(jìn)行穿透式监管。
《指导意见》明确,运用人工(gōng)智能技术开展投(tóu)资顾问业务应(yīng)当取(qǔ)得投资顾(gù)问资质。除(chú)了要遵守一般性规(guī)定外,还应当向(xiàng)金融监督管(guǎn)理部门报备(bèi)人工智能模型的主要参(cān)数以及资(zī)产(chǎn)配置的主要逻辑,为投资者单独设立智能管理账户,充(chōng)分提示人工智能算(suàn)法的固(gù)有缺陷和使用风险,明晰交易流程,强化留痕(hén)管理,严格(gé)监控智能管理(lǐ)账(zhàng)户的交(jiāo)易头寸、风险限(xiàn)额、交易种类、价格权限等。
《指导意见》强调,因(yīn)算法(fǎ)同质化(huà)、编(biān)程设计错误(wù)、对数据利用深(shēn)度不够等人工智(zhì)能(néng)算法(fǎ)模型缺(quē)陷或者系(xì)统(tǒng)异常,导致羊群效应、影(yǐng)响金融市场稳定运行的,金(jīn)融机构应当强制(zhì)调(diào)整或者终止智能投(tóu)顾业务。
在(zài)监管手段上,金融(róng)监管部门对智能投顾的法律规制采取了(le)组合拳的方式(shì)。智能投资(zī)顾问是投资咨询机构业务的延伸,投(tóu)资(zī)咨询机构应当被(bèi)识别为受托人,承担信(xìn)义义务和合规义务。
在监管方(fāng)式(shì)上,金融监管部(bù)门运用监管(guǎn)科技(jì)应(yīng)对金融科技的兴起。金融机(jī)构(gòu)在利用智能(néng)投(tóu)顾(gù)开展(zhǎn)资产管理业务的时(shí)候,必须要获得行政许可、获得(dé)资质;报备(bèi)模型参数、实现算法透明和算法可解释(shì)性(xìng);制定预案(àn)、适时人工干预。
人工智能的司法规(guī)制
这里(lǐ)在讨论人工(gōng)智能规制的时候,将不(bú)去(qù)区分人(rén)工智能和算(suàn)法之间的区别,将它(tā)们作为同一概念(niàn)处理。美国联邦法院和州法院在判(pàn)例中或者将算法定性成商业秘密,或者在关(guān)于搜索(suǒ)引擎算法的判决中(zhōng),将它(tā)看成是言论,在学者中激(jī)起(qǐ)了广泛(fàn)的争论。
算法(fǎ)作(zuò)为(wéi)言论
2003年的Search King v. Google- Tech.,Inc.案(àn)中,俄克拉荷玛州法院认为(wéi),网(wǎng)页排名是一种意见,搜索引(yǐn)擎根据算法生成的(de)结果是它的言论。四年之后,Longdon v. Google案中(zhōng),联邦地区法院也(yě)支持了算法是言论的主张。
就搜索引擎算法(fǎ)是否是言论,在(zài)理论上仍然有激烈的反对意见。更(gèng)进(jìn)一(yī)步的问题在于,即使司法对此已经(jīng)给出(chū)了(le)正(zhèng)面的回答,这一(yī)定性是否推广到所有领域的算(suàn)法仍(réng)然是悬而未决的问题。
算(suàn)法作为商业秘密
在(zài)美国刑事诉讼领域,算(suàn)法广泛运用于预(yù)测个体是(shì)否会(huì)重新(xīn)犯(fàn)罪,以及(jí)是否到庭,从而(ér)影响定罪(zuì)、量刑以及保释。这种做法(fǎ),在算法的(de)准确性、算法考虑不相关的社会因素以及(jí)算法(fǎ)的正当程序三个方面引发了普遍的质疑。
在State v. Loomis,881 N. W. 2d 749一案中,鲁米斯因(yīn)驾车枪击案而遭受刑事指(zhǐ)控。威斯康星州法院在量刑的时候基于(yú)COMPAS的(de)评(píng)估判处鲁米斯六(liù)年监禁外加五(wǔ)年监外(wài)执行。鲁米(mǐ)斯(sī)以侵犯了他的正当程(chéng)序(xù)权(quán)利(lì)和平等(děng)保(bǎo)护权(quán)为由提(tí)起上诉。威斯康星州最高(gāo)法院认为,性别作为参数进入算法,其目的(de)是为了算法准确(què)性而非为了歧视,因此没有侵犯被告的平等权(quán)。其(qí)次,COMPAS所分析的数据依赖于公开的刑事犯(fàn)罪记录和被告提供(gòng)的数据。最后,由(yóu)于评估结论并(bìng)非法院量刑的(de)唯(wéi)一依据(jù),法院(yuàn)所要求的(de)个别化对待的(de)权利得到(dào)了保障。
在算(suàn)法公(gōng)平和商(shāng)业秘密之间(jiān),法院在这(zhè)个案件中站在(zài)了商(shāng)业(yè)秘密一边。这一司法立场(chǎng)有助于促(cù)进技术创新和人工智(zhì)能产业的发展(zhǎn)。但算法公平性的问题仍(réng)然悬而未决。
当认为(wéi)算(suàn)法会带(dài)来歧视性的结果的时候,根本(běn)原(yuán)因在于作为算法基础的(de)数(shù)据中隐含着民族、种(zhǒng)族(zú)和(hé)性(xìng)别的偏见。Anupam Chander认(rèn)为(wéi)有效的补救措(cuò)施应当(dāng)是,设(shè)计(jì)算法的时候必须考虑到现(xiàn)有数据中潜藏(cáng)着的歧视。Danielle Keats Citron和Frank Pasquale主张,监(jiān)管者应当可以检测系(xì)统以(yǐ)确保其公平(píng)性和正确(què)性,个人有权要求纠正对(duì)他们进行错误分类而带来不利影响(xiǎng)的机器决(jué)策。
人工智能的(de)源头(tóu)规制
欧盟(méng)《一般数据(jù)保护条例》通过访(fǎng)问权、修改权(quán)、删除权(quán)、可携带权(quán)等具体权利的规定(dìng)确立(lì)了个人数据(jù)决定权。除了可携(xié)带权有利于在人工智能企业之间形成竞争、促进(jìn)产业(yè)发展之外(wài),其他的权利都对人工(gōng)智能的发展构成了直接的限制。
《条例》更赋予(yǔ)数据主(zhǔ)体以免于自动化决策的权利。《条例》21条明确规定:“数据主体有权根(gēn)据其特殊情况,在个人(rén)数(shù)据被处理(lǐ)的过程中行使反对(duì)数据画像(xiàng)的权利(lì)。”第22条进一(yī)步(bù)明(míng)确,如果某(mǒu)种包括数据(jù)画像在内自动化决策(cè)会对数据主体产生法律效力(lì)或者造成(chéng)类似(sì)的重大影响,数据主体有权不受上述决(jué)策(cè)的限制。
根据第29条工作组(zǔ)指引,在下述(shù)情形中(zhōng),不(bú)得使用自动化决策。比如解除合同;对法律所提供的某一具体的社会福(fú)利的获取或丧失(shī);婴幼儿补贴或住房补贴;拒(jù)绝入境某个(gè)国家或(huò)者是否认(rèn)公民身份。上述情形具有的共同特点就是自动化决策已经影响到(dào)行政相对人的权利义务。
除了第21条的规(guī)定(dìng)之外,《条例》“序言(yán)”第71条规定,数据(jù)主体(tǐ)应免(miǎn)于受(shòu)制(zhì)于自动化处理手段对其个人进行精(jīng)准评价,以及对其产生法律效果或重要影(yǐng)响的(de)情况(kuàng)。任何情(qíng)况下,这(zhè)些数据处理应当(dāng)有(yǒu)适当的(de)保护措施,包括(kuò)获(huò)得认(rèn)为(wéi)干预的权利(lì)、表达观点的权(quán)利(lì)、评估后达成决定的(de)解释权以及获得救(jiù)济的权利(lì)。
《条例》区(qū)分一般(bān)数(shù)据和敏感数据,对后者进行(háng)更为严格的保护。第9条明确,除非各成员国立法授权,辨识种族或民族(zú)出身、政治观点、宗教(jiāo)或哲学信仰、工会成(chéng)员的(de)个人数据以(yǐ)及以识别自然人为目的的基因(yīn)数据、生物特(tè)征(zhēng)数据、健康数据(jù)、自然人的性生活或性取向(xiàng)的数据的处理应(yīng)当禁止。
《条例》所(suǒ)确立的数据最小化原则对人工(gōng)智能行(háng)业(yè)的发展有直(zhí)接(jiē)的影响。企业(yè)必须阐(chǎn)明它们为(wéi)什么(me)需要收集和处理数据(jù),以及它们进行数据处理(lǐ)获得了什么成果(guǒ)。对数据的监管实际上从(cóng)源头影响(xiǎng)到(dào)人工智能行业的发展。
需要(yào)修改现有法律
人工智能技术的发(fā)展为法律规制提出了现实要求,而法律(lǜ)领(lǐng)域也越来越(yuè)深刻(kè)地受到人工(gōng)智(zhì)能(néng)的影(yǐng)响。
《一(yī)般(bān)数据(jù)保(bǎo)护条例(lì)》的默认(rèn)隐私原(yuán)则展示了(le)大数据时(shí)代人(rén)工智能(néng)技(jì)术对(duì)于立(lì)法(fǎ)行为(wéi)的本质性改(gǎi)变,我(wǒ)们可以将法律所追求的价值(zhí)和原则嵌入式地植入(rù)产品中。法律规制体(tǐ)系也将从对事(shì)物的规制(zhì)转变成对代码的规制。
就司(sī)法而(ér)言(yán),通过智慧司法提升司(sī)法效率,促进司法公平。最近(jìn)增设互联网(wǎng)法院更是将其意(yì)蕴拓(tuò)展到了网络治理主权的(de)层面。就(jiù)司法领域的人工智(zhì)能而言(yán),如何以平(píng)等原则和正当(dāng)程(chéng)序回(huí)应算法歧视和算(suàn)法(fǎ)黑箱(xiāng)将是司法人工智能领域的持久性(xìng)话题。
在执法领域,因为自动化决策的普及,将会出现(xiàn)法律的自(zì)动执行。2018年,深(shēn)圳就(jiù)普(pǔ)通高(gāo)校毕业生落户深圳实现秒批(无人干预自动(dòng)审批)。大量(liàng)行政法上(shàng)的程序权力被自(zì)动化决策(cè)所架空(kōng),这需要加强自动(dòng)化决策方(fāng)面的行政立法(fǎ),以实现人工智能的运用和公民权利保护的平衡。
总的来说(shuō),并不存(cún)在关于(yú)人工智能的一般(bān)化(huà)的法律规制。相关的法(fǎ)律规制(zhì)应当是和(hé)具体场景结合起(qǐ)来的,存在立法(fǎ)、司法和技(jì)术(shù)的(de)三种形式。
通过以上法律规范的(de)分(fèn)析,初步(bù)勾勒出我国对人工智能进行法(fǎ)律规制的路径。总体来说,人工智能时代+的(de)特点并没有能够很(hěn)好地反映到立法(fǎ)中。当务之(zhī)急是修(xiū)改(gǎi)现有的法律(lǜ),使得它(tā)能够兼容(róng)大数据和人工智能技术在具体领域和(hé)场景中(zhōng)的应用(yòng)。《证券法》第(dì)171条《证券投资顾问业务暂(zàn)行规定》第12条规定,证(zhèng)券投(tóu)资咨询(xún)机构不得(dé)代理委托人做出(chū)投资(zī)决策。因此,智能投(tóu)顾和禁止证券投资(zī)咨(zī)询(xún)全(quán)权委托的规定存在冲突。《民(mín)事(shì)诉讼法》也需要进行修订或(huò)出台互联(lián)网管辖方面(miàn)的司法(fǎ)解释,使得互联网法院的管辖(xiá)、审理、送达等(děng)具(jù)体(tǐ)运作(zuò)的环节(jiē)上能够实现网上受理,网上审理(lǐ),网上(shàng)执行的(de)目标。《道路交通安全(quán)法》需要进行相应的调整,以兼容现有的无人驾驶技术。
欧(ōu)盟的(de)进(jìn)路实际上抓住了人工智能的本质(zhì)。所(suǒ)有的人工智能(néng)都是(shì)建立在算法和算力的基础上的。当对数据(jù)进(jìn)行严格保护(hù)的(de)时候,其实就在源头对人工智能进行了规(guī)制。
人工(gōng)智(zhì)能(néng)技术的发展为法(fǎ)律规(guī)制提出了现实要求,而法律领域也越来(lái)越深刻(kè)地受到人工智能的影响。在美国(guó)刑事诉讼领域(yù),算法广泛运用于预(yù)测个体是否会重新犯(fàn)罪,以及(jí)是否(fǒu)到庭,从而影响(xiǎng)定罪、量刑以及保释。
所以在(zài)目(mù)前(qián)人工智能还在发展的初期中,现在并(bìng)不存在关于(yú)人工智(zhì)能的一般化的法律规(guī)制。相(xiàng)关的(de)法律规制应需要具体场(chǎng)景结合(hé)起来,存在立法、司法和技(jì)术(shù)的三种(zhǒng)形式。而新的立法也要从这三个方面进(jìn)行下(xià)手。
未来(lái),随着人工智能技(jì)术的不(bú)断完善(shàn)和发(fā)展(zhǎn),其对应的AI法律规则也会(huì)不断(duàn)完善(shàn)。