人工(gōng)智能亦可称(chēng)机(jī)器智能,通(tōng)常是(shì)指由普通计算机程序来呈现人类智能的技术,其核心问题包(bāo)括建构能(néng)够跟人类比肩甚至超(chāo)越(yuè)人类的推(tuī)理、知识、规划、学习、交(jiāo)流、使(shǐ)用(yòng)工具(jù)和操控机械等能力。随着人工智能技术的不断发展,在大众对这项技术刷新认识的同时,也(yě)产生了诸多的疑问及质疑。
portant;" />
中科院自动化(huà)研究所研(yán)究(jiū)员、智(zhì)源人工智能伦理与安(ān)全研究中心主任曾毅
作为中(zhōng)国人工(gōng)智能(néng)的从业者,希望中国的人工(gōng)智能发展成什么样?就(jiù)此相关问题(tí),记者对中科院(yuàn)自动化研(yán)究所研究(jiū)员(yuán)、智(zhì)源人工智(zhì)能伦(lún)理与安全研究中心主任曾(céng)毅进行了专访。
大(dà)众对人工智能的认(rèn)识存在偏差
有人曾说,一个不再(zài)像人类(lèi)一(yī)样思维的机器,会(huì)引(yǐn)起大家的(de)恐慌。在(zài)人工智能发展的过程当(dāng)中,有(yǒu)很多人(rén)在疑(yí)问:人(rén)工智能实现通用智能、超级(jí)智能,是不是最大(dà)的(de)风险?对此,曾(céng)毅回答道,在实现通用人工智能的途径(jìng)中(zhōng)一定会存在风险(xiǎn),但(dàn)真正的(de)风险,现在看来并不是通(tōng)用智能或者超级智(zhì)能,而是在于人工(gōng)智能发展的道路过程(chéng)当中已经涌现出来的风险以(yǐ)及安全、伦理问题。
portant;" />
难以保障隐私(sī)的用户(hù)数据(图片来自网络)
对于人(rén)工智能(néng)这样由(yóu)算(suàn)法专家构(gòu)建的服务,极可能存在算(suàn)法歧视、偏见等潜在问题,这些就足以(yǐ)使人工智能对我们的社会(huì)产生巨大的负面的影响。比如在人工智(zhì)能的应(yīng)用中(zhōng),数据隐私泄(xiè)露的问题(tí)非(fēi)常广泛,用户(hù)可(kě)以把数据库当中的用户数据(jù)删除,这样看似用户数据就被消(xiāo)除掉了,但其(qí)实数据库已经(jīng)使用了它的数据,数据特征已经被模型(xíng)学到了,这个时候用户数据是不可(kě)能完全拿回的。曾毅谈道,虽然类似欧盟在(zài)极力推(tuī)动的“GDPR欧洲通用数据(jù)保(bǎo)护条例”有相关规定,但目前(qián)几乎没有一家企(qǐ)业真正完全符合GDPR,而大众极度却缺乏个人数据隐(yǐn)私保护(hù)意识。
曾毅表示(shì),公众很关注(zhù)人工智能的社会影响,但是碍于大众对于人工智能的风险不是太了解(jiě),所以人工智能(néng)技术的科(kē)普比任何时候都重要。
面对当(dāng)前人工智能实际应用的安全问题需建立监管(guǎn)平(píng)台
面对(duì)人(rén)工智能的风险,当下存在严重两(liǎng)极(jí)化:比如美国加州就(jiù)决定禁(jìn)用人脸识别技术(shù),但也有更多企业对风险持(chí)视而不(bú)见的态度。总体而言,人工智能发展是主旋(xuán)律,但是人(rén)工智能的健康发展(zhǎn),一定是治(zhì)理和发展双(shuāng)轮驱动。“智源人工智能研究院安全(quán)伦理(lǐ)研究中(zhōng)心布局的重要项目(mù)就是从技术的角度来解决人工(gōng)智(zhì)能模型当中存(cún)在(zài)的风险问题,而不仅(jǐn)仅(jǐn)是停留(liú)在(zài)伦理原则上的讨(tǎo)论。”曾毅说。
portant;" />
人脸识别技术(图(tú)片来自网络(luò))
此外,曾(céng)毅还提出两点建议:一方面,不管(guǎn)是企业、科研机(jī)构、还是政府,在(zài)指(zhǐ)导(dǎo)人工智(zhì)能(néng)发展(zhǎn)的时候,应该建立不同层(céng)级的(de)人工智能伦理和治理委员会。另外一方面,应该号召国(guó)家建立(lì)人工智能服(fú)务和(hé)产品的监(jiān)管平台。“如今的发展模式(shì)是企业做完产品上线,一(yī)旦出了(le)问题,有关部门(mén)再去约谈(tán),像前一段时间的换脸软件就是这样的。如果有监(jiān)管平(píng)台,企业将用户知情(qíng)同(tóng)意书(shū)传上来,立刻就能发现(xiàn)其中的哪些(xiē)原则(zé)违反了(le)国家的法(fǎ)律或者是(shì)人工智能发展的原则(zé),就可以在(zài)产(chǎn)生社(shè)会负面影(yǐng)响之前(qián),规避(bì)掉存在的风险。”
保(bǎo)持对人工(gōng)智能发展的敬畏和(hé)理性,是非常关键的。曾(céng)毅(yì)呼吁提升人工智能(néng)的技术人员对于风险和伦理问题的重视,使得他们真(zhēn)正在开发人工(gōng)智(zhì)能的时候,心中(zhōng)有红线;在(zài)发展的方向上保(bǎo)证他们(men)创造的人(rén)工智能产(chǎn)品向着对人类有(yǒu)益的方向发展。