本报记者 赵姗
微软的创始人比(bǐ)尔·盖茨(cí)有一句名(míng)言(yán):“我们总是高估在(zài)一年或者两年中能够做(zuò)到(dào)的,而(ér)低估(gū)五年或十年中能够做(zuò)到的。”这句话用来理解人工(gōng)智能的影响是(shì)相当(dāng)合适(shì)的。目前,随着人工智能(néng)产业飞速发(fā)展,催生(shēng)了新的人机交互(hù)模式,核(hé)心便是(shì)AI大模型驱动的智(zhì)能体(AI Agent)(以下简称“AI助手”)。AI助手让“人机协同(tóng)”成为新常(cháng)态,个人与企业正(zhèng)在步(bù)入AI助手时代。
然而(ér),伴随(suí)着快速发展,一系列(liè)问题(tí)与挑战也随之而来。如何在应对AI助手面临(lín)挑战的同时抓住发展机遇,实现(xiàn)AI助手的(de)可持续发展和更广泛应用(yòng),成为行业需要深入(rù)思考和探讨的重点。
数据(jù)隐私安全(quán)、伦理和法律等(děng)成(chéng)为挑战
“AI助手在快速发展(zhǎn)的同时,也面临许多挑战和问题。”国务院发展研究中心创新发展研究部第二研究室(shì)主任杨超在(zài)接受中国经济时报记者采访时(shí)表示,在这些(xiē)问(wèn)题中,最为关键(jiàn)的还在于AI助(zhù)手使用所带来(lái)的数(shù)据隐私安全(quán)、伦理和法律问题。
杨超认为,从数据隐私保护(hù)来看,由于人工智能系统本身需要(yào)依赖大量(liàng)用户(hù)数据进行(háng)训练(liàn),必然会导致相(xiàng)关机构将AI助(zhù)手服务期间获(huò)取和(hé)产生的数据用于AI助手(shǒu)本身的优化,即使通过删(shān)除个性化属性等方式对数(shù)据脱敏,数据隐私(sī)和安(ān)全问题也难以完全避免。尤其是随着AI助手(shǒu)的普及(jí),其训练涉及的数(shù)据量将快速提升,从而进一步放大安全风险。
从伦理和法律角度(dù)看(kàn),随着AI助手能力的增强,其自主性和决策能力必然会(huì)显著提升,在部分应用场景中将会脱离人类的(de)直(zhí)接指令而(ér)开展(zhǎn)自主行(háng)为。这些(xiē)自主行(háng)为一旦产生外部性影响,就将引发伦理和法律问题。“一个经典的例(lì)子(zǐ)是,人(rén)工智能自动驾(jià)驶的(de)汽车(chē)在行驶过程中,前方突然出现(xiàn)行(háng)人,改变行驶(shǐ)方向会伤害乘客,不改变方向则会(huì)伤害行人。这种(zhǒng)情况下无论AI助手(shǒu)做出何(hé)种选(xuǎn)择都会带来伦理问题。”杨超说。
清华大学复杂工(gōng)程系(xì)统实验(yàn)室主任、中国人工智能(néng)学(xué)会智能产(chǎn)品与产业工作(zuò)委员会主任任勇(yǒng)在(zài)接受(shòu)中国经济时(shí)报记者采(cǎi)访时表示,在当(dāng)下阶段(duàn),AI助(zhù)手仍然面临技术创(chuàng)新(xīn)与场(chǎng)景适配度(dù)的挑战。
一是算法的精准性(xìng)与(yǔ)可靠性。AI助(zhù)手的核心——算法需(xū)要不(bú)断学习和优化以提高准确性和(hé)可靠性,然而,面对复杂多变的(de)用户需求(qiú)和场景,当前(qián)的算法(fǎ)往往难以达到期待的要求。
二是(shì)跨(kuà)模(mó)态学习与环境(jìng)理(lǐ)解能力。AI助手当前的(de)技术(shù)水平仍存在一定的局限性,难以充分(fèn)理解和整合应用时空变化的模态信(xìn)息,对环境信息(xī)的多模态感知(zhī)与理解尚(shàng)有(yǒu)很(hěn)大的提(tí)升空间(jiān)。
三是场景理解(jiě)与适(shì)应能力。有些场景化需求超越了简单的物理环境感知,需要与(yǔ)场景自身(shēn)的(de)底层逻辑、应(yīng)用逻辑(jí)相结合才能理解,这对(duì)当下的AI助手而言是(shì)一个现实挑(tiāo)战。
“此外,AI技术(shù)的复杂性和变(biàn)化性使得已有法规(guī)难以(yǐ)完全覆盖各种变动。当AI助手出现错误或(huò)造成损害时,责(zé)任(rèn)追究便成(chéng)了难题。”任勇说。
“AI助手面临的挑战还有算法偏见与(yǔ)歧视、过度依赖(lài)和成瘾。”清华大学人工智能国际治理研究院秘(mì)书长、欧美(měi)同学会研究院人工智(zhì)能和(hé)数字经(jīng)济研(yán)究(jiū)中心执行主任鲁俊群(qún)在(zài)接受中国经济时报记者采访时表示。
鲁俊群(qún)认(rèn)为,目前,AI算法(fǎ)的训练数据还存在不完备性和偏向性(xìng)。由(yóu)于(yú)AI训练所使用的语料数据本身可能客(kè)观上(shàng)就存在(zài)着(zhe)统(tǒng)计学上的一(yī)定偏差,还有(yǒu)可能存在开发者的个人(rén)偏好等,因此,现阶段的各(gè)种AI助手仍有可能存在一(yī)定的(de)算法偏见与歧视问(wèn)题。对此,有(yǒu)必要建立对技术背后训练数据和算法的审查机(jī)制,如(rú)通过(guò)建立(lì)AI伦理委员(yuán)会等形式加强审核。
另外(wài),“假如一名用户经常(cháng)与AI角(jiǎo)色互动来(lái)寻求(qiú)帮助和安(ān)慰,容易对(duì)其产生情感上的依赖,以此来填补情感(gǎn)需求上的空缺,这有可能导(dǎo)致用(yòng)户沉(chén)迷虚(xū)拟世界而忽(hū)视现实世界。对此,建议对于AI助(zhù)手应该使(shǐ)用得(dé)当,同(tóng)时应(yīng)该注意保持与现实世界的互动。”鲁俊群说。
未来发展(zhǎn)方向:垂直领域(yù)专业化(huà)、与具身智(zhì)能(néng)的结合
当前,大模型进入应用时代,多家科技公(gōng)司都(dōu)展出了最新AI应用。
“AI助(zhù)手发(fā)展的方向(xiàng)是多样的,在技术路线和应(yīng)用场景的双重(chóng)影响下,将(jiāng)会迎(yíng)来种(zhǒng)类繁多的AI助手。”杨超认(rèn)为,其中,有两个(gè)方(fāng)向是较为确定的(de)。
一是垂直领域专业化。在特(tè)定行业或领域,如家政、健康、医(yī)疗、法律、金融等大(dà)领域,甚(shèn)至是制(zhì)造业中不同行(háng)业等小(xiǎo)领(lǐng)域,AI助手都将具备更深入的专业(yè)知(zhī)识(shí)和技能,提供专业服(fú)务(wù)。
二是与具身智能的结合。随着人工智能能力的提升,其提供的(de)服务将不仅是咨询和智力服(fú)务,而是(shì)通过更多(duō)的感知和操作,为人类提供直接(jiē)与物质世界交互的能力(lì)。
任勇认为,就发展(zhǎn)方向而言,AI助手(shǒu)在产业场景和个(gè)体(tǐ)场景中的应用虽然(rán)都基于人(rén)工智能技术,但在技术路(lù)径和响应机理上存在(zài)着显著差异。
AI助手产业场景的技术(shù)路径(jìng)主要是针对特(tè)定需求(qiú),如制(zhì)造业、物流、医疗、教育等,AI助手通常需要进行定制(zhì)化开发,以符合行(háng)业的特定需求。利用(yòng)相应产业所产生的(de)数据,结合各种机器学(xué)习算(suàn)法(fǎ),AI助手能够自主(zhǔ)学习和(hé)优化,实(shí)现智能排(pái)班、任(rèn)务分配、数据分析、流程优化等高级功能。在此过程中,AI助手往往需要与(yǔ)企(qǐ)业(yè)的其他系(xì)统进(jìn)行集成,如ERP(企业资(zī)源计划)、CRM(客(kè)户关系管理)等,以实(shí)现信息的共享和协作。通过上述技(jì)术(shù)路径实现对重复性烦(fán)琐任务的自(zì)主处理和数据洞察、科(kē)学决策、降本增效。
AI助手用(yòng)于个(gè)体场(chǎng)景的技(jì)术路径主要是利(lì)用通用智能平台(tái),如智(zhì)能手机、智能(néng)家居设备等(děng),通(tōng)过语音(yīn)识别和(hé)自然(rán)语言交互、多(duō)设(shè)备协(xié)同来辅(fǔ)助用(yòng)户完(wán)成任务,提升日常生活(huó)的便利(lì)性和服(fú)务(wù)的(de)精(jīng)准性(xìng)。
“在产业场(chǎng)景中,AI助手主要关注(zhù)于提升效率、优化决策和(hé)降低成本,需要更多的(de)定制化开发和(hé)集成协作;而在个人生活场景中,AI助手则更注重(chóng)于提供便捷化(huà)、个性化、适应性服务,未来的技术创新(xīn)只能围绕(rào)不同场景下各自的内(nèi)生逻辑(jí)进行迭(dié)代优化。”任勇说。
鲁俊群认为,AI助手未来可能会向多模态交互以及具身智能方向发展。
“为了实现具身智能,需要将类(lèi)ChatGPT等这些基础大(dà)模型与(yǔ)进(jìn)化学习机制相结合,通过(guò)与物理(lǐ)世界交互取得的(de)新数据(而不再是人类投喂(wèi)的数据)来不断学习,并适(shì)应新环境,优化行为策略。多模态大模型能够整合视(shì)觉、听觉、触觉等多种(zhǒng)感官数据,提升机(jī)器人的理解(jiě)能力。使具身智能机器人(rén)在与(yǔ)物理世(shì)界的互动和理解方面(miàn)更加人性化。这些未来的AI助(zhù)手(shǒu)机器(qì)人可以自主理解场景、识别自然语(yǔ)言(yán)指令、规划任务,并执行操作,将是人类最得力的智能助(zhù)理。”鲁俊(jun4)群说。
从创(chuàng)新方(fāng)向引导、应用场景规范方面为AI助手提(tí)供支持保障(zhàng)
当前,AI助手的服务升(shēng)级(jí)与(yǔ)互联互(hù)通是国内多(duō)家互联网(wǎng)科技公司持续(xù)探(tàn)索的重点。
杨超(chāo)建议,第一,加强对(duì)用户隐私和数据(jù)安全的保(bǎo)护。强制(zhì)性地(dì)将用户隐私和数据安全(quán)作为(wéi)提供AI助(zhù)手(shǒu)服务(wù)的前置条件(jiàn),引导和鼓励相关机构采用先进的数据加密和匿名化技术,确保(bǎo)用户(hù)数据的安全(quán)和隐私。
第二(èr),增强AI助手决策过程的可(kě)解释性,让用户能够理解其行为和决策逻辑,从而提(tí)高用户信任度。为(wéi)整个社会(huì)更好(hǎo)接纳AI助手创造(zào)良好的环(huán)境,从而为在更广阔的应(yīng)用场(chǎng)景中(zhōng)使用(yòng)AI助手提供帮助。
第三(sān),加(jiā)强伦理和法规遵从。根(gēn)据人工智能技(jì)术的进步(bù)及时修(xiū)订相关法律法规,完善对AI助手进行规制的制度环境,确保AI助手的开发和应用符合(hé)伦理(lǐ)标准和法律法规,避免产(chǎn)生歧视、偏见等问(wèn)题。
“国家政(zhèng)策层面应该从创新方(fāng)向引导(dǎo)和应用(yòng)场(chǎng)景规范两个方(fāng)面出发,为AI助(zhù)手(shǒu)的发(fā)展(zhǎn)提供支持和保障。包括明确AI助手的适用场景(jǐng)和范(fàn)围等,避免误用,更要避免(miǎn)国际资(zī)本集(jí)团假借技术(shù)触(chù)发虚假市(shì)场(chǎng)的滥用。特别是在医疗、教育、交通等(děng)关键领域,应严(yán)格(gé)规范AI助手的(de)应用条件和(hé)程(chéng)序。此外,要建立健全AI助(zhù)手的监管机制,加强社会(huì)力量尤(yóu)其是人民(mín)群(qún)众对(duì)AI助手应用的(de)监督和评估(gū),确保其(qí)合规性、合理性和安全性。对于违规(guī)行为,应依法进行处罚(fá)和追(zhuī)责。”任勇表示。
未来,企业(yè)可以利用AI助手优化现有(yǒu)业务流程,特别(bié)是在新(xīn)产品研发和服务(wù)的创新应(yīng)用(yòng)方面(miàn),AI助手的普(pǔ)及将推动(dòng)不同行业之间的跨(kuà)界融(róng)合和协同发展,为企业带来新的商业机(jī)会和合作伙伴,进而(ér)带动商业(yè)模式和生态的变革。
中央财经大学数字经济融合创新(xīn)发展中心(xīn)主任陈(chén)端在接受中国经济时(shí)报记者采访时认为,企业运用AI助手强化核心竞争力需要一系列的战略(luè)规划和技(jì)术实(shí)施(shī)。
一是(shì)要识别(bié)关键业务场景,深入了(le)解业务(wù)需求,确定(dìng)AI助手在哪些环节能够发挥最大(dà)价(jià)值,然后为选定的业务场景明确(què)具体(tǐ)的需求和(hé)目标,如提高客户满意(yì)度(dù)、优化库存管(guǎn)理、增强市场分(fèn)析能力等。
二是根据业务需求和技术成熟度,选择适合的AI技术和解决方案(àn),要充(chōng)分考虑(lǜ)与现(xiàn)有(yǒu)系统的兼容性,确保AI助手能够(gòu)顺利集成到(dào)企业的IT架构中。此外(wài),还要(yào)建立完善(shàn)的数据治理体系,避免因(yīn)为数据偏差(chà)导致的结果偏差。
三是(shì)需要设立明确的评(píng)估指(zhǐ)标和机(jī)制,对AI助手的性能(néng)和效果进行定(dìng)期(qī)评估,及(jí)时调(diào)整和优化AI助手(shǒu)的算法和(hé)模型,以提升(shēng)其准确性和效(xiào)率(lǜ)。此外,还需(xū)要关注AI助手可(kě)能带来的伦理(lǐ)和社会问题,确保其应用符(fú)合道德和法律规范(fàn)。