开云

    咨(zī)询热线(xiàn):021-80392549

    开云 QQ在线 开云 企业微信
    开云
    开云 资讯(xùn) > 人(rén)工(gōng)智能 > 正文

    疫情加速(sù)AI快速发展,那深度学习(xí)走势(shì)如(rú)何?

    2020/04/30331

    自2012年以来,随着欣顿(Hinton)、乐昆 (LeCun)和(hé)吴恩达(Andrew Ng)对(duì)深度学习的研究,使其在(zài)机(jī)器学(xué)习方(fāng)面的(de)应(yīng)用取得了显著(zhe)成就,深度(dù)学(xué)习成(chéng)为计算(suàn)机科学的一个(gè)新兴领域。谷(gǔ)歌、脸谱、百度、腾讯(xùn)等(děng)互联网(wǎng)公司纷纷(fēn)投入巨资研究深度学习,并兴起了基于(yú)深度学(xué)习的(de)创业大潮(cháo)。然而(ér),对深度(dù)学(xué)习原理的困惑。对其应用的质疑也一直存(cún)在。在ImageNet目标(biāo)检(jiǎn)测中,人脸识别率已达99.5%,甚至(zhì)超越人眼的识别准确率,在此情况下,深度学习何(hé)以为继?又该如(rú)何提(tí)升?深度学习是处于热潮的初始(shǐ)?还是强弩(nǔ)之末(mò)?是一直所(suǒ)向披靡?还(hái)是(shì)很快(kuài)走向终点?作为沉寂了20余年的神(shén)经网(wǎng)络领域,深(shēn)度学习到底还能走多远?
    神经网络与人脑的区别(bié):
    目前,深(shēn)度学(xué)习在几个主要(yào)领域都(dōu)获得了突破(pò):在语音识(shí)别领域(yù),深度学习用深层(céng)模型替换声学模型中的(de)混合高斯模型,错误率降低了30%;在图像识别领(lǐng)域,通过构造深度卷积神经网络,将Top5错误率由(yóu)26%降低(dī)至(zhì)15%,又通过加大加深网络(luò)结构,进一步降低到11%;在自然语言(yán)处理领域(yù),深(shēn)度学习与其他方法(fǎ)水平相当,但免去了繁(fán)琐的特征提取步骤。深度学习是最(zuì)接近人类(lèi)大脑的智能学习方法。
    然而,与人脑相比,深度学(xué)习目前在处理问(wèn)题的能力上还有不小的差距。当前的深层(céng)网络在结构、功能、机制上都与(yǔ)人脑(nǎo)有较(jiào)大差距。从(cóng)结构上看,人(rén)脑有1000亿左右的神经元,这(zhè)些神经元形成了1000到1万(wàn)层(céng)的连接。而(ér)目前的深(shēn)层网络通常只有几百万个神(shén)经元,层(céng)数不超(chāo)过10,因此深层(céng)网络的规模远(yuǎn)小于人脑。另外,人脑是高度结(jié)构化的,每一个部分执行一(yī)个(gè)特定(dìng)的功能(néng),而且不同(tóng)部分之间会协作,但深层网络在高度结构化方面目前(qián)还没有太多考(kǎo)虑。从(cóng)功能上看,人脑善于处理各种问题,能够(gòu)完(wán)成复杂任务。而当前深层网络的(de)功能单一,基本是用处理识别与分类问(wèn)题,没有综合处理问题的能力。从机(jī)制上看(kàn),人脑的数据(jù)存储(chǔ)与处理(lǐ)机制更为复杂。人脑中的数据(jù)以知(zhī)识(shí)的形式组织起来,存储与应用密切相联,而当(dāng)前(qián)计算机(jī)的数据存储方式远远没有做到这一点。人的(de)感知(zhī)器官并非感知器,而是依靠大量的(de)反馈搜寻有用的信息。另(lìng)外人脑具有知识反馈机(jī)制,在深层网(wǎng)络中并(bìng)未得到体现。而研究(jiū)者(zhě)的研究对象从一(yī)个函数变成了一个过(guò)程,难度骤然增大。
    人脑(nǎo)的学习能力是通过(guò)先天进化和后天学习得到的(de)。先天(tiān)进(jìn)化可(kě)以理解为物(wù)种在长时间(jiān)学(xué)习大量知(zhī)识后(hòu)演变(biàn)得到的结果,后天学习包括对新接触知识的总结与演绎。而深度学习的网络(luò)结构是(shì)由人来设计的,网(wǎng)络参(cān)数是从(cóng)训练数据集中学习得到的。就数据量而言,人脑在先天进化与后天学习中所接(jiē)触的数据(jù)量远大于深层网络。
    深度学习的(de)局(jú)限性:
    随(suí)着大数据的出现(xiàn)和(hé)大规模计算(suàn)能力的提升,深度学习已然成为非常活跃的计算(suàn)机研(yán)究领域。然而,在不(bú)断的研究中,深度学(xué)习的局限性也日益突(tū)显。
    缺乏理论支持(chí),对于深(shēn)度(dù)学(xué)习架构,存(cún)在一系列的疑问:卷积神经网(wǎng)络为什么是一(yī)个好的架构?深度学(xué)习的结(jié)构(gòu)需要多(duō)少隐层?在(zài)一(yī)个大的卷(juàn)积网络中(zhōng)到底需要多少有效的参数?虽(suī)然深(shēn)度学习在很多实际应(yīng)用中取(qǔ)得了突出的成效,但这些问题一直困扰着深度(dù)学习的研究(jiū)人员。深度学习方法常常(cháng)被视为黑盒,大(dà)多数的结论都由经(jīng)验而非理论来确认。不论是为了构建更好的深度学习系统,还是(shì)为了(le)提供更好的解释,深度学(xué)习都需要(yào)更完善(shàn)的理论支撑。
    缺乏短时记忆能力,人(rén)类大脑有惊人的记忆功能,不仅能够(gòu)识别个体(tǐ)案例,也能分析输(shū)入信息之间(jiān)的整体逻(luó)辑序(xù)列。这些信息序列包含有大(dà)量的内容,信息彼此间有着复杂的时(shí)间关联性。例(lì)如在(zài)自(zì)然语(yǔ)言(yán)理解的许(xǔ)多任务(如问答系统)中需要一种方法(fǎ)来(lái)临时存储分(fèn)隔(gé)的片段,正确解释视频中的(de)事(shì)件,并能够回答有关(guān)问题,需要记住(zhù)视频中(zhōng)发生事(shì)件的(de)抽象表示。而(ér)包括递(dì)归神经(jīng)网络在(zài)内的深(shēn)度学习系统,却不能很好地存(cún)储多个时间序列上的记忆(yì)。近年来,研究人员提出了在神经网络(luò)中增加独立的记忆模(mó)块,如长短时记忆(Long Short-Term Memory,LSTM)、记(jì)忆网络(memory networks)、神(shén)经(jīng)图灵机(neural Turing machines)和Stack增强递归神(shén)经(jīng)网络(stack-augmented recurrent neural network),虽然有一定的成果,但仍需扩展更多新思路。
    缺乏执行无监督学习的能力,无监督(dū)学习在人(rén)类和动物的(de)学习(xí)中占(zhàn)据主导(dǎo)地位,我们通过观察能够发现世(shì)界的(de)内在结构,而(ér)不(bú)是被告知每一个客观事(shì)物的名称。虽然无监督学习可以帮助(zhù)特(tè)定的深度网络进行“预训练”,但最终能够应用于实践的绝大部(bù)分深度学习方法都是纯粹的有(yǒu)监督学习。因为(wéi)无标记数据远远多(duō)于标(biāo)记数据(jù),因此无监督学习具(jù)有巨(jù)大的(de)研究潜力。找到合适的无监督学习算法,对深度学习的(de)发展至(zhì)关重要(yào)。


    深(shēn)度(dù)学习未来的发(fā)展方(fāng)向:
    深度学习在人(rén)脸(liǎn)识别、目标检测等领域都取(qǔ)得了(le)很大进展,识别准确率甚至超过人(rén)类,但这并不代表深度学习(xí)的发展已走到尽头。以下(xià)几个方面的研究对(duì)深度(dù)学习的(de)继续发(fā)展具有重(chóng)大(dà)意义。
    1. 开发深度学习的演绎能力:人(rén)类在学习的过程中,除了对已有知识的归纳(nà)总结,还伴随(suí)对(duì)知识的(de)演绎推理,如(rú)对(duì)定理进行(háng)推论等。当前(qián)的深(shēn)度学习还停留在对数据的归纳上。如果深层网络对数据(jù)的归纳能力达到饱和,提升其演(yǎn)绎(yì)推理能力将是深度(dù)学习继续发展的突破口。
    2. 提升(shēng)综合处理问(wèn)题(tí)的能力:当前(qián)的深度(dù)学(xué)习主要用于处理单一问题,但一套模型往往不能通用于多个问(wèn)题(tí),如(rú)人脸识别、语(yǔ)音识别等。但人脑可以实现这(zhè)一功能,比如(rú)视觉(jiào)皮层可以(yǐ)辅助听觉等。因此,提升深(shēn)层网络综合(hé)处(chù)理问题的(de)能(néng)力对(duì)于人工智能的实现具有重(chóng)要意义(yì)。
    3. 减少对硬件的依赖:随(suí)着GPU及高(gāo)性能并行计算的发展,硬(yìng)件设备的(de)数据处理能力得(dé)到巨(jù)大提升。但过度依赖硬件(jiàn)会(huì)造成深(shēn)度学习偏离人的思维,而(ér)陷(xiàn)入计算机思维(wéi)。与计(jì)算机相比,人脑的计算速度(dù)极慢,但功耗(hào)极低,且能够完成(chéng)复(fù)杂的任务。学习(xí)人脑,使(shǐ)用相对弱(ruò)的硬(yìng)件来实现强大的(de)功能,是使深度学习向人工智(zhì)能发展的关键(jiàn)。
    综上所述,深(shēn)度学习通过建立类似(sì)于人脑的分(fèn)层模型结构,对输入数据逐层提取(qǔ)从底(dǐ)层到高(gāo)层的特征,从而(ér)建(jiàn)立从(cóng)底层(céng)信(xìn)号到(dào)高层语(yǔ)义(yì)的(de)映射关系。但在规模(mó)、功能、机制、设计等方面,当前深度学(xué)习所采用的深层(céng)网络与(yǔ)人脑存(cún)在很大(dà)差(chà)异(yì)。虽然(rán)深(shēn)度学习在很多方面取得了巨大成功,但仍存在一些缺陷。当前的深(shēn)度学习框架缺乏理论(lùn)支撑,不能很(hěn)好地存储时间序列上的(de)记忆,缺少对无标记数(shù)据(jù)的学习能(néng)力。这些缺陷限制了(le)深度学(xué)习的(de)进一(yī)步发展。深(shēn)度(dù)学习作为(wéi)计算机科(kē)学(xué)的(de)新兴(xìng)领(lǐng)域,还有很(hěn)长的(de)路要走。深度学习掀起了(le)机(jī)器学习的(de)新浪潮,在(zài)语音图像(xiàng)的智能(néng)识别与理解等方(fāng)面(miàn)取(qǔ)得了很大进(jìn)展。但深度学习(xí)还面(miàn)临(lín)着一系列(liè)难题,在对知(zhī)识的演绎(yì)能力(lì)、对问题的(de)综合处理能力等方面还有很大的提升(shēng)空间,在深层网络的设计规(guī)则上(shàng)也(yě)需要进一步探索。

    关键词:




    AI人工智能网声明(míng):

    凡(fán)资讯来源注明为其(qí)他(tā)媒体(tǐ)来源的信息,均(jun1)为转载自其他媒体,并不代表本网站(zhàn)赞(zàn)同其观点,也不代表本(běn)网(wǎng)站对其真实性负责。您若对该文章内容有任何(hé)疑问或质疑,请立即与网(wǎng)站(www.zhuzhou.jiaxing.zz.pingliang.ww38.viennacitytours.com)联(lián)系,本网站将迅速给您(nín)回应并做处理。


    联系电(diàn)话:021-31666777   新闻(wén)、技(jì)术文(wén)章投稿QQ:3267146135   投稿邮箱:syy@gongboshi.com

    精选资讯更多

    相关资讯更多

    热门搜索

    工(gōng)博士人工智能网
    开云
    扫描(miáo)二维码关注微信
    扫(sǎo)码反馈

    扫一扫,反馈当前页面(miàn)

    咨询反馈
    扫码关注

    微(wēi)信(xìn)公(gōng)众号

    返回顶部

    开云

    开云

    相关信息

    "开云 开云咨询为企业提供一站式企业咨询服务。

    更新时间:2025-07-14 11:17 来源:zhuzhou.jiaxing.zz.pingliang.ww38.viennacitytours.com