名朋电脑资讯网 cpu 人工智能的原理是什么?

人工智能的原理是什么?

谢邀! 在回复《人类与AI(人工智能)如何相处?( )》中谈了在面对拥有自我意识的机器人,人类该如何与之相处?…

谢邀!

在回复《人类与AI(人工智能)如何相处?( )》中谈了在面对拥有自我意识的机器人,人类该如何与之相处?又该遵从哪些伦理道德?接下来,借着回复此问题,向大家介绍一下AI的三大核心要素(也是AI的三大基石)——数据、算力和算法。

数据是AI算法的“饲料”

在如今这个时代,无时无刻不在产生数据(包括语音、文本、影像等等),AI产业的飞速发展,也萌生了大量垂直领域的数据需求。在AI技术当中,数据相当于AI算法的“饲料”。机器学习中的监督学习(Supervised Learning)和半监督学习(Semi-supervised Learning)都要用标注好的数据进行训练(由此催生大量数据标注公司,对未经处理的初级数据进行加工处理, 并转换为机器可识别信息),只有经过大量的训练,覆盖尽可能多的各种场景才能得到一个良好的模型。

,数据标注是AI的上游基础产业,以人工标注为主,机器标注为辅。最常见的数据标注类型有五种:属性标注(给目标对象打标签)、框选标注(框选出要识别的对象)、轮廓标注(比框选标注更加具体,边缘更加精确)、描点标注(标注出目标对象上细致的特征点)、其他标注(除以上标注外的数据标注类型)。AI算法需要通过数据训练不断完善,而数据标注是大部分AI算法得以有效运行的关键环节。

算法是AI的背后“推手”

AI算法是数据驱动型算法,是AI背后的推动力量。

主流的算法主要分为传统的机器学习算法和神经网络算法,目前神经网络算法因为深度学习(源于人工神经网络的研究,特点是试图模仿大脑的神经元之间传递和处理信息的模式)的快速发展而达到了高潮。

南京大学计算机系主任、人工智能学院院长周志华教授认为,今天“AI热潮”的出现主要由于机器学习,尤其是机器学习中的深度学习技术取得了巨大进展,并在大数据和大算力的支持下发挥巨大的威力。

当前最具代表性深度学习算法模型有深度神经网络(Deep Neural Network,简称DNN)、循环神经网络(Recurrent Neural Network,简称RNN)、卷积神经网络(Convolutional Neural Network,简称CNN)。谈到深度学习,DNN和RNN就是深度学习的基础。DNN内部的神经网络层可以分为三类,输入层,隐藏层和输出层, 一般来说第一层是输入层,最后一层是输出层,而中间的层数都是隐藏层。DNN可以理解为有很多隐藏层的神经网络,是非常庞大的系统,训练出来需要很多数据、很强的算力进行支撑。

算力是基础设施

AI算法模型对于算力的巨大需求,推动了今天芯片业的发展。据OpenAI测算,2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍,目前计算量已扩大30万倍,远超算力增长速度。

在AI技术当中,算力是算法和数据的基础设施,支撑着算法和数据,进而影响着AI的发展,算力的大小代表着对数据处理能力的强弱。算力源于芯片,通过基础软件的有效组织,最终释放到终端应用上,作为算力的关键基础,AI芯片的性能决定着AI产业的发展。

加快补齐AI芯片短板

从技术架构来看,AI芯片可以分为四大类:通用性芯片(GPU,特点是具备通用性、性能高、功耗高)、半定制化芯片(FPGA,特点是可编程、功耗和通用性一般)、全定制化芯片(ASIC,特点是不能扩展、性能稳定、功耗可控)和类脑芯片(特点是功耗低、响应速度快)。

AI本质上是使用人工神经网络对人脑进行的模拟,旨在替代人们大脑中的生物神经网络。由于每个任务对芯片的要求不同,所以可以使用不同的AI芯片进行训练和推理。

在过去二十年当中,处理器性能以每年大约55%的速度提升,内存性能的提升速度每年只有10%左右,存储速度严重滞后于处理器的计算速度。随着AI技术的发展,所需数据量变得越来越大,计算量越来越多,“内存墙”(指内存性能严重限制CPU性能发挥的现象)的问题越来越严重。因此,存算一体(将部分或全部的计算移到存储中,计算单元和存储单元集成在同一个芯片,在存储单元内完成运算)有望成为解决芯片性能瓶颈及提升效能比的有效技术手段。

目前,数据中心中核心算力芯片各类通用的GPU占主导地位。IDC的研究指出,2020年,中国的GPU服务器占据95%左右的市场份额,是数据中心AI加速方案的首选。但IDC也做出预测,到2024年,其他类型加速芯片的市场份额将快速发展,AI芯片市场呈现多元化发展趋势。

近些年来,我国AI虽然取得了不少的突破和进展(例如小i机器人主导了全球第一个AI情感计算的国际标准),并在国际上具备一定的竞争力,但AI芯片对外依赖较大(根据赛迪智库人工智能产业形势分析课题组研究指出,国内AI芯片厂商需要大量依靠高通、英伟达、AMD等国际巨头供货),并缺乏AI框架技术(深度学习主流框架TensorFlow、Caffe等均为美国企业或机构掌握)的支撑。

未来人们对科技的依赖会与日俱增,AI也将会成为大国竞争的焦点。为摆脱我国AI的短板,有专家表示AI芯片方面我国可以借鉴开源软件成功经验,降低创新门槛,提高企业自主能力,发展国产开源芯片;算法框架方面则可通过开源形成广泛的应用生态,广泛支持不同类型的AI芯片、硬件设备、应用等。

算法、算力、数据作为AI核心三要素,相互影响,相互支撑,在不同行业中形成了不一样的产业形态,随着算法的创新、算力的增强、数据资源的累积,传统基础设施将借此东风实现智能化升级,并有望推动经济发展全要素的智能化革新,让人类社会从信息化进入智能化。

最后,再顺便打个小广告,“陈思进财经漫画”系列第一部《漫画生活中的财经》新鲜出炉,谢谢关注!

你对这个问题有什么更好的意见吗?欢迎在下方留言讨论!

人工智能是一门学科,不是单一的某个机器或者设备,这里说它的原理是不恰当的。不过我们可以以非常简单容易理解的表达,说一下人工智能是怎么样是实现智能化的。由于人工智能系统庞杂分支较多,我们主要说一下它的核心组成部分机器学习是怎么实现的。就字面意思去理解,机器学习难道就是机器自己学习某个技能吗?确实如此!机器是可以和人类一样自己去学习的,然后具备一些功能在服务人类。那么我们就看一下它是如何学习的。

人工智能中机器学习的通俗解释自从计算机问世以来我们要和计算机进行交流,帮助我们做事就必须用编程语言告诉它该怎么做。主要的步骤就是我们给电脑输入规则和需要按规则处理的数据,这些数据再通过程序(规则)设计处理,系统最后得到想要的答案这就是一个完成的处理过程。

我们可以看出来这样是个死板的,当遇到下一个问题的时候电脑就不会自己处理了。而机器学习就完全不一样,人类输入的是规则和从这规则中预期得到的答案,通过机器学习系统就能自己知道规则。如下图:

比如我们给机器一张猫的图片,并告诉电脑这样的是猫,这样经过无数次无数张图片的输入电脑就知道这样子的是猫,这个过程也叫做机器学习模型的训练,训练的次数越多,这个机器识别能力就越强。

我们可以通过理解人类的学习去知道机器是如何学习的人类的学习是通过遇到新的问题和对这个问题的处理得到经验,并且对这些经验进行归纳总结。这样不但可以解决以后遇到的问题而且可以预测未来,并且你经历的越多遇到的问题越多你就成长的越快,能力也就越强。

所以机器的学习也是一样的,我们通过不断的数据输入来给它新的问题,通过对这些问题的处理就会得到所谓的经验作为历史数据进行存储,再通过海量数据对模型的训练。通过大量训练以后不但能够解决越到的问题,而且还可以预测人类的要求根据需求提供服务。

根据下图去理解

所以人工智能是通过学习变得越来越聪明的,而不是由程序一步一步的设定出来的。它的智能程度代表你的模型训练程度,目前人工智能还有还存在很多的不足,还得完善,期待出现新的理论!

本文来自网络,不代表名朋电脑资讯网立场,转载请注明出处:http://www.mp736.cn/cpu/141156/

作者: yyzn_admin

发表评论

邮箱地址不会被公开。 必填项已用*标注

联系我们

联系我们

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部