人工智能领域,机器学习的难度在哪?

2018-07-25 09:30:25 来源:OFweek电子工程网
标签:

 

人工智能是一门交叉学科,从被提出到现在也有六十多年的历史,目前仍处在AI初级阶段。之所以发展缓慢的一个重要原因是人工智能的技术难度很高,它涉及计算机、心理学、哲学等,对从业者要求很高,目前国内从事AI行业的工程师很多是硕士或以上学位。

 

人工智能技术可应用于安防、医疗、家居、交通、智慧城市等各行各业,其前景是毋庸置疑的,未来绝对是一个万亿级市场。根据应用领域的不同,人工智能研究的技术也不尽相同,目前以机器学习、计算机视觉等成为热门的AI技术方向,本文以机器学习为例,通过分析其关键技术与当前面临的难点,一起探索人工智能的发展与未来。

 

 

机器学习是人工智能的核心

机器学习也被称为人工智能的核心,它主要是研究计算机怎样模拟或实现人类的学习行为以获取新的知识或技能,帮助计算机重新组织已有知识结构使之不断改善自身的性能。

 

被称作人工智能的核心,机器学习为什么这么难于研究?

 

机器学习是人工智能研究的一个分支,人们对机器学习的研究也有很多年了。它的发展过程大体上可分为几个时期,第一是在20世纪50年代中叶到60年代中叶,属于热烈时期;第二是在20世纪60年代中叶至70年代中叶,被称为机器学习的冷静时期;第三是从20世纪70年代中叶至80年代中叶,称为复兴时期;第四阶段的机器学习开始于1986年,目前我们仍处在这个时期。

 

现在很多应用领域都可以看到机器学习的身影,如数据挖掘、自然语言处理、生物特征识别、搜索引擎、医学诊断、证券、游戏、机器人等。

 

学习是一项非常复杂的过程,学习与推理分不开,按照学习中使用推理的多少,机器学习所采用的策略可分为四种:机械学习、传授学习、类比学习和通过事例学习。学习中所用的推理越多,说明系统的能力越强。

 

机器学习的难度在哪?

对于机器学习的开发者而言,除了需要对数学知识掌握得非常熟练之外,选择什么工具也很重要。一方面,机器学习的研究需要创新、实验和坚持,很多人半途而废;另一方面,如何将机器学习模型应用到实际工作中也有难度。

 

除了工程师因素,机器学习的系统设计也有难度。影响学习系统设计的最重要的因素是环境向系统提供的信息,信息质量直接影响系统性能,知识库里存放的是指导执行部分动作的一般原则,但环境向学习系统提供的信息却是各种各样的。

 

如果信息质量高,与一般原则的差别比较小,则机器学习比较容易处理。如果向学习系统提供的是无规律的指令信息,则学习系统需要在获得足够数据之后,删除不必要的细节,总结后才能形成指导动作,并放入知识库;这样机器学习的任务就比较繁重,设计起来也较为困难。

 

被称作人工智能的核心,机器学习为什么这么难于研究?

 

对于机器学习而言,还有一个技术难度就是机器学习的调试很复杂,如在进行常规软件设计时,编写的问题不能按预期工作,可能是算法和实现出现问题;但在机器学习里面,实际的模型和数据是两个关键因素,这两个的随机性非常强,调试难度倍增。除了复杂性,机器学习的调试周期一般都很长,因为机器得到指令进行实施修正和改变通常需要十几个小时甚至几天。

 

谷歌是机器学习的推动者

提到机器学习,就不得不提到谷歌,2017年,它展示了聚焦人工智能的名为张量处理单元(TPU)的芯片,这是一款谷歌打造的处理器,是专为机器学习量身定做的。

 

TPU的特点是执行每个操作所需的晶体管数量更少,自然效率更高,据谷歌介绍,TPU与同期的CPU和GPU相比,可以提供15-30倍的性能提升及30-80倍的效率提升。谷歌表示,它们专门为这款TPU设计了MXU作为矩阵处理器,可以在单个时钟周期内处理数十万次运算。谷歌提到,TPU的核心是脉动阵列,MXU有着与传统CPU、GPU截然不同的架构,称为脉动阵列;“脉动”名字的来源是因为在这种结构中,数据一波一波地流过芯片,与心脏跳动供血的方式类似。

 

机器学习技术助力人工智能

 

被称作人工智能的核心,机器学习为什么这么难于研究?

 

机器学习被提出来也有一段时间了,但是发展并不是非常快速,其中有自身的技术难度等原因。目前尽管机器学习面临着很多技术问题去解决,但人工智能的发展和突破是绕不开它的,以谷歌为代表的企业为行业树立了一个榜样,笔者相信未来会有更多的企业加入到机器学习的研究之中,去推动机器学习,助力人工智能。

 
关注与非网微信 ( ee-focus )
限量版产业观察、行业动态、技术大餐每日推荐
享受快时代的精品慢阅读
 

 

继续阅读
从FPGA到ACAP,“万能芯片” 的华丽转身
从FPGA到ACAP,“万能芯片” 的华丽转身

FPGA被誉为“万能芯片”,能量就只有这么一点?当然不是的,目前FPGA在数据中心领域已经得到认可,加速卡解决方案成为数据中心的首选。而人工智能通过深度学习算法在认知智能和推理智能上遇到难题,擅长推理的FPGA被寄予厚望。

《深度强化学习》手稿开放

一年前,机器之心发布了加拿大阿尔伯塔大学计算机系博士 Yuxi Li 的深度强化学习综述论文,该论文概述了在深度强化学习(Deep Reinforcement Learning)方面喜人的进展。而这本刚上线的《深度强化学习》手稿对前面的版本《深度强化学习综述》做了大规模的改进;从一年多前的 70 页扩充到现在的 150 页。

天数智芯购买Arteris IP FlexNoC®互联IP产品 用于人工智能(AI)应用

美国加利福尼亚州坎贝尔2018年10月16日消息—得到硅验证的创新片上网络互连知识产权(IP)产品的全球领先供应商Arteris IP,今天宣布天数智芯(Iluvatar CoreX)公司已经购买Arteris IP FlexNoC互连产品,用于深度学习系统级芯片(SoC)。

恩智浦引领边缘设备机器学习

借助恩智浦面向重点应用领域推出的eIQ边缘智能软件环境和可自定义的系统级解决方案,边缘节点开发人员如今可利用数学升级来推动云上机器学习(ML)的历史性发展。

我国人工智能领域蓬勃发展,发明专利稳步增长

近日,国家知识产权局发布了《2017年我国人工智能领域主要统计数据报告》(下称《报告》)。根据统计,2017年中国人工智能发明专利申请公开量和发明专利授权量分别达到4.6284万件和1.7477万件。

更多资讯
GICv3架构中,对中断的分组解析

GICv3架构中,对中断进行了分组。分成了以下三个组

想要学好大数据需掌握这十二大技术

大数据是对海量数据进行存储、计算、统计、分析处理的一系列处理手段,处理的数据量通常是TB级,甚至是PB或EB级的数据,这是传统数据处理手段所无法完成的,其涉及的技术有分布式计算、高并发处理、高可用处理、集群、实时性计算等,汇集了当前IT领域热门流行的IT技术。

基于SRAM工艺FPGA的保密性问题

在现代电子系统设计中,由于可编程逻辑器件的卓越性能、灵活方便的可升级特性,而得到了广泛的应用。

如果使用FPGA配合DSP来提升安全能力?

对于基于数字信号处理器(DSP)的设计,如果DSP没有足够的安全能力,便特别容易受到入侵。在许多应用中,如果使用FPGA以作配合来卸载DSP的部分工作,便可以轻易实施先进的安全功能。

详细分析CORDIC算法的原理及其FPGA实现方法

在无线电接收机系统中,由于会受到发射机运动、接收机运动和标准频率随时间动态变化等因素的影响,其接收机接收信号往往会发生频率偏移,因而需要进行频偏校正。在扩频通信系统中,频偏校正电路能消除中频偏移对接收机扩频码的捕获以及数据解调性能的影响,从而提高接收机的性能。

Moore8直播课堂