只听过AI你就落伍了,一篇文章让你秒懂人工智能的承先启后-斯马特物联网SMART IoT
只听过AI你就落伍了,一篇文章让你秒懂人工智能的承先启后
2018-03-01 15:41:27

   大家还记得之前打败世界棋王的Google AlphaGo吗,以及现在非常火红的精准医疗和翻译机器人吗?近年来我们时常在报章媒体上听到所谓的"人工智能",都容易让我们直接连想到电影情节,不管是“AI人工智能”或是“黑客任务”里被机器人统治的场景,彷佛人工智能的浪潮,正在我们对机器人的殷殷期盼下,席卷而来。在各大企业的2018目标里,不管是Google、Facebook、微软或是百度等,我们也可以发现各巨头纷纷也在人工智能的领域里充当领头羊,担任了研发担当的角色,也在告诉我们人工智能已经不再是憧憬,而是趋势。

2-1P206115039120.jpg


  但人工智能是什么呢?跟我们先前提到的机器学习有什么不同。

  首先我们必须从“智慧”这个名词来做一点讲究?假设我们现在跟自动聊天机器人来聊天,而他可以准确的回答我们的问题,例如下雨天他会提醒我们要带伞,或是可以跟我们稍稍的打情骂俏,像Siri一样,这样的计算机可以称做"人工智能"吗?以本质上来说,他真的拥有智慧了吗?过去这是许多哲学家在讨论的问题,于是美国哲学家约翰.瑟尔(John Searle)便提出了“强人工智能”(Strong A.I.)和“弱人工智能”(Weak A.I.)的分类。

  强人工智能就像电影里面描绘的场景,让计算机或是机器人拥有自主判断的能力外,更多了情感、个性、社交等等的自我人格意识,例如复仇者联盟的幻视,就是一个超强人工智能的例子;而弱人工智能就是可以仿真人类的行为做出判断和决策。但过去因为受限于数据量、运算能力还有储存空间不足的问题,所以强人工智能一值无法顺利发展起来,但由于近15年来因为硬件储存成本的下降、加上运算能力增强及扩充,以及拥有大量的数据能做处理,才让属于若人工智能的"机器学习"可以兴起。

  机器学习主要的用途:利用大数据来训练"机器"可以对事件的判断做出"预测",所以会有五大要素

  1.获取数据:机器学习必须先收集大量的数据来对机器进行训练。

  2.分析数据:找出数据的关联性,也就是变量,例如降雨和湿度。

  3.建立模型:透过数据的关联性做出模型,有点类似人脑的经验,例如降雨之后湿度会上升。

  4.预测未来:为来可将新的数据输入模型后,就可以得到补助决策,例如明天降雨,那智慧家电会直接开除湿机。

  5.修正预测:透过不断增生的新数据来修正模型内的参数

  简单来说,从大量的数据数据里,结合统计模型来对未来事件做出预测,正式目前机器学习领域里,重要的发展方向,举凡像是Gmail的自动过滤垃圾邮件、Who's Call的自动过滤骚扰电话等等,这些都已经反应到"弱人工智能"在我们现在的社会里,的确是可实现的。

  但除了机器学习之外,想必最近大家还听过一个名词叫做"深度学习"吧,那他又是什么呢

  假如机器学习是人工智能的其中一个分歧,那深度学习也可以说是机器学习中的一条支线了。像是大家熟悉的AlphaGo,正式用这样的方式来发展人工智能。

  早期机器学习的领域中有一条分支叫做"类神经网络"。就像大脑可以拥有需多神经一样,去做不同的树状分支,而人工神经就是利用这样的思维来做思考,你可以想象把一张图切成碎片,并输入到神经网络的第一层,接下来第一层的独立神经原做出导读与判断后接续传递到第二层、以此类推到最后一层来产出结果,而其中每一层的判断都会有一个权重来评估决策,并透过权重的总值来产出结果,后来这也被称做为现在家喻户晓的“深度学习”。

  举例来说,像雅量里面提到的,假设我们今天拿到了一张图去做类神经分析,那他会去拆解里面所有的图像特征,并用神经元来确认每一个形状、字母、符号、尺寸等等,透过权重跟高度训练的推测,可以让系统有87分得把握来推断他是一张稿纸、剩下13分的机率来推测他是一块绿豆糕,最后透过网络把正确的结果回传给神经网络做修正。

  当然过程中会出现大量的错误答案,但这也是一个绝佳的训练机会,透过成千上万,数以百万计的图像去做校正,来校正每一个神经元的输入权重,不断的滚动来取得精准的正确答案,让图片仅管刮风下雨、打雷起雾、或是马赛克等等,都可以明确的辨认图片里的绿色物体,到底是稿纸还是绿豆糕。

  其中最有名的就是2012年,吴恩达在Google所制作的猫图测试,他在研究上的突破在于从根本上使用这些神经网络,增加了层数和神经元的数量,使神经系统变得更庞大,然后通过系统运行海量数据来训练,据说他可是使用了一千万支YouTube的影片图像,将数据的“深度”也一并运用在深度学习里,来取得更精准的答案,让系统可以透过自行判断来评判这张图到底是不是猫,据说准确度可是已经超越了人眼的判断了。

  当然这些硬用上除了在判断是不是猫咪之外,还有一些实质上的应用,例如磁共振成像扫描中的肿瘤指针,来确认影像内的物体到底是不是肿瘤,或是Google的AlphaGo学习围棋游戏游戏,并且反复跟自己比赛来调整神经网络的比重,训练它进行围棋比赛,让每一步棋下得更为精准,这些都是实际上深度学习的应用。

  仅管现在把这样的理论可以轻描淡写的叙述,但在资源较匮乏的过去十年前,不论是硬件或是资源上,都无法去做这样大量的计算数据,其中一个主因是因为大家都习惯把计算丢给计算机的CPU去做处理,但这样透过加权分析的复杂计算,会用到大量的矩阵,而显卡中的GPU才是最适合大量处理矩阵运算的硬件,但过去GPU不像CPU拥有编译程序(Compiler)这样的设计。

  而突破性的发展就是NVIDIA在2006–2007年间推出全新运算架构CUDA,让用户可以撰写C语言、再透过CUDA底层架构转译成GPU看得懂的语言。这不仅让NVIDIA身价水涨船高,也成为了现在深度学习运算中必用硬件的关键。

  所以别再讲人工智能啦,先搞懂机器学习和深度学习的奥妙之后,才发现现在我们生活中,其实已经充满了不少人工智能在做生活上的支持决策啰,也许在不久的将来里,强人工智能的发展已经指日可待了。

免费试用斯马特物联卡

我们深知您的时间宝贵,让我们的资深技术顾问通过讲解,来帮助您更高效地评估和使用吧。请留下联系方式,我们会尽快联系您。


   行业类型:      
* 公司全称:      
* 联系姓名:      
* 联系电话:      
* 联系邮箱:      
   职务信息: