人工智能究竟能干啥?

  • 来源:千龙网
  • 2016-03-23
        李世石和阿尔法狗(AlphaGo)之间的“人机围棋大战”,使人工智能一下子成为人们关注的焦点。虽然在这场比赛开始之前,大部分人坚定不移地相信人会战胜机器,但最终阿尔法狗胜出的结局却逼迫人们开始反思。事实上,虽然现在说人类已经进入人工智能时代这句话还有些早,但是在计算机处理能力不断提升、互联网飞速发展、云计算全面兴起的今天,人工智能技术已经取得了诸多突破,在我们生活中的很多领域得到了应用。换言之,目前我们青睐或者期待的那些方便快捷的应用和服务背后,其实就有人工智能的影子。下面,就来看看这些已经在我们身边的人工智能吧……

       无人驾驶汽车

       虽然没有人类的感情,但这并不妨碍人工智能为我们分担一些生活中的事情,比如开汽车。
 
       很多人认为,自动驾驶汽车是汽车工业和人工智能的集大成者。日常生活中,直觉和驾驶经验让人觉得无人驾驶不可思议。然而如果以人工智能的视角看待无人驾驶,将无人驾驶汽车看做是一台轮式智能机器人,这个机器人凭借探测器作为“精确的眼睛”、以深度学习为基础的人工智能作为“聪明果断的大脑”,从而实现快速移动,就不难理解无人驾驶汽车的出现了。
 
       谷歌凭借人工智能算法和大数据的结合,为智能汽车控制决策提供帮助,在无人驾驶领域已占有一席之地。不需要人类帮助它就能完成启动、行驶、停车等各种动作。驾驶汽车最重要的就是观察路况,从而根据各种情况做出合理的选择。谷歌无人驾驶汽车是通过什么来“看”的呢?据介绍,在谷歌的测试车辆上都配备有照相机、雷达感应器、激光测距机等智能设备,通过复杂的计算,就能辨别各种障碍并合理避让。而借助定位、导航等技术,则可以帮助无人驾驶汽车按照设定的路线行驶而不至于迷路。目前,谷歌汽车正在美国加州、内华达州等地进行测试,据说行驶里程已经达到了数十万公里。在内华达州,无人驾驶汽车甚至已经获得了一张合法的车牌。
 
       不仅互联网高科技企业对自动驾驶饶有兴趣,奥迪、奔驰、福特、丰田、起亚等国际汽车巨头也纷纷发布自动驾驶新车型或关键技术。其中,奔驰发布了自动驾驶汽车E200和E300并表示将在两年内推出,而现代起亚则表示到2018年计划投资20亿美元发展ADAS(高级驾驶辅助系统)技术。相信在各方的努力下,不久的将来我们便能享受到自动驾驶的乐趣!
 
       “懂你”的房间

       智能家居的兴起,已经为人们的生活带来了更多便利。现在,伴随着人工智能的引入,采用了深度学习算法的房屋将会变得越来越“懂你”——你所居住的房屋,会在你早上起床时将窗帘自动拉起,在你晚上睡觉时自动拉上;如果房屋推测你夜里需要起床喝水,它就会自动打开夜灯;它还会知道当你在周末与朋友举办了一个好玩的Party之后,精疲力尽的你第二天需要晚些起床,所以它会晚些时候拉开窗帘……
 
       客观来看,当前的智能家居应用还主要停留在自动控制层面,人们可以通过一个终端远程或者近程控制家中所有的联网终端。而人工智能的到来,则让房屋变成了你的贴心“保姆”,为你提供周到、细致的服务,你根本用不着“发号施令”了。事实上,这并非想象,而是正在变为现实。一家名为Brain of Things的新创公司近日宣布,他们正在美国加利福尼亚建设三个公寓式的“机器人之家”。“机器人之家”装满了传感器和自动装置,而服务器不仅收集数据,而且具备了学习能力,通过机器学习算法能够了解、学习住户的喜好,最终构建起住户的行为模型,并适时地向房间里的联网设备发出指令,如空调、电视、窗帘、热水器、灯具等等。
 
        会学习的房屋,也许在未来本身就是一个“机器人”。正如Brain of Things创始人艾苏托什·塞克西纳所说:“(住户)在看电影、睡觉或不管做什么,房屋都知道。他们围着房屋行走,房屋也能跟踪他们的行动,知道很多东西。”
 
       “机器人之家”作为一个高科技的产物,自然会提升房屋的价值。据悉,“机器人之家”相对于普通公寓而言,每个月的房租提高了125美元,同时房屋居住者每月还需额外付出30美元的安装维护费。
 
       看不见的“翻译官”
       AlphaGo战胜李世石,是基于人工智能的增强技术和深度学习技术。该技术利用大量的数据来训练神经网络,从而对新数据做出预测行为。谷歌旗下的多款产品例如地图、照片、邮箱等,都开始利用这种技术增强用户体验。据最新消息,谷歌翻译也将引入这种技术。有理由相信,引入深度学习技术的机器翻译软件,有望达到人工翻译的水准。
 
       一直以来,掌握语言系统是人类能够身为高等生物的重要技能。尽管有各种各样的翻译软件,但翻译效果仍然非常有限,而且经常会闹出一些笑话。尤其是“全文翻译”功能,不要说准确率能不能达到100%,很多时候离开了特定的语境,翻译出来的内容简直“谬以千里”。
 
       Google翻译尝试在部分功能上使用深度学习技术,例如利用摄像头即时取词翻译,这相当于同声传译。
 
       谷歌公司相关负责人近期表示,他们将把深度学习融入Google翻译之中,“具体来说就是要把Google大脑融入到Google翻译之中。我认为未来将能够取得一些实质性的突破。”深度学习技术的融入将大幅提升翻译的准确度,基于神经网络进行翻译将能够使之变得更加精确。
 
       在国内,百度也发布了基于融合统计和深度学习方法的在线翻译系统。该系统借助海量计算机模拟的神经元,模仿人脑“理解语言,生成译文”。这种翻译方法最大的优势是译文流畅,更符合语法规范,易于理解。有意思的是,这个系统并不是一开始就具备强大大脑,而是像刚出生的婴儿一样通过学习大量双语对照的句子,逐渐提升翻译水平。百度挖掘了海量的双语句子作为系统的“教材”。看来,人工智能也要“从娃娃抓起”。
 
       写稿机器人

       人工智能取代人类的担忧也出现在新闻业。近日,韩国《金融新闻》编辑部正式启用了一名人工智能记者。据悉,这名智能记者在每天股市收盘时,基于韩国证券交易所的数据只需0.3秒就可以写出一篇股市行情的新闻报道,而对于这样的文章,一半以上的读者看后都表示分不清到底是人写的还是机器人写的。
 
        事实上,机器人写稿早就被一些新闻机构采用过。2015年8月,《纽约时报》数字部门的科学团队研发出了机器人Blossomblot,《纽约时报》在财报季、运动比赛报道的时候使用机器人来写稿,从而大大减轻了人工编辑的劳动。此外,Blossomblot还能够基于社交网络筛选海量文章,判断哪些内容更具有社交推广效应,帮助编辑挑选出适合推送的文章和图片集。
 
       2015年9月,腾讯财经推出的Dreamwriter自动化新闻写作机器人,它用一分钟的时间完成了编辑生涯的第一篇报道。随后,新华社也上线了写稿机器人“快笔小新 ”。“快笔小新”供职于新华社体育部、 经济 信息部和中国证券报,主要完成有关体育赛事的中英文稿件和财经信息稿件。
 
       写稿机器人不仅写稿快、费用低,还大大节省了编辑和记者的劳动。可是这样一来,记者和编辑的饭碗岂不是要丢了?对此,已经采用写稿机器人的媒体表示,采用写稿机器人是为了将记者、编辑从一些简单重复的劳动中解放出来,有时间去做调查和分析,向深度记者转型,把机器能做的交给机器,让人去做更有意义的事。
 
       “千里眼”+“顺风耳”
 
       “千里眼”和“顺风耳”是中国传统文化中的“超能力”。在可以预见的将来,人类自身不可能进化出这种“超能力”,但是人工智能可以,而且也许并不需要多长时间。
 
       有消息称,谷歌已经开发出一款新的人工智能系统PlaNet,它能快速识别出一张照片是在哪里拍摄的。
 
       这一人工智能同样是基于深度学习系统。该系统学习了超过9000万张带地理位置标签的照片,从而可以基于记忆库进行位置识别。从原理上,系统把照片分解为像素,并把这些像素与记忆库中的信息进行交叉比对。
 
       在测试中, PlaNet识别了230万张照片,识别照片拍摄地大洲的准确率为48%,确认拍摄地国家的准确率为28.4%。从数字上看并不惊人,但根据数据统计,PlaNet的表现已经稍好于人类,而且人脑记忆容量有限,但是PlaNet的能力还有提升空间。
 
       李彦宏曾断言,“未来5~10年是中国人工智能发展的黄金时间,过去是学术讨论,今后逐渐进入商用。”百度在人工智能领域也是大力布局,其中在语音识别方面取得了一些突破。
 
       百度相关负责人曾表示,百度语音识别率已经达到95%,如果能够达到99%的识别率,在实际场景运用中的用户体验与95%相比将有天壤之别。
 
       百度的语音识别,能够将输入的声频信号解码为自然的语言。这种识别不是简单的关键词搜索和匹配,而是能够对一些口语化的表达进行理解。这种人工智能依靠深度学习技术对语法、语义、语境进行判断和推理,并利用大数据进行验证。
 
       基于高级语音识别的百度语音搜索,还集成了语义理解、多轮理解、信息匹配、语言生成、语音合成、情感表达,可以说已经具备了初级的沟通能力。而且,如果少量词语没听清楚,百度语音搜索还能够在大数据的支持下“猜”出用户的原意并进行补充,可以说具备了“类人”的智慧。
 
       绘画创作
 
       人可以画画,那么随着人工智能的发展,机器会画画也是一种必然。
 
       不久前,一场特殊的画作拍卖会引得业界关注。在这场拍卖会上,10位艺术家的29幅画作亮相,筹集到万余美元。事实上,无论是从画作的数量还是拍卖的金额上看,这场拍卖会都实在是太一般,但是与其他拍卖会最大的不同是,这些画作全部是借助人工智能技术创作的。
 
       2015年,谷歌推出了一款可以创作画作的开源的人工智能算法——深度梦境(DeepDream),它一经推出就受到了程序员和艺术家的关注。从工作原理上看,“深度梦境”具备多层的数据网络,使用者在输入一张照片后,可以选择其中的某一层数据网络对图像进行重复或者变形等处理。虽然有评论认为“深度梦境”的画风偏向野兽派,画作中出现了狗的眼睛等元素,不过作为一款人工智能的工具,能够创作出这样的作品已经是巨大的突破。
 
       除了谷歌,还有一些公司也在推进人工智能在绘画领域的应用。德国科学家在研究中发现,用深度学习算法可以让人工智能系统学习梵高、莫奈等世界著名画家的画风,从而创作出全新的“人工智能世界名画”。实际上,这就是让人工智能系统具备高感知质量的绘画模仿能力,这套系统采用神经表征分离与重组的内容和任意图像风格,提供神经创造艺术形象的算法。同时,通过在光性能优化的人工神经网络之间进行生物视觉对比,让人工智能可以理解人类创建的艺术形象并进行模仿。
 
       试想一下,如果未来人们只需要借助人工智能技术就能够创作出世界名画,那么人人都将成为画家,不过收藏界估计就要乱套了。
声明:本站部分内容来源于合作媒体、企业机构、网友提供和互联网的公开资料等,仅供参考。讯媒对站内所有资讯的内容、观点保持中立,不对内容的准确性、可靠性或完整性提供任何明示或暗示的保证。如果有侵权等问题,请及时联系我们,我们将在收到通知后第一时间妥善处理该部分内容。

相关评论

在线客服
微信扫一扫
返回顶部