语音助手=人工智能 机器人和你聊天是怎么做到的


语音助手=人工智能 机器人和你聊天是怎么做到的

文章插图
大家好,小动来为大家解答以上问题 。机器人和你聊天是怎么做到的,语音助手=人工智能很多人还不知道,现在让我们一起来看看吧!
1、导读:让机器理解人类语言,或者说模仿人类语言 , 是每个人对人工智能最初的幻想,所以在早期,图灵测试一度成为评判人工智能的标准 。对话和翻译是自然语言处理(NLP)在人工智能许多分支中的应用 , 旨在解决人与机器之间的交流问题 。它是人工智能处理的起源,仍然面临许多问题 。
2、赢了柯洁的AlphaGo,让很多人看到了AI过于强大的一面,但生活中我们大多数人感受到的AI却非常“智障”,并不具备人工智能应有的样子 。
3、这种巨大的反差,主要是因为在很长一段时间内,可以应用于生活的人工智能还处于早期阶段 。
4、比如语音助手 。
5、但是对话和翻译其实是人工智能介入最早的领域 。
6、让机器理解人类语言或者模仿人类语言是每个人对人工智能最初的幻想,所以在早期,图灵测试一度成为评判人工智能的标准 。
7、对话和翻译是自然语言处理(NLP)在人工智能许多分支中的应用 , 旨在解决人与机器之间的交流问题 。它是人工智能处理的起源 , 仍然面临许多问题 。
8、以对话系统为例 。市面上各大巨头都推出了自己的智能语音助手 , 但能完全摆脱“智障”嫌疑的却寥寥无几 。
9、可以说,在这条赛道上,谁都跑不快 。但是它还是一直在运行,就连长期卡在手机里的Siri也要推出自己的智能音箱了 。
10、“虽然目前的情况不是很乐观 , 但是坚持跑下去,总会看到成效的 。”6月1日,微软亚洲研究院副院长周明表示,自然语言处理如果坚持5-10年,会有很大的发展 。
11、周明博士认为 , 自然语言处理的发展有三个阶段:
12、第一层是基础技术:分词、词性标注、语义分析等 。
13、第二层是核心技术:词汇、短语、句子、篇章的表达 。包括机器翻译、问答、信息检索、信息抽取、聊天对话、知识工程、语言生成和推荐系统 。
14、第三层是“NLP”:模仿“人工智能”或“互联网”的概念,实际上是将自然语言处理技术渗透到各种应用系统和垂直领域 。比较有名的是搜索引擎、智能客服、商业智能、语音助手,——法律、医疗、教育等方面的垂直领域应用比较多 。
15、关于第三层的“NLP” , 市面上有很多大大小小的语音助手 。其中两人毕业于微软:小娜和萧冰 。虽然都是语音助手 , 但是两者还是有一些区别的 。
16、通过小娜的手机和智能设备,人们可以与计算机交流:用户下达命令 , 小娜理解并执行任务 。同时 , 小娜可以记住一些用户的性格特征、喜好和习惯,然后主动给出一些贴心的提示 。
17、比如你以前路过某个地方买牛奶 。下次路过的时候,她会提醒你,问你要不要买 。她过去从被动应用到主动应用,从最初的手机到微软所有的产品,比如Xbox , Windows 。
18、萧冰只是在聊天 。他不想帮你解决任何问题 。他聊天的主要目的就是尽可能的“人” 。
19、“这是一个新的想法,很多人一开始并不理解 。
20、而小冰最开始是怎么学习聊天的?主要是跟网友学的 。
21、首先将网上的论坛、微博或是网站里出现过的对话句子抽取出来,当成训练语料库 。当用户输入一个句子时,系统会从语料库里找到一个跟这个句子最相像的句子,而这个句子对应的答复就可以直接输出作为电脑的回复 。虽然看起来简单粗暴,但确实奏效 。
22、有的时候,系统找到的句子可能对应了很多回复,它不知道哪个回复最适合当前的输入语句 。这时就会再有一个匹配的过程,去判断输入语句跟语料库里的回复在语义上是相关的或者是一致的 。
23、到目前 , 小冰已经覆盖了三种语言:中文、日文、英文,累积了上亿用户 , 平均聊天的回数23轮,平时聊天时长大概是25分钟左右 。
24、目前取得的自然语言方面的成果,是微软18年的努力 。
25、微软在1998年11月5日成立微软亚洲研究院时就开创了自然语言处理的研究领域,除了200多篇顶级期刊、学术大会的论文,还有大量的NLP人才 。
26、2014年5月,微软推出小冰,同年7月 , 推出Cortana 。
27、2016年,微软首席执行官萨提亚在Build大会上提出了一个概念“对话即平台”(“Conversation as a Platform”,他认为图形界面的下一代就是对话,它会对整个人工智能、计算机设备带来一场新的革命 。
28、而小冰和小娜就是微软为这场革命做出的准备之一 。
29、其实无论小冰这种闲聊 , 还是小娜这种注重任务执行的技术,背后单元处理引擎无外乎就三层技术 。
30、第一层:通用聊天 , 需要掌握沟通技巧、通用聊天数据、主题聊天数据,还要知道用户画像,投其所好 。
31、第二层:信息服务和问答 , 需要搜索的能力,问答的能力 , 还需要对常见问题表进行收集、整理和搜索 , 从知识图表、文档和图表中找出相应信息,并且回答问题,这些统称为Info Bot 。
32、第三层:面向特定任务的对话能力,例如订咖啡、订花、买火车票,任务是固定的,状态也是固定的,状态转移也是清晰的 , 就可以用Bot一个一个实现 。通过一个调度系统,通过用户的意图调用相应的Bot 执行相应的任务 。它用到的技术就是对用户意图的理解,对话的管理 , 领域知识,对话图谱等 。
33、除了创造出小娜小冰,微软还要技术释放,让开发者能开发自己的Bot 。如果开发者的机器不懂自然语言,这时就可以通过一个叫Bot Framework的工具来实现 。
34、任何一个开发者只用几行代码 , 就可以通过Bot Framework完成自己所需要的Bot 。比如,有人想做一个送披萨外卖的Bot , 可以用Bot Framework填入相应的知识、相应的数据,就可以实现一个简单的Bot 。很多没有开发能力的小业主,通过简单操作,就可以做一个小Bot吸引来很多客户 。
35、在这个开源平台里有很多关键技术 。微软有一个叫做LUIS(Language Understanding Intelligent Service)的服务,提供了用户的意图理解能力、实体识别能力、对话的管理能力等等 。
36、比如说这句话“read me the headlines”,识别的结果就是朗读,内容就是今天的头条新闻 。再比如说“Pause for 5 minutes” , 识别的结果是暂停,暂停多长时间?有一个参数:5分钟 。通过LUIS,可以把意图和重要的信息抽取出来,让Bot来读取 。
37、这些对于人类来说甚至不需要动脑思考的对话,对于机器来说是难到了另一个层次上 。
38、周明博士认为人工智能有四个层次,从下往上依次是:运算智能、感知智能、认知智能和创造智能 。
39、运算智能已经达到很高的水平了,感受一下来自世界顶级围棋选手对AlphaGo的评价 。
40、其次是感知智能,主要体现在听觉、视觉和触觉方面,也就是我们通常说的语音技术、图像技术 。语音技术用的就多了 , 比如让Cortana听懂你说的话,图像识别主要应用在人脸识别上 , 喜欢跟随科技潮流的公司一般会把门禁换成人脸识别 。
41、认知智能是我们今天说的重点,主要包括语言、知识和推理 。语言的重要性体现在什么地方呢?Cortana不能只是识别出来你在说啥,它需要根据你说的话做出回应 , 这时候就需要理解你在说什么 。
42、创造智能就是一种最高级的形态了,也就是当AI拥有想象力的时候 。
43、在运算和语音、图像识别上 , 机器已经能达到很高的准度,目前的主要缺口在认知智能上 。过去认知智能主要集中在自然语言处理 , 它简单理解了句子、篇章,实现了帮助搜索引擎、仿照系统提供一些基本的功能、提供一些简单的对话翻译 。
44、周明博士认为语言智能是人工智能皇冠上的明珠,如果语言智能能实现突破,跟它同属认知智能的知识和推理就会得到长足的发展,就能推动整个人工智能体系,有更多的场景可以落地 。
45、对于未来语音智能的发展,周明博士认为有几个方向:
46、第一,随着大数据、深度学习、云计算这三大要素推动 , 口语机器翻译会完全普及 。
47、第二,自然语言的会话、聊天、问答、对话达到实用程度 。
48、第三,智能客服加上人工客服完美的结合,一定会大大提高客服的效率 。
49、第四,自动写对联、写诗、写新闻稿和歌曲等等,
50、第五 , 在会话方面,语音助手、物联网、智能硬件、智能家居等等,凡是用到人机交互的,基本上都可以得到应用 。
51、最后 , 在很多场景下,比如说法律、医疗诊断、医疗咨询、法律顾问、投融资等等,这些方面自然语言会得到广泛的应用 。
52、当然 , 现在的自然语言现在也面临许多困境 。最关键的一点是如何通过无监督学习充分利用未标注数据 。现在都依赖于带标注的数据,没有带标注的数据没有办法利用 。但是很多场景下,标注数据不够 , 找人工标注代价又极大 。
53、那么如何用这些没有标注的数据?这就要通过一个所谓无监督的学习过程,或者半监督的学习过程增强整体的学习过程 。
【语音助手=人工智能 机器人和你聊天是怎么做到的】54、再给NLP一些时间 , 语音助手也许就能说服你它其实是人工智能了 。
本文到此结束,希望对大家有所帮助 。