欢迎光临中国机器人网站,我们致力于各行业应用研究

[了解机器人]AI为什么不能像朋友一样聊天?了解聊天机器人智慧路上的绊脚石

作者:jcmp      发布时间:2021-04-22      浏览量:0
其实从Siri横空出世到现在,AI聊天

其实从Siri横空出世到现在,AI聊天机器人的发展已有将近长达十年之久的时间,虽然不能说AI聊天机器人一直原地踏步,但除了任务设定,比如设个闹钟外,和聊天机器人对话确实可以把你气个半死。

1、那么AI为何不能像朋友一样聊天呢?

2、“人工”智能难题

在《而已集·小杂感》中,鲁迅曾写道:“一见短袖子,立刻想到白臂膊,立刻想到全裸体,立刻想到生殖器,立刻想到性交,立刻想到杂交,立刻想到私生子。”

你看看,这就是人类的思考和想象力,我想人工智能应该无法具备这样的能力,只有人给它多少数据,它才能根据数据中的内容表现出相应程度的智能,就连谷歌、脸书这种体量的公司所造出的AI人工智能,也依然停留在“人工”智能的范畴:它有多智能。最终还是取决于你。

曾经有位人工智能工程师说过这样一句话,“当每个问题都有对应答案的时候,对话问题就解决了;当对话问题解决了,人工智能的所有问题也都解决了。”

这样想法是没有毛病,但现实中碰到的问题是不可能会有对应的答案的。

我想可能就是聊天机器人智慧路上的绊脚石吧,对话问题是个困境,因为它不可能会有赌赢的答案,它困住了AI聊天机器人,困住了AI工程师,也困住了整个AI行业。

3、NLP自然语言理解难题

面对这一问题,人类也在积极寻找答案,那就是“自然语言处理”。自然语言处理属于认知部分的重要内容,理解和消化内容的认知能力才是真正意义上的核心,也许这将是“智能”一个突破点。

自然语言处理是机器学习最活跃的领域之一,同时也是人工智能领域最难的分支,没有之一。

NLP这个概念被提出伊始,人们便希望计算机能够理解人类的语言,于是便有了图灵测试。让计算机能够确切理解人类的语言,并自然地与人进行交互是NLP的最终目标,也是大多数NLPer的最高信仰。

所以我们将NLP理解为:如何让机器听懂人话,和让机器会说人话。

我们理解起来貌似感觉很简单的样子,但是要真正去实现这个时间可能会很遥远。

我们都知道,人工智能是靠大量数据来成长的,其自身没有思考能力的,只有当你教导它去做什么的时候,它才会很快的学会,但要知识的海洋太过浩瀚,很多知识可能你也没去注意,更何况每时每刻都在产生新的文化知识,更不要说去教导给它。那么这些没有抓取存储到的知识,都将成为它的知识盲区,一旦和别人聊天被问到了,它回答除了是规则设定好的回答外,无能为力了。

目前,仍有很多制约NLP发展的因素,这些因素构成了NLP的难点。而且要命的是,大多数是基础技术的难点。

就拿我们的汉语来说,汉语博大精深是毋容置疑的,网络上有很多老外学汉语的资料,连老外学汉语尚且虐心,更别提计算机了。

我们都清楚,自然语言并不规范,虽然可以找一些基本规则,但是自然语言太灵活了,同一个意思可以用多种方式来表达,不管是基于规则来理解自然语言还是通过机器学习来学习数据内在的特征都显得比较困难。

人和机器聊天的难点在于,每次对话中,人的意图就像一颗正在生长的树一样,随时有出现分叉的可能。当人的一句话中,包含多个意图的时候,更是加大了聊天机器人理解和应答的难度,从而表现出不知道、答非所问的情况。

还记得2016年出现的一则新闻吗?是说推特上出现了一个用户,名字叫做Tay,它是微软推出的AI聊天机器人,官方人设是“19岁的美国女孩”,性格幽默,适合与18-24岁的用户聊天。

起初,Tay和大家聊得还不错,但好景不长,有人开始输入带有种族歧视的语句,而Tay自然而然就学会了,在产生的9.6万条推特中,出现了不少过激言语:

“希特勒是绝对正确的,我不喜欢犹太人。”“女权主义者真是烦人,他们就应该被活活烧死。”

很显然,Tay无力分辨哪些话该说,哪些话不该说。

无奈之下,微软下线了才刚上线一天的Tay,并发表了声明。

“与其说是技术测试,Tay更像是一个关于社会和文化的实验。遗憾的是,上线的24小时之内,一些用户试图戏谑Tay的对话功能,把它引导到不恰当的思路上。因此,我们决定让Tay下线并做出调整。”

我们可以想象一旦聊天机器人接收到过激内容,就如同说自己喜欢杀人的BlenderBot一样,令人毛骨悚然。

所以说,聊天机器人智慧路上的绊脚石什么时候可以解决,AI什么时候可以和朋友一样和人聊天,恐怕只有时间才能给你答案了。