新网Logo
首页>互联网热点>

“人工智能”不想变“人工智障”,还得靠文科生调教?

登录 注册

“人工智能”不想变“人工智障”,还得靠文科生调教?

  • 来源:网络
  • 更新日期:2020-07-29

摘要:科技小池第十六期原创近年,大家对人工智能应该都听腻了。AI的牛也似乎吹到了尽头。各种智能机器人屡屡出错被称为“人工智障”;吹上天的自动驾驶,各种驾驶事故层不出

科技小池第十六期原创

近年,大家对人工智能应该都听腻了。

AI的牛也似乎吹到了尽头。

各种智能机器人屡屡出错被称为“人工智障”;吹上天的自动驾驶,各种驾驶事故层不出穷。

人类司机代驾要钱,人工智能代驾那是要命。

人工智能说好了要改变世界,最后好像也就是颠覆了围棋界。

真正影响生活的,就是能给每个人自拍都美颜成了照骗。

这跟我们想象的人工智能差得有点远。

很有可能,人工智能的路就走错了。

想实现科幻片里各种神奇的人工智能,必须推倒重来。

回顾近年AI成功的原因,一是硬件发展,保证了运算能力;二是互联网发展,人类每天生产海量的数据,供AI训练学习使用。

正是这两个历史级别的风口,扶正了现在人工智能的“当权派”连接主义。

连接主义,又叫仿生学派,主张模仿人类的神经元,用神经网络的连接机制实现人工智能。

他们奉行大数据和深度学习。简单说就是“大力出奇迹”,靠“死记硬背”,只要数据够多,就能反映这个世界。

深度学习可以在没有大量特征工程的情况下正常工作,比如人脸识别,它根本不知道你和一条狗的分别是什么,只是通过画面像素点的分析,你的脸和狗的脸像素差得的确有点远,才确定你不是一条狗。

再比如让他们去下围棋。

围棋每一步怎么走,尽管有多少亿种可能,都是有限的。

人工智能都能靠暴力计算记下来。这样它就能关注到整个棋盘,知道自己和对手能走出的每一步招数。

一场比赛下来,AI要走出其中一半的棋子,并且能准确地预知每走一步会带来怎样的局面。

人工智能程序自己就能下数百万盘棋,收集大量的试错数据,人类冠军不管怎么走,它可能都在训练中模拟过,也自然能找到克制的方法。

但它也有很多缺陷。

比如:在许多真实世界的情况根本不允许我们获取足够多的适用数据,比如自动驾驶,我们就不可能有几百万次车祸的真实场景让他去学习什么场景是需要避免的。

还有深度学习是不透明的。

神经网络驱动的无人驾驶汽车,人工智能本身是否知道自己真的在开车,还是以为自己只是在玩一个避免撞车的游戏,我们都不知道。

在自动驾驶的模型中,可能在某些测试中能拿到95%的准确率。但之后呢?我们很难找到那5%的错误背后的真正原因。

我们知道人工智能错了,但我们无法像教孩子一样,告诉他哪错了。

深度学习是脆弱的。

有非常多的方法可以去愚弄AI模型,比如给数据投毒,或者给模型加入噪声,就可以让模型无法识别停车标志。

所以人工智能在连接主义的路子发展下去,可能就是一个“白痴专家”。

它可以背诵海量的数据做出判断,但是其实什么都不懂。

人类把太多跟自己生活甚至生命相关的数据和决策交给人工智能,可以说是非常不靠谱。

深度学习是一个“美好”的悲剧。

现在能做到的语音识别和物体识别,不能算智能,充其量不过是智能的片段而已。

若想获得真正的智能,你还需要推理能力、语言能力和类比能力,而上述能力中,没有一个是当前技术所能掌握的。

人工智能想要不成为人工“智障”,可能就要推翻重启,走上另外一条路。

那就是参考人工智能的另一个流派“符号主义”派,又称逻辑主义、计算机学派,主张用公理和逻辑体系搭建一套人工智能系统。

在符号主义者的眼里,人工智能应该模仿人类的逻辑方式获取知识。

符号主义派的代表人物马文明斯基认为,我们应该将人类认知视为一个“心智社会”,其中有数十到数百种不同的“智能体”(agent),每种智能体都专门执行不同类型的任务。

例如,喝茶需要依靠抓握智能体、平衡智能体、口渴智能体和一系列运动智能体之间的互动。

换个说法,人有理解世界的不同知识模块,用一个电影情节来说,有人一脚踏入了电梯井,然后就传来了她的尖叫声。

我们立刻就能用物理学知识来推断出她会坠落到底部;用生物学知识推断出,这么摔下去很可能会要了她的命;用心理学知识推断出,因为她没有表现出自杀倾向,所以进入没有电梯的电梯井很可能是出于她的误判,而这个误判是基于一个假设,即电梯门打开之时,里面会有一部可供人乘坐的电梯。

这样的假设在通常情况下是真实的,但很不幸在这里却是错误的。

这个流派给人工智能的启发是,人工智能不应该是背数据,而是能理解这些事实是怎么联系在一起的。更简单点说,人工智能需要有“常识”。

对世界的丰富理解,知道世界如何运转,在不同的环境之中可能发生什么事、不可能发生什么事。

除非非常了解世界是怎么运转的,了解人物、地点、物体及其彼此之间的相互作用,否则根本无法为复杂文本建立可靠的认知模型。

如果没有常识,你读到的绝大多数内容都将毫无意义。计算机之所以做不到有效阅读,真正原因就在于它们对世界的运行方式缺乏基本理解。

为了让人工智能更有用,我们需要从根本上重新思考学习是如何进行的。我们需要创造出一种能利用上现有知识的全新学习方式,而不是每遇到一个领域,都要固执地从零开始。

当下的机器学习领域,目标与此恰恰相反。研究人员和工程师总是将关注点集中在特定的窄任务上,想要从一张白纸开始,凭借一己之力把事情做成。

理解这些常识,可能需要输入更多人文学科的知识,也就是文科生对世界的理解,也可能帮助人工智能理解世界。

实际上,符号主义这边的大牛就是一个神奇的通才,作为人工智能大神,他研究的领域还包括经济学和政治学,可以说是文理科融汇贯通的代表。

我们认为,AI前行的最佳方向,是要在人类心智的内在结构中去寻找线索。

想要人工智能不仅是暴力计算的工具,就要跳出计算机科学的领域,更全面地理解人类是如何从不同角度去理解世界的。不要把一切都简单地视为“数据”,而是把逻辑甚至感情等因素都考虑进去。

真正拥有智慧的机器,需要重启,那就需要向小孩子学习。

小孩子在许多方面都远远将机器甩在后面,因为小孩子天生就有吸收并理解新概念的能力。

我们能理解语言,我们能理解周遭世界,我们能灵活适应新环境,我们能快速学习新事物(即使没有大量数据),而且我们还能在不完整甚至自相矛盾的信息面前进行推理。

要做到这些,可能就需要我们打破学科的边界,打造真正理解人类的人工智能。

我是科技小池,池子虽小,水却很深,感谢您的阅读。

公众号:科技小池(ID:kejixiaochi)

B站:科技小池

知乎:科技小池

新网数码