比没有工作更可怕的,是没有生活

时间:2019-08-13 08:00:01 来源:河南国际在线 当前位置:飞扬谈社会 > 教育 > 手机阅读
比没有工作更可怕的,是没有生活

一、什么是智能?

对于新生事物,用“是什么”的句式很容易陷入鸡同鸭讲的境地,大家会用自己过往的经验来定义,这是互联网上讨论问题陷入各执一词、互相抬杠的一个原因。

我们先不探讨什么是“人工智能”,把人工两个字去掉,就是“智能”,像人一样能思考的生物。

“人”大家都熟悉,它的“智能”是什么。我从是什么、能干什么、怎么干三个角度来讨论“智能”。

1.一分钟理解人工智能

什么是人工智能?

一个物体是否具有智能,可以从两个角度判断:

1.如果可以有多个结果,TA选择了一个非必然的结果;

2.TA受到干扰的时候,能够排除干扰。

第一个角度,选择了非必然结果。

举个例子来说:楼上滚一个皮球下来,我们看到后会觉得正常,因为球就应该从楼上滚下来;假如一个皮球在从楼梯下面往上滚,我们会觉得很奇怪。

单从运动的角度看,球从上面滚下来、从下面滚上去,无非是个颠倒的过程,为什么我们会觉得从下面往上滚很奇怪呢?

因为通常认为:如果一个物体不拥有智能,它应该按物理规律描述的必然结果运动,也就是球往下滚。

假如球不按规律往下滚,我们就会觉得这件事比较奇怪,就会认为球应该是智能的,它“选择“了一个非必然的结果。

再比如,用手拿着水杯,松手后水杯一定会掉下去,所以,当松手后杯子没掉下去,我们就觉得这个杯子应该是智能的。

第二个角度,能够排除干扰。

再比如刚才那个球,正从楼梯上往下滚,你站在楼下准备接住,中间碰到一个障碍物,它受到了干扰,偏离了原来的方向,不再滚向你,这是我们看到的正常结果。

如果球被碰偏之后,划了一个弧线,又回到滚向你的方向上,我们觉得这个球应该是智能的。

你来听今天的讲座,路上遇到堵车了,你会想各种方法,加快速度、绕一条路来到这里,你知道讲座这件事肯定会有,所以不论中间产生了什么样的干扰,你都会让自己奔着这个目标。

很有意思,智能有一个特点,就是目的性,智能是为某种目的来工作的。

如果我们基于这两点来理解智能:

第一个层面是说,智能是在讲一个小概率事件,它不是必然发生的事;

第二个层面是指,无论有什么未知的干扰,这个事努力地要必然发生。

在中西方传统哲学体系中,秩序问题的方法论有两种:目的论、因果论。

科学世界基本大多采用因果论,说原因一旦产生,必然产生结果;目的论是应用在社会领域。

在自然科学或者科技领域,大家会觉得目的论是唯心的,我们先不讨论它是否唯心,既然我们在探讨人工智能,就要探讨人的思维方式与机器中必然的规律性思考方式,有什么不同与联系。

2.“智能”能干什么?

我们先不做具体的罗列,用一句话来概括就是:预测未来。人类借助智能预测未来,并为未来做准备。

赫拉利•尤瓦尔著作《人类简史》中有这样一句话:人是会讲故事的生物。

对于这句话,不同的人有不同的理解,我想表达的是:人是有目标的生物,而低等生物是没有目标的。一般的生物,其实都是围绕眼前进行反应的。

我们学生物的时候,生物对待外界事物有几个阶段,初级的阶段叫应激反应,有什么东西刺激TA产生反应。生物是趋利避害的,但是低等生物只能对当时的刺激产生反应。

例如,在这个房间里,蚊子特别多,如果是一只狗在屋里,蚊子咬,它就跑出去,但是人除了可以跑出去,还可以就趴在桌子上,管你咬不咬,我忍了,这是人特有的“逆反”方式。

比没有工作更可怕的,是没有生活

为什么人采取逆反的方式,这个人有目的性,想考取大学、想改变命运,当你想改变命运,即便当前的情况与你的感知矛盾的时候,你会采取相反的行为,不是简单的趋利避害。

我们用一句话总结:一般的生物、低等生物只对空间有操作的能力,而人拥有基于时间上的操作能力,会依靠智慧对未来做预测。

3.“智能”是如何做到的?

人常用的方法叫做逻辑方法:有A必然B。

例如,我拿一个瓶子,往桌上一摔,会发出响声,即,你摔的动作与响声有着必然的联系。这种必然性是指在人的脑子里会产生必然联系的想法,也就是说,人们认为因果之间有着强关联,而且这个关联是本质的、必然的。

基于这个理解,我们人的思考方式就是找A在哪里,我们推理的过程,就是在找A和B之间的必然联系。我们相信,宇宙世界注定有一些规律,我们找到规律便会得到结果。

还有一种一般人不熟悉的方法:贝叶斯方法,这种方法在计算机上用得更多,例如各种各样机器学习。举一个我们经常感觉到的例子:

假如A和B之间是有关联性的,我们在日常生活中,采用逻辑推理,都是按照100%的确定性去思考的,即“如果A,必然B”。

现在贝叶斯方法不是一个必然的关联,而是概率的关联,即“如果A,可能B”,并不是说A发生之后必然推出有B这个结果,A和B之间关联性的概率不是100%,只有60%、70% ,即“如果A出现,有60%的可能出现B”。

不管是逻辑方法还是贝叶斯方法,都依赖于一个内核——符合规律,如果不符合规律,你是找不到逻辑上的关联,也找不到数据上的贝叶斯概率关联。

所以,人类的思考方法以及发明了计算机的初衷,大前提就是:我们是处在一个有规律的世界之中。

4.智能的悖论:确定与不确定

那么,规律之外的东西叫什么?

暂且叫做不确定。很多时候,不确定的事件被人理解成没有规律的事件,但是,不确定跟无规律其实并不是对等的,不确定的事也可能是有规律的。

我们为什么能做预测,因为我们相信这个世界是有确定性的,但是如果这个世界只有必然(确定)的结果,人类有必要做预测吗?

人做预测的目的是:如果预测会发生堵车的现象,于是要用智能交通让你不堵。

智能其实存在一个悖论:预测堵车会发生,但想得到不堵的结果。

人工智能的悖论反应了:人把自己当主体的时候,希望自己没有规律;把对方当客体的时候,希望对方有规律。

智能是选择一个低概算的事件,围绕目的去做事。然后智能很奇怪,作为一个智能的发起者,我们想要改变预计中的结果,所以智能是追求不确定的,因而我们发现,智能存在确定和不确定的悖论。

二、智能的实现

1.关于预测的问题

在简单的逻辑推理中,因为有A必然有B,所以我们的目标就是找到A,然后确定B。但实际上,A完全决定B,尤其是当A与B的时间比较短的时候,A的有用性受到怀疑。

地已经动了的时候,马上房子就倒了,你喊地震来了有用吗?

比没有工作更可怕的,是没有生活

没有用。也就是说,我们根据事件关系预测一件事情的时候,如果它跟另外一件事情的关系过于紧密,有特别大的必然性的话,这种预测的意义是不大的。地已经动时,所有人都知道地震了!

2.智能意义:预测(避免)

我们需要的智能化处理是这样的:我预测这个人会杀人,但是看他的脸,跟不杀人的人没什么差别。

智能是从一个小的特征预测出了这个人与杀人者的联系。相反如果那个人长得凶神恶煞,刀都拿出来了,傻子都知道他会杀人,要你智慧预测干什么。

比没有工作更可怕的,是没有生活

从这个问题可以看出,两件事的过强关联性,其实不是我们探讨的,我们更希望探讨的是,概率关联的两个事件。

两个事件之间具有关联性,但不是必然的,这样,我们预测到一个事件A可能导致事件B,但我们想办法避免事件B。

一个人拿刀(事件A),大概率会发生杀人(事件B),但我们避免事件B真实发生。

智能就是预测一个事件,但又要避免这个事件的结果,不太好理解。我们换个角度,把事件分成两类:

第一类叫规律,呈现出可预测性;

第二类叫干扰,破坏预测的结果呈现。

那么我们利用智能技术预测规律、控制干扰,这样就好理解了。

怎么区分规律和干扰呢?首先是寻找实体,我们把规律放在实体上,然后把干扰放在动作的决策上。

例如,动物咬人,从事件关联上看,就是如果出现张大嘴的事件A,那么大概率出现被咬伤的事件B。

但你会发现,这个事件关联预测方式不如另外一个方法有效——你老远看出是一只老虎(判断实体),你得出老虎会咬人的结论(实体上呈现的规律),你在进入到老虎能咬你的范围之前,不走的太近(控制干扰),从而避免咬伤事件发生。因为你知道老虎有咬人的规律,肯定会咬人或者咬其他东西,我决策不要走太近,那就避免掉了。

我们把规律赋予实体,然后通过对实体采取决策来避免,就是我们处理智能问题的方法。以上的实体-决策的方法,可以套在你现在面临的各种各样的人工智能或者是智能处理的事情上,你会发现这个框架能够优化你思考这些问题的方式。

讨论到这里,我们就可以明白,为什么我们要做一个智能机器人出来,而不是做一个部件,比如倒牛奶的人工臂,你发现没有,越是做小而单一动作的智能,越容易失败。

比没有工作更可怕的,是没有生活

继续观察你会发现,围绕一个有整体感的实体做出的智能,它的成功率会高一些,为当你把干扰和规律混在一起的时候,世界就会乱了。

如果你用一个实体的概念,把确定性的规律放在实体上,把那些容易变的部分,跟他有关联部分剥开,思考起来就简单了。

3.智能处理的步骤:识别、判断、条件

把规律放在实体上,基于实体的预测步骤就是:识别出实体、判断实体能做什么、提供做成一种结果的条件。

实体怎么识别出来?我们识别的目的又是什么?

识别实体是为了后续的行为。我们看一个动物是一只狗还是一只鸡,在进行识别之后,我们要有个目的,是饿了想吃东西,还是想出去走走。

如果是饿了,你考虑自己爱吃什么再做选择;如果是出去走,你考虑哪个陪伴更好,识别要为某个目的服务。

识别东西并不是人类必要的,吃东西才是人类必要的,不论它是不是一只鸡,反正你吃了之后不饿。

识别作为智能的行为,作用是什么?

当你识别到这是一只老虎的时候就不去费劲了,因为无论如何我们打不过老虎吃不到老虎,识别能提升你捕获猎物的效益。

比没有工作更可怕的,是没有生活

智商低的人,或者低等的动物,当他识别不出老虎来的时候,他在老虎身上费了太多的劲却没有结果,这就是识别的重要性。

识别之后就是做判断,如果X能那么Y也能。即识别之后就知道它能干什么,最后一步就是条件决策,在识别之上给它创造条件,识别是鸡就创造抓鸡的条件,识别是老虎就创造释放的条件。

4.如何识别实体

展开讲一下识别是怎么实现的:大部分计算机深度识别的工作原理,是通过特征来识别的。

第一,抽取特征。

当我们看别人,会先说一米七左右或一米八多,所以首先是高度,然后还有形状。

如果某个特征与这个事物是高度关联的,那我们通过特征就识别了事物。比如区分人与树木,有皮肤的是人,没有皮肤的是树木。

第二,增加特征。

但是因为特征是抽象的,如果识别对象里面包含了猴子,你会发现猴子也有皮肤,但猴子不是人。

这时候,一个特征识别不了对象,我们就需要增加特征。

多种不同的对象有相同特征,因此你要增加特征,猴子也有皮肤,但是我们再看有没有毛,没有毛的是人,有毛的是猴子。

比没有工作更可怕的,是没有生活

第三,设范围。

通过多个特征来判断,事情就复杂了,但如果限定在这个教室里,是不是人,只要看有没有皮肤就可以,因为这个屋里没有猴子。

你只需要一条规则,看有没有皮肤,桌子没有皮肤,桌子不是人,但是有皮肤就判断是人。

判断准不准,大家很容易走一个极端:把准确性看得绝对。其实所有准确性都是通过限定隔离得到的。

我们人,理性思维的时候是穿越时间、穿越空间的;感性思维的时候是陷在一个小范围之内的。

如果要让识别工作更有效的话,一定要将识别限制在一个范围内。

组件会构成更大的东西,而单一组件有特征,你限制之后,那个特征与事物之间的关系就变得很简单。

第四,构件。

同时,既然是限制在小范围内,人不可能总在这个屋里,假如说这里是一个配眼镜的地方,医生并不需要关心人的所有特征,只需要识别所有来人的眼睛,例如识别这个眼睛是不是近视,至于身高、胖瘦都可以忽略。

于是,你会发现,在一个配眼镜的地方,特征就是眼镜,如果是在一个体检中心,识别的就是腿等。

所以,组件构成人,是分层结构的概念。

第五,分维度。

综上所述,识别是按照分层概念进行的,计算机在识别物体的时候也是一样的,先是从形状角度,再增加颜色角度,再增加其他角度,然后从局部的样子扩展成更大范围的样子,实际上是各个方面分成一个一个小组件一层一层的堆叠、包装。

其实分维度这种方式跟空间是一个意思,比如说除了颜色这个特征外还有味道,你可以把这些当成一类东西,都是维度的问题。

所以空间、维度、范围,是我们思考的方法。

5.智能过程的五个步骤

智能处理过程,从五个步骤来理解:特征、对象、能力、条件、结果。

用特征识别对象,通过对象知道他具有能力,赋予对象一个条件得到结果。基于这种思考,计算机的智能处理过程跟人的处理过程其实可以统一在一起。

也就是说,我们通过特征知道对象,通过对象有什么能力,就能知道他可能会发生什么,但是对象的能力跟触发能力的条件是分开的。

举个例子,人有能力进食,但不是时时刻刻都在吃,人是饿了才会吃,一天吃三次,保健员掌握食物适时投喂。

我们掌握条件,就能很好的控制智能,控制智能就是我们想要达成的结果。

什么是计算机深度学习?

让智能识别一个概念,还可以在这个基础上再识别一个更大或更小的概念。人也是这样的,深度学习不同的维度就是一层一层的识别,然后把识别到这个特征归到一个个概念里去。

6.人的智能与人工智能对比

举个例子,判断一个人漂亮不漂亮,是把他们拍下来照片,然后一个一个部位计算来评估吗?

不是,其实你看到的第一瞬间就已经判断了这个人漂亮不漂亮。当被问为什么说漂亮,才去找理由。

比没有工作更可怕的,是没有生活

所以人类对特征判断的过程不是复杂分步骤的拆解,而是基于模型一次性判断。

模式对比意味着什么?

意味着概念抽象是人设计出来的,不是天然存在的,我们之所以要识别人,是基于一种生存本能。

识别老虎是因为我们在日常活动中,经常会碰到老虎;是别人是因为我们会碰到人,要跟他们打交道。

古代的时候,男人喜欢年轻的、脸漂亮的女人,因为这些特征意味着生育能力比较好,否则,我们没必要识别人是否漂亮。所以概念的抽象是人为了快速决策而产生的。

在这个情况下,做人工智能技术,概念定义其实最重要,但是按照现在很多研究人工智能的思路,可能更多地把精力放在算法上,而不是概念定义上。

因此,我们的核心是:有概念,以及给概念做树状组织。无论是公司的管理,还是处理事件对象,做概念和树状管理,都能缩小人的思考时间。

7.深度网络的死穴

人是自然选择的结果,在过去至少万年或者百万年的时间里,整个自然保持着基本不变,我们今天面临最大的转折是创新,打破规律才叫创新,而创新就是反规律,所以我们实际上处在一个矛盾的状态下。

第一,不可识别性。

人工智能在做的第一件事,是突破不可识别性。

如果人工智能是基于深度网络特征识别对象的这一套框架的话,需要先有一个前提:规律,这种规律是按照特征、概念抽象出来的。

打个比方,我们以前都知道人长了两条腿,如果现在给你加了一双腿,你可以像兔子一样跑,那我原来识别人类的那一套算法其实是无效的。

第二,变动性。

现在概念的变化是以天为单位的,例如三个月前,我们张口闭口谈区块链,不谈都不时尚,但是过了八月份再谈区块链就不是时尚的景象了。

第三,功能不稳定性。

概念快速变动就是因为没有规律,导致功能也不稳定。

深度识别技术识别概念,让机器自己能够识别各种各样的概念,然后处理人的一些问题。

三、人工智能挑战人类

1.AI为什么很厉害?

人的能力有两方面:一个是体能,一个是智能。

我们发明了蒸汽机,把体能干掉了,但人的能力还剩50%,我们觉得挺爽的。进而思考,现在剩下的50%,智能,也要被取代了,人就彻底被取代了。

今天你会看到,人工智能最有效的方面就是在足够复杂的情况下依然有规律,越复杂人工智能越比人强悍。

例如走棋是考验思考速度和广度,但不是创造性思考。所以,有规律又足够复杂的事,(投黑马Tou.vc专注于文创领域的众筹平台)人工智能就可以胜过人。

2.身边有一个超级聪明人是什么感觉?

第一,你没有了荣耀和自尊的光环,不敢说话了,因为有比你更厉害的人。

第二,逐渐失去的职场的竞争力。

第三,人工智能叛变了怎么办?

网上最多的担心就是人工智能叛变,我接下来讲的,是网络上大家没有关注到的内容。

3.对生活的挑战

第一,生活完全可以预测,从而导致没有乐趣。

当我们生活中越来越多的预测变得越来越准,意外就会变得越来越少,这件事是可怕的。

比如有一次岳云鹏说相声,下面有一个人一开口就把包袱抖出来,结果相声没法说下去了。

如果我们的生活没有意外,事情会非常无趣。大家把未来的事都知道了,生活就没有意义了,所以这个可预测性对人的挑战,远高于各种各样的产品。

第二,极端目标性,宿命问题。

极端的目标性,然后目标控制又极端精确,人类陷入宿命的困惑,可能是别人给自己设定了宿命,甚至是自己的昨天为明天设定了宿命。

第三,透明社会,深沉的孤独。

人之所以为人,是因为自己可以有隐私,这个隐私随着环境充分透明,意味着你很难保护自己。

举个例子,以前我们是怎么保护隐私的?

到大树林里面找个地方方便,背着树,别人看不到,所以古时候人是以大的物理空间划分的。

现代文明是什么,在街上人们可以走得很近,物理上这么近、隐私是可以侵犯的,但是为什么不侵犯呢,你穿一件衣服,为什么能赛过原来一棵树?

比没有工作更可怕的,是没有生活

树保护隐私,衣服不如树厚重,是怎么保护你隐私的呢,因为法律保护,别人不可以扒你的衣服,法律+衣服比树保护的更好。

今天信息产生的透明化问题,因为隐私的保护措施没跟上,我们总认为屏蔽隐私是物理方式的。

但是我们现在,你在社交网络上说到3000句话的时候,人家就能知道你什么样的性格,你就是透明人。隐私保护需要从更贴近现在科技的角度,强化信息管理方式。

4.人的角色化存在

所有智慧的个体,比如人都有不同层次边界构建,没有边界构建在功能上就会有问题,这个边界问题叫安全意识。

因为人之所以成为人,首先要保证自己是一个人,如果你不是人,你探讨道德、能力是没有意义的,而且事实上人也是以这个方式来生存的。

很多人出了问题,就是自己的边界管理不对,比如说一个人经常有多重身份,我们举个例子:

第一个层面,生命,就是活着,你作为一个肉体能够到处走,你拥有生存角色;

第二个层面,家庭,你能做一个成功的妻子,或者成功的丈夫,是因为你有家庭关系,你拥有家庭角色;

第三个层面,你是公司总经理或者职员,你要为公司的存在而奋斗,你拥有社会角色;

第四个层面,社会公众人物,要维持社会、民族的形象,你拥有公众角色。

例如,某明星曾经不公开自己老婆出轨的事,他的身份是社会公众人物,他要维持公众角色这个身份,私事儿是不适合说的,但一旦家庭角色这个身份都维持不了,公众角色的身份就没意义了,所以就敢说出来,保护更下一层身份即生存角色。

其实我们每一个人,最大的动力是来自身份角色,你要维持每天的身份,你不能说昨天穿得高档,今天穿得没档次,但是你要知道,身份能不能维持,有客观要素。

比如经济形式不好,高档衣服买不起了怎么办,你为了维持社会角色、公众角色,买衣服了却吃不了饭,生存角色保持不了,这是不行的。

很多人没有管理好自己的多个层次的身份角色,因为心理上在朋友、粉丝那没脸面,为了维持一个公众角色,当从外到内几重身份同时坍塌时,社会角色、家庭角色同时维持不了,甚至最后连个人生命生存角色都维持不了。

所以,一个人在社会上,要合理管理不同层次角色的底线,当你维持这一层角色有巨大困难的时候,你要趁早先把下一层的角色保住。

人的角色管理对于人工智能有非常大的借鉴性,能够优化复杂的人工智能关系。

5.低欲望社会

今天是一个低欲望社会,低欲望社会是怎么来的?

虽然我们竭尽全力去弄清楚未来,可人类是依赖“不确定”活着的。

人活在这里其实就是我要去寻找不确定,我要创造我对别人的不确定,所以人的所有行为只是为了完成这个交易,如果没有交易的话,人可以躺着什么都不干,人类所有的行为都是焦虑驱动的。

然而我们现在是极端清醒的,清醒地知道未来一百年发生的事,那么事情就不用干了,因为一切都是符合规律的,自然而然的发生着,还要人干什么?

所以,整个低欲望社会是科技带来的“确定性”导致的。科技让未来越来越确定,人越来越寻找不到自己存在的价值。

人在社会中连欲望都产生不了,这是很可怕的。

6.人工智能陷阱

当前社会上,人工智能存在的几种陷阱:

第一个陷阱:非对称环境。

例子1

今天我们在面对面沟通,你看到的桌牌我也看得到,字是一样的。如果我编一个瞎话,说这个名字是a,你看到是b,有人就会说出我的不对。这就叫透明的环境。

但是你在网上买一个东西,你看到的是90块,我看是80块,他看到是70块,同样的东西价格不一样。你在你家里看到的,我在我家里看到的,这是一种非对称环境。

例子2

现实中你跟你老婆或者跟你女朋友、男朋友走在一起,你还可以同时跟另外一个小情人聊天吗?

不能。但是在网上不一样,你在QQ上可以开十个窗口同时跟十个人聊,他们之间谁也不知道另一个存在,“我只爱你一个”的意思是,我这个时候只爱你一个人,但是我在不同时候爱不同的人。

这是数字构建了非对称环境,会让你进入一个陷阱。

所以你会发现,这个带来的问题,就是你发现,数字构建了非对称环境,会让你陷入一个陷阱。

例子3

卖假货的当发现你识别力不强的时候,就会买给你假货。你如果觉得他卖这么多出去了,肯定是真货,不然早就被人举报了。我告诉你,根据数据,他卖给不懂行的人的全是假货。

第二个陷阱:数字游戏陷阱。

我们平时跟一个真人玩游戏的时候,你可能赢也可能输。

但是在数字游戏里,计算机可以精确的控制你输赢,也就是你肯定会输,但是你如果不想玩了,它就让你赢。

比没有工作更可怕的,是没有生活

所以请大家不要在数字产品上上瘾,包括炒股票,只要是在系统里,系统可以让你成为一个精确的失败者,如果你没有失败,不是因为你很厉害,只是因为今天你还必须作为一个韭菜,再陪系统一阵子,还没到收割你的时候。

什么叫陷阱?出不来的地方叫陷阱。

但是数字游戏陷阱与真实的陷阱是有区别的,现实当中的陷阱,比如你在山里走不出去,你觉得山里是陷阱,所以我不去,但是数字陷阱营造的环境会告诉你,它不是陷阱。

7.人类存在的意义是什么?

历史上,很多哲学家思考人生终极意义时,会陷入困境,觉得人生没有意义了。

现在,人工智能让每个人都面临终极思考,一开始我在做这个研究,当真相揭开的时候,感到恐惧。这种恐惧来源是,通过对自由意志的思考,进而想知道人活着到底还有啥意思。

当你觉得这个世界越来越透明的时候,如果你的工资,你买的东西,(投黑马Tou.vc专注于文创领域的众筹平台)所有的价格其实是被另外一个人控制的时候,我想让你买得到就买得到,想让你买不到的时候,你有多少砝码,多少钱都买不到。

所以,人的意义到底是什么?

现在是重新构建人类意义的时候了。以前,人类只有一个往前奔的可能性,即便我是一个胖的人、力量大的人,只要我还有赢的可能性,我就有活着的意义。

我们的存在就是陪着那些更聪明的人过下去吗?一个人能不能玩下去?

(文章来源于:笔记侠摘编)

上一篇指纹解锁是什么原理?指纹锁到底安不安全

下一篇润道养生疯狂钜惠,98元即可体验!

教育本月排行

教育精选