365看书

繁体版 简体版
365看书 > 这是一篇正经文 > 93.改变世界的AI

93.改变世界的AI

章节错误,点此举报(免注册),举报后维护人员会在两分钟内校正章节内容,请耐心等待,并刷新页面。

而它诞生后,每一天都在学习。学习它接触到的每一点知识。

这同样也是李林博士的设计,人工智能每遇到一个人,每看到一件事,都会延伸出两个可能,一个是0,一个是1,从人类的角度来说,就是一个是肯定,一个是否定。

假如眼前有两条路,那走上去的那一条就是肯定回答,另一条没有去走的路是否定回答。

任何一个人类站在路口也只能选择一条路。

孔明说,他的AI是不会有两个选择的,非0即1,正是这个选择限制了AI的发展。

他的AI没有选择权。

他的AI会从周围人的反应中获取信息,来判断应该做出什么样的选择。

也就是说,如果是以前的人工智能,当它眼前摆着两条路时,它需要选择走上一条路;当它面前是十条路时,它只能重复进行选择,直到最后只剩下两个选择时,选择其中一条。

而如果是他的AI,它会一次获取这十条路的信息,再进行一次选择就可以得出结果。

这的确是一个进步,只是似乎没有那么伟大。

有人提出置疑。

也有人立刻就明白了这是一项什么样的改变!

一个人工智能是不可能仅仅面对十条路这样的选择的,它们的计算非常庞大,速度非常快。

而信息的来源也可以更加复杂。

对以前的人工智能来说,每次只能处理两个信息。对孔明的AI来说,却可以将复杂的信息只进行一次处理——这非常符合人类的思考模式!

一个人站在路口时,他会考虑的前方的交通灯要花多少时间,这条路上的路况如何,路上的车辆有多少,同路的人行有多少,逆行的行人有多少。

现在是什么时间?

他一会儿要去办什么事?

他在这个路口要花多少时间?

他去办的事要花多少时间?

等他办完事是几点?总共花了多少时间?

甚至还有一些无关的信息会一起汇入他的脑海。

身边这个女孩子穿的裙子的长短;

旁边这个老人会不会摔倒;

对面的那辆车是什么牌子的?

这个路口有没有警察?

路对面有一家店可以买到香烟;

他闻到了炸鸡的香味。

……

等等。

那么这个人下一步可能会去买炸鸡。

也可能过了路口以后先去买一包烟。

他还可能因为过多关注身边的女孩子而错过交通灯。

他也可能为了避让老人而换另一个方向走。

但如果是人工智能,它的思考就是直线。

它只会将眼前的事摆列成一条直线。

等交通灯。

过路口。

办事。

回家。

正是因为人工智能的思考是直线式的,才会阻碍人类对人工智能的看法。

孔明对所有人说:“他们会是一个调皮的朋友。”

然后他对两个AI说话。

孔明:“早上好。”

穿着裙子的是人造人,她看了一眼手表说:“现在是下午。”

穿着牛仔裤的是机械人,他同样看了一眼手表,问:“需要我为你做什么吗?现在这个时间,你需要我去买些晚餐的材料吗?”

孔明笑着说:“现在确实是下午了,但我不想吃晚饭。”

人造人说:“你应该好好吃晚饭。”

机械人说:“没错,我们才不用吃晚饭,你是人,你必须吃晚饭。”

人造人反驳机械人:“我也应该吃晚饭。”

机械人对人造人说:“好吧,那你晚饭要吃什么?”

人造人:“我是个女士,我晚上只吃沙拉。”

机械人:“你可以放心发胖,反正你也不可能交男朋友或结婚。”

人造人:“你太过分了!”

两个AI跳过孔明开始争吵起来。

这时屏幕上的留言已经相当多了。

因为在以前的人工智能,它们都会把注意力集中在人类身上,是绝不可能发生像这么有意思的事的。

孔明劝架:“你们今天刚刚见面,都客气一点。”

人造人:“我觉得我们合不来!他太不尊重我了。”

机械人:“我说的是实话。她的心眼太小了。”

孔明转头对大家说:“如果你们想要一个这样的AI,可以向我的公司下订单。目前有人造人和机械人两种选择。他们可以承担简单的家务劳动和简单的工作。做为公司的第一代产品,他们更注重情感交流。我是孔明,谢谢你们。”

孔明站起来对大家鞠了一个躬。等他直起身,人造人和机械人已经商量好了。

他们不能住在一起。

人造人讽刺机械人:“你可以站在墙角充电,这一点我倒是真的不如你。”

机械人:“……你真是太幼稚,太小心眼了。”

留言暴发起来。

——我想要一个人造人的AI,她看起来很有意思。

——我也觉得机械人的AI没有人造人的AI有意思,是因为人造人的是女性?所以性别影响了她的思考方式?

——我觉得有这种可能。

楚楚看完宣传片,思考一会儿,问:“……这个女AI的模板是我吗?”

孔明坚定的摇头:“不是。”

楚楚点头:“我就觉得我没有这么不讲理。”

『加入书签,方便阅读』