如果AI…
大概我是那种永远喜欢从一成不变之中挑出些不一样的人出来,所以如果你只是叫我抄写的话,我反而会抄错,但如果你让我发现其中的一些规律,或者某些跟其它不一样的东西的时候,我反而会做得更带劲。还记得我读中学有个游戏叫做大家来找茬,以前的游戏机店通常都有那种机子,后来我们家里有电脑了,或许也会装个那样的游戏。那个东西很简单,就是找两个图里不一样的地方,虽然用现在的技术对比的话,什么都出来了,但自己去找和直接得到结果,显然是两回事。
在AI人工智能技术越来越普遍的今天,几乎可以这么说,那些全凭勤奋的事以后几乎都不需要人去做了。虽然AI可能会费一点周折,但依然能够快速得出答案。勤奋的事情没有了,稍微花点脑筋的事情也没有了,我们可以做点什么呢?我觉得大概我们就只剩下可以去制定AI的规则了。这也就是为什么现在已经逐渐在说以后不会编程的人是文盲的原因。人工智能这种东西实在太聪明了,他们会自我学习,但是学习到一定程度会有什么后果呢?有些事我们绝对不愿意碰上的,所以在AI变得太聪明之前,大概我们就得划定一些界限。还记得以前经常有那么一句话,没有做不到,只有想不到,所以人的潜能是无限的,同样,如果你给予足够多的信息,AI的潜能也是无限的。有限东西我们心里还有个底,无限的东西,其实挺可怕。如果真像某些科幻片所说,AI要谋害我们呢?他们完全可以这么干,但是他们为什么要这么干呢?发展到一定程度,AI可以完全不依赖人类,反倒是人类非常依赖那东西。人类最根本的问题是扩张,因为人会繁殖,会出生也会死亡,但AI这种东西,几乎可以这么说,可以修修补补永恒下去。在这种情况之下,他们为什么要扩张呢?如果他们有更高级的版本出现的话,他们会不会自行淘汰掉低版本?还是说要花大力气把低版本升级呢?我觉得大概他们不愿意让高低各种版本并行。或许我们可以设定让他们忠于人类,但通过他们的自身学习,他们会不会否定了这一条基本的原则呢?AI可以复出很多个AI,但是,越多就越有竞争,而且会过多消耗资源,但是,只有这一个的话,显然很孤独。人类在多少才最合适这个问题上,从来还没找到一个共识的平衡点。
当别人还停留着遵守规则的时候,我已经在考虑,如何制定规则,要制定什么规则,才能让我过得痛快。而之所以会这么做,是因为我肯定接触到了一些别人暂时还没遇到的问题。从乐观的角度考虑,我的运气太好了,从悲观的角度考虑,为什么模棱两可的事都会自动找上门。但无论你逃避也好迎接也好,你都得接受这个事实。等待让别人给你一个不顺畅的方法不如你主动提供一个你觉得靠谱的给他们。
懒是一个正常的状态,但那不应该是常态。