说两个最直白的原因:


所以,为了让人类自身不那么措手不及。一些思考与质疑的声音正在发出,甚至震耳发聩。目前对于AI,存在两个阵营:以盖茨、霍金和马斯克(paypal贝宝、space x太空探索技术公司、环保跑车公司特斯拉(Tesla)以及SolarCity四家公司的CEO)为代表的悲观阵营认为AI有潜在的危险,甚至可能毁灭人类。

他们三人都表达了对于人工智能潜在威胁的担忧。霍金表示人工智能最终的完全发展将导致人类这一种族的灭亡。而马克斯则将人工智能描述为人类最大的“潜在威胁”。盖茨被提问他如何看待人工智能的潜在危害,他表示这确实是值得担心的问题。盖茨说:“如果我们能够很好地驾驭,机器能够为人类造福,但如果若干年后机器发展得足够智能就将成为人类的心头大患。”

物竞天择,适者生存。当弱人工智能走向强人工智能,甚至超人工智能后,来做一个简单对比:
人类脑神经元的运算速度是200赫兹,今天普通计算机的处理速度就动辄几个G赫兹;大脑每秒传播信息的速度是120米,电脑的传播速度是光速;人类脑容量大约为1300~1500毫升,包含脑细胞约140亿~150亿个,但只不足10%被开发利用,不支持拓展,而电脑的储存容量从理论上来说可以拓展至无限大。
从前,在一个名为地球的星球上,一个叫人类的物种通过自己的大脑,自己的智慧战胜了其他所有物种,成为了这里的主宰;之后,人类遇到了比自己更智慧、“大脑”更发达,并且拥有完自我意识的另一个名叫“人工智能”的种族……
未来,将会怎样?

蚂蚁新闻(mayixinwen)诚意原创
转载请注明出处 侵权必究
查看评论 回复