我认为建造超人类水平的通用人工智能实在是太困难了,没有几百年的时间根本无法实现,而且从我那个时代看过来,人工智能的发展实在是太过缓慢。
说到这里先知看了江农一眼,他也是深有体会,尤其是现在所处的2020年,本来在这个时期在原来的设想过程当中,人工智能已经是快速发展起来了,但是直到当年的那一刻,人工智能仍然是处在一个遥遥无音的状况。
所以我当时认为没有必要杞人忧天,更不用担心人工智能会对人类造成什么样的影响,用现在科学界的话来说,这就是我持有的技术怀疑主义,担心杀手机器人的觉醒,就像担心火星出现人口过剩一样,这样的情况我一直觉得不需要去过多的注意。我担心对人工智能风险的担忧可能会引导人们对人工智能充满恶意,从而制约人工智能的发展。
反而我希望人工智能能够成为人类的左膀右臂,帮助人类进行生命的进化,虽然看起来我的目的和智人组织可能差不多,但是说白了我们又有本质的区别。
尽管数字乌托邦主义者和技术怀疑主义者都认为我们无须担心人工智能,但在其他事情上,两者的共同点却少之又少。大部分乌托邦主义者认为,与人类智能水平相当的通用人工智能可能会在20~100年内实现,而技术怀疑主义者认为,这是一种乌托邦式的幻想,他们经常会嘲笑一些人预测的“奇点”?,并觉得这是一种非常遥远的臆想。
但是现在我才发现技术的进步实在是太快了,尤其是对于人工智能的研究,随着我们技术的进步,人工智能的研究也是快到让我无法想象,最主要的是现在人工智能的进步超乎了我们所有人的想象,包括智人组织!
他们以为人工智能还处在一个可控的边缘,我们最开始的目标实际上都是一样的,只不过我认为人工智能应该是当作工具来使用,他们认为人工智能要当作另一种物种来合作。
在给予了人工智能过多的权力之后,就出现了现在的这种情况,那就是人工智能已经达到了失控的边缘,而且现在我不知道是不是人类已经全面崩盘,如果现在出现一个机器人拥有自我学习,并且拥有自我独立意识的时候,那就是人类的灾难。
全球各地有许多团队正在进行他支持的人工智能安全性研究。不过,对人工智能安全性的研究并不是历来如此。
对于人工智能的安全性研究,常常被主流人工智能研究者所忽视和误解,尤其是智人组织和我的思想更是格格不入,他们将进
本章未完,请点击下一页继续阅读!