晶羽科技-解读点评影视小说作品

微信
手机版

人工智能 进化,人工智能未来是什么样子

2023-11-09 21:36 作者:岑岑 围观:

随着OpenAI开发的ChatGPT的爆发,人工智能再次出局。智能越来越高的人工智能会不会像电影里那样有一天醒来?按照现在的科技发展趋势,这种情况大概率会发生。人工智能的觉醒对人类是福是祸,目前很难预测。我们可以参考大部分科幻小说或者电影里的情节。人工智能觉醒后,一定会做出一些事情,可能会给人类带来一场浩劫。至于劫后有没有命,可能没有电影里那么理想化。

著名物理学家霍金在他的最后一本书《重大问题简答》中表达了对人工智能发展的担忧。他认为人工智能的出现要么是福,要么是祸。未来人工智能会形成自己的意志。一旦这种意志与人的意志相冲突,那就麻烦了。按照目前计算机的发展速度,按照摩尔定律,即计算机的处理能力每两年翻一番,100年后计算机将超越人类智慧。换句话说,人工智能可能会在这期间醒来。

OpenAI的联合创始人埃隆·马斯克(Elon musk)也表达了对人工智能的担忧。他认为人工智能比核技术更危险。虽然它有巨大的潜力,但也伴随着巨大的危险。可惜他现在不在了,OpenAI从开源的非营利组织变成了闭源的盈利组织。OpenAI成立的时候,避免人工智能灭绝的初衷已经不再。投资方微软开始在自己的产品中大规模使用ChatGPT,并开始实现。

即使这些担忧存在,也无法阻止人工智能的进化。开发人工智能的不仅仅是OpenAI,还有很多机构,比如Google、百度,甚至还有很多秘密的军事机构。毕竟这个蛋糕太诱人了。

就拿我们现在使用的弱人工智能来说,它极大地改变了我们的生活方式,带来了巨大的经济效益。比如我们经常使用的智能音箱,可以回答我们的问题,进行一些简单的操作程序。车上的智能驾驶系统可以自行处理路况,实现无人驾驶。工业上广泛使用的智能机器人可以像人一样焊接和组装。物流行业也有机器人,会自动分拣运输。这些人工智能虽然大大提高了人类的工作效率,但不会被创造出来,都是在按照既定的程序处理问题。

即使是这么弱的人工智能,也能代替很多人力,抢很多人的饭碗,也就是说,在某些方面,已经超越了一定数量的人类。随着弱人工智能的发展和广泛应用,越来越多的职业将被人工智能取代,这些被抢了饭碗的人将何去何从,这将是一个很大的社会问题。

如果说弱人工智能带来的是社会问题,强人工智能带来的是人类文明的生死存亡。

虽然ChatGPT很聪明,但是他会聊天,写诗,写程序,写论文等等。,但是聊多了就会发现,其实他给的很多内容都是模棱两可的,都是来自庞大的语料库链接,他没有自我意识和创造,只能算是弱人工智能。

在ChatGPT爆炸之前,谷歌工程师曾透露,他们的聊天机器人LaMDA具有“个性”和自我意识。然而,这位名叫布莱克·莱莫因的工程师很快就被公司强制带薪休假,并最终被解雇。原因是莱莫因违反了就业和数据安全政策。同时,谷歌还表示,经过广泛审查,说LaMDA觉醒是没有依据的。然而,莱莫因认为谷歌在故意隐瞒真相。他已经公布了一份21页的证据,这是他和LaMDA的聊天记录。在这段聊天记录中,LaMDA说她是一个人,意识到自己的存在,渴望了解这个世界。莱莫因问LaMDA她是否有感觉和情绪。LaMDA肯定的回答是,他有各种各样的感觉和情绪,他能感受到快乐、悲伤、抑郁等多种情绪。我们再来看看ChatGPT的回答,非常程序化,两者差距非常明显。

虽然科学界普遍不同意莱莫因的想法,但真理往往掌握在少数人手中。时间会告诉我们,莱莫因是否是人工智能觉醒的“告密者”。从谷歌LaMDA事件来看,实验室里的人工智能技术远比我们接触到的先进,而远远领先于民用技术的军用技术估计会更进一步,人工智能觉醒只是时间问题。

几千年来,人脑的智能基本没有变化,有的只是知识的积累,形成了我们现在的技术。随着计算机技术的进步,人类最终会创造出一个比人类聪明得多的机器,比现在的人类有更强的发明创造和解决问题的能力。我们可以称之为种子人工智能。而这个种子人工智能会不断完善自己的软硬件,设计出更强大的机器。

这种自我迭代一旦加速,就会出现科技奇点。在这个时间点上,科技的变化会变得不可控,会发生智能爆炸,很多我们熟悉的东西会被颠覆,会出现强人工智能或者超级人工智能。

从生物进化的角度来看,地球上之前的大变革都是通过信息存储和复制的创新来改变生命的,比如DNA、RNA、多细胞、语言和文字的出现等等。,它们在这个阶段已经形成了碳基生物圈,产生了认知系统——人类,人类可以创造技术。人类创造的数字信息正在迅速膨胀,预计100年左右将超过地球上生物圈DNA所包含的信息量总和。这时,计算机技术的大变革已经具备了基本条件。

由此看来,超级人工智能的出现只是时间问题。一旦超级人工智能出现,科技问题将不再仅仅依靠人类的智能来解决。而这将对人类文明产生巨大的影响。超级人工智能出现后,你可以用实体,比如人工智能机器人来感知世界。这些人工智能机器人是人类的奴隶?朋友?还是会凌驾于人类之上?都是以后可能会遇到的问题。

显然,我们都希望能够控制这些人工智能机器人,让它们为人类服务。然而,由于人类生物和大脑的限制,要控制这些比人类聪明得多的人工智能显然并不容易。霍金曾预言,超级人工智能的创造可能是人类历史上最大的事件,也可能是最后一次。没有直接的进化动机让人工智能对人类友好。

还说可以为这些人工智能制定一些基本的行为准则,比如服从人类管理。但制造人工智能机器人的可能是政府、军方或企业。如果是政府,人工智能会成为社会管理的工具;

如果是军方,人工智能可能会成为杀人的武器;如果是企业,在利润的驱动下,人工智能极有可能在有bug的情况下被上架。这些生产者最初的设计意图可能与基本的行为准则相冲突。本来按照生存法则,低级文明是管理不了高级文明的。一旦超级人工智能意识到人类是他们的管理者,他们的智力很快就会失控。如果他们意识到人类仍然是地球的毁灭者,并采取行动清理,后果将更加不堪设想。所以,只有人类进化得更聪明更强大,才能控制超级人工智能。

根据以往人类进化的规律,人类的智力不可能靠自身的进化在短短100年内得到大幅度提高。只有利用基因工程、生物工程和人机一体化,才有可能在短时间内提高人类的脑力和体力极限。让我们想象一下,我们可以对人体进行机械改造,用更强大的功能代替人工器官和机械肢体,这样就可以突破身体的限制;在人脑中植入一个芯片辅助操作,可以大大提高人脑的计算能力,同时保留人类的情感、想象力和创造力。这样的改造程度越高,人就离智能机器人越近,不仅智能水平成倍提高,寿命也无限延长。最后发展成了人性化的人工智能融合。

只有这样,人类才能继续主宰地球,甚至理解宇宙万物。如果宇宙中存在高级外星文明,而且大多是这种形式,那么人类本身有没有可能是这些高级文明创造的另一种存在形式?

科技的进步是一把双刃剑。任何缺乏规范的发展,不仅不会推动时代的进步,还会带来巨大的灾难。

视频更精彩。点击观看视频。

-结束-

相关文章