晶羽科技-解读点评影视小说作品

微信
手机版

类脑人工智能及人工神经元网络,人工智能的实现路径全脑模拟

2023-11-09 21:34 作者:岑岑 围观:

人工智能的进化:从模拟人脑神经元到深度学习

https://mp.weixin.qq.com/s/mQDobj_iiepBDcXw6CZNCg

今天我们讲的是人工智能最早模拟人脑神经元的模型,以及后来发展起来的深度学习。

关于人工智能,其实早在1956年就被首次提出,经历了风风雨雨。我们知道,人工智能是试图模拟人脑的运行机制,从而开发出智能系统。人脑中的神经元由细胞体、树突、轴突和轴突末梢四部分组成,如下图所示:

单个神经细胞只有两种状态:兴奋和抑制。每个神经元大约有1000-10000个突触连接。人脑(不包括小脑)有160亿个神经元,大猩猩有80亿,狗有4.3亿,猫有2.5亿。

神经元接收外界信号,达到一定阈值,触发动作电位,通过突触释放神经递质,这些神经递质可以被兴奋或抑制,影响突触后神经元。通过这个实现大脑的计算、记忆和逻辑处理,进而做出一系列行为。与此同时,我们不断地在不同的神经元之间构建新的突触连接,并改造现有的突触进行调整。

对于生物神经元的模拟,首先提出了M-P模型。m和P实际上是两位作者的名字:麦卡洛克和皮茨,他们是在1943年提出的,后来得到了应用和发展。

该书指出:

在M-P模型中,神经元内树突和胞体接收的信号被视为输入值,轴突末梢发出的信号被视为输出值。

但是这个模型还是缺乏神经网络的概念,无法完成语义理解和数据训练。同时,由于计算机计算能力的限制,人工智能的发展并没有得到提高。

有了算法,有了计算能力,有了数据,人工智能发展的三大基石逐渐发展起来。上一次引起大众关注,我们都知道是在2016年,AlphaGo战胜了世界围棋冠军李世石。这要归功于深度学习的概念,十年前的2006年首次提出,在《生成式人工智能》一书中提到:

2006年,(Geoffrey Hinton)首次提出“深度信念网络”。与传统的训练方法不同,深度信念网络有一个“预训练”过程,可以很容易地使神经网络中的权重找到一个接近最优解的值,然后用“微调”来优化整个网络。这种分阶段训练的方法大大减少了训练深度学习模型的时间。

你也可以看看我之前培训课件的这张图:

目前主流的人工智能领域都是基于深度学习的,包括大家熟知的GPT、扩散等生成式AI模型。

那么什么是“深度”呢?就像把大象放入冰箱分为三步:打开冰箱门,把大象放进去,关上冰箱门。人类对知识的处理也分为三步:输入信息、处理信息、输出信息。其中,最复杂的是如何“放大象”,如何处理信息。我们要做的就是继续一步一步的拆除这个步骤。用行话来说,就是一层一层的拆。层数越多,越深。

人们还试图模拟人脑的结构,在中间增加更多的隐藏层。像人脑一样,输入和输出之间需要多层突触才能产生最终输出。多加几层网络可以实现更复杂的运算和逻辑处理,效果会更好。

处理层也是隐藏层,在输入层和输出层之间增加了更多& # 34;隐藏层& # 34;隐藏层,越加越多& # 34;深& # 34;。

深度学习是利用人类的数学知识和计算机算法构建整体框架,然后结合尽可能多的训练数据和计算机的大规模计算能力调整内部参数,从而尽可能逼近问题目标的半理论半经验建模方法。

好了,更多的相关知识,我们在下一篇文章继续讲。如果想看文章中的ppt,可以点击下面的文章获取:https://mp.weixin.qq.com/s/e-L9OyhcD-BVsBXASiZCAg.

更多详情欢迎关注微信公号宗昊:吴言Wuyu 0123。

相关文章