移动硬盘如何使用

移动硬盘如何使用,第1张

移动硬盘用起来还是很方便的,跟mp3一样,一端接硬盘,一端插USB,数据线跟mp3数据线类似,就是多了一个USB插口,就是有两个USB接口,一个主,一个副。一般不需要供电,只插主接口就行啦,第一次连接电脑会自动安装驱动,安好之后就能用啦。

传统文本处理任务的方法中一般将TF-IDF向量作为特征输入。显而易见,这样的表示实际上丢失了输入的文本序列中每个单词的顺序。在神经网络的建模过程中,一般的前馈神经网络,如卷积神经网络,通常接受一个定长的向量作为输入。卷积神经网络对文本数据建模时,输入变长的字符串或者单词串,然后通过滑动窗口加池化的方式将原先的输入转换成一个固定长度的向量表示,这样做可以捕捉到原文本中的一些局部特征,但是两个单词之间的长距离依赖关系还是很难被学习到。

循环神经网络却能很好地处理文本数据变长并且有序的输入序列。它模拟了人阅读一篇文章的顺序,从前到后阅读文章中的每一个单词,将前面阅读到的有用信息编码到状态变量中去,从而拥有了一定的记忆能力,可以更好地理解之后的文本。

其网络结构如下图所示:

由图可见,t是时刻,x是输入层,s是隐藏层,o是输出层,矩阵W就是隐藏层上一次的值作为这一次的输入的权重。

如果反复把式 2 带入到式 1,将得到:

其中f和g为激活函数,U为输入层到隐含层的权重矩阵,W为隐含层从上一时刻到下一时刻状态转移的权重矩阵。在文本分类任务中,f可以选取Tanh函数或者ReLU函数,g可以采用Softmax函数。

通过最小化损失误差(即输出的y与真实类别之间的距离),我们可以不断训练网络,使得得到的循环神经网络可以准确地预测文本所属的类别,达到分类目的。相比于卷积神经网络等前馈神经网络,循环神经网络由于具备对序列顺序信息的刻画能力,往往能得到更准确的结果。

RNN的训练算法为:BPTT

BPTT的基本原理和BP算法是一样的,同样是三步:

1前向计算每个神经元的输出值;

2反向计算每个神经元的误差项值,它是误差函数E对神经元j的加权输入的偏导数;

3计算每个权重的梯度

最后再用随机梯度下降算法更新权重。

具体参考: https://wwwjianshucom/p/39a99c88a565

最后由链式法则得到下面以雅可比矩阵来表达的每个权重的梯度:

由于预测的误差是沿着神经网络的每一层反向传播的,因此当雅克比矩阵的最大特征值大于1时,随着离输出越来越远,每层的梯度大小会呈指数增长,导致梯度爆炸;反之,若雅克比矩阵的最大特征值小于1,梯度的大小会呈指数缩小,产生梯度消失。对于普通的前馈网络来说,梯度消失意味着无法通过加深网络层次来改善神经网络的预测效果,因为无论如何加深网络,只有靠近输出的若干层才真正起到学习的作用。 这使得循环神经网络模型很难学习到输入序列中的长距离依赖关系

关于RNN梯度下降的详细推导可以参考: https://zhuanlanzhihucom/p/44163528

梯度爆炸的问题可以通过梯度裁剪来缓解,即当梯度的范式大于某个给定值时,对梯度进行等比收缩。而梯度消失问题相对比较棘手,需要对模型本身进行改进。深度残差网络是对前馈神经网络的改进,通过残差学习的方式缓解了梯度消失的现象,从而使得我们能够学习到更深层的网络表示;而对于循环神经网络来说,长短时记忆模型及其变种门控循环单元等模型通过加入门控机制,很大程度上弥补了梯度消失所带来的损失。

LSTM的网络机构图如下所示:

与传统的循环神经网络相比,LSTM仍然是基于xt和ht−1来计算ht,只不过对内部的结构进行了更加精心的设计,加入了输入门it 、遗忘门ft以及输出门ot三个门和一个内部记忆单元ct。输入门控制当前计算的新状态以多大程度更新到记忆单元中;遗忘门控制前一步记忆单元中的信息有多大程度被遗忘掉;输出门控制当前的输出有多大程度上取决于当前的记忆单元。

在经典的LSTM模型中,第t层的更新计算公式为

其中it是通过输入xt和上一步的隐含层输出ht−1进行线性变换,再经过激活函数σ得到的。输入门it的结果是向量,其中每个元素是0到1之间的实数,用于控制各维度流过阀门的信息量;Wi 、Ui两个矩阵和向量bi为输入门的参数,是在训练过程中需要学习得到的。遗忘门ft和输出门ot的计算方式与输入门类似,它们有各自的参数W、U和b。与传统的循环神经网络不同的是,从上一个记忆单元的状态ct−1到当前的状态ct的转移不一定完全取决于激活函数计算得到的状态,还由输入门和遗忘门来共同控制。

在一个训练好的网络中,当输入的序列中没有重要信息时,LSTM的遗忘门的值接近于1,输入门的值接近于0,此时过去的记忆会被保存,从而实现了长期记忆功能;当输入的序列中出现了重要的信息时,LSTM应当把其存入记忆中,此时其输入门的值会接近于1;当输入的序列中出现了重要信息,且该信息意味着之前的记忆不再重要时,输入门的值接近1,而遗忘门的值接近于0,这样旧的记忆被遗忘,新的重要信息被记忆。经过这样的设计,整个网络更容易学习到序列之间的长期依赖。

GRU是在LSTM上进行简化而得到的,GRU的网络结构如下所示:

Zt代表更新门,更新门的作用类似于LSTM中的遗忘门和输入门,它能决定要丢弃哪些信息和要添加哪些新信息。

Rt代表重置门,重置门用于决定丢弃先前信息的程度。

要注意的是,h只是一个变量,因此在每个时刻,包括最后的线性组合,h都是在用以前的自己和当前的备选答案更新自己。举例来说,这一个变量好比一杯酒,每次我们要把一部分酒倒出去,并把倒出去的酒和新加入的原料混合,然后在倒回来,这里的reset控制的就是要倒出去的,并且混合好之后再倒回来的酒的比例,而update控制的则是用多大的比例混合新原料和倒出来的之前调制好的酒。同理,也可以以此理解LSTM,LSTM的遗忘门功能上和reset相似,而输入门与update相似,不同之处在于LSTM还控制了当前状态的exposure,也就是输出门的功能,这是GRU所没有的。

1百面机器学习

2 https://zhuanlanzhihucom/p/45649187

3 https://wwwjianshucom/p/39a99c88a565

欢迎分享,转载请注明来源:品搜搜测评网

原文地址:https://pinsoso.cn/meirong/3285593.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2024-02-15
下一篇2024-02-15

随机推荐

  • 多芬和妮维雅洁面泡泡哪个好用

    多芬和妮维雅的洁面泡泡都有一定程度的保湿成分,但具体哪个更好用,还需要考虑以下几点因素:1 成分:多芬的洁面泡泡含有月桂酰,配合常见的增泡剂,达到清洁肌肤的效果。而妮维雅的洁面泡沫中确实含有低含量的皂基,所以对皮肤有干燥或刺激的现象。2 质

    2024-04-15
    64500
  • 精华露和精华液的顺序

    精华露和精华液的顺序,其实并没有固定的标准。不同品牌、不同产品之间,使用顺序也可能存在一些差异。但是,一般来说,我们可以这样理解:我们需要明确两者的功能区别。精华液是一种具有高浓度活性成分的保养品,可以为肌肤提供深层营养滋润,在保持肌肤水油

    2024-04-15
    56500
  • 海蓝之谜精粹水真假怎么辨别

    海蓝之谜精粹水是一款备受瞩目的护肤品,由于其卓越的保湿和修复功效,成为了众多消费者追捧的对象。市场上也存在着一些假冒伪劣的产品,让消费者很难辨别真假。如何判断海蓝之谜精粹水的真伪呢?下面从几个角度为大家分析。我们可以从包装上入手。正品海蓝之

    2024-04-15
    65500
  • 妮维雅的东西到底怎么样呢?

    分类:生活 >> 美容塑身问题描述:杂志上说妮维雅粉红色的那个水很好但是,也有人跟我说妮维雅的东西含化学成分多,都是调出来的,不好我本来想用用粉红色的那款水,现在也不知道了 解析:妮家的东西我基本上全都

    2024-04-15
    45500
  • 急求神仙水,多元,欧莱雅保湿水精华的使用顺序!

    我了解到您想知道神仙水、多元和欧莱雅保湿水精华的使用顺序。让我来为您解答。在使用这三款产品时,您可以按照以下顺序进行。我们来说说神仙水的使用顺序。神仙水是一款非常受欢迎的化妆水,它有助于清洁皮肤和调理肌肤。在使用神仙水前,首先要确保脸部已经

    2024-04-15
    41800
  • 养生之道是什么意思?养生之道成语造句和典故

    成语名称:养生之道 yǎngshēngzhīdào欢迎您访问本页,本页的主要内容为解释成语养生之道的出处和来源,以及回答养生之道的意思是什么,其中包含英语翻译和造句,同时提供了和SOSO百科的链接地址,为您全方位的

    2024-04-15
    37800
  • 怎样可以用打火机之类的去除刺青

    一般打火机是不能去除纹身的,现在去纹身常见的有激光洗纹身法,不过激光洗纹身会比较疼,而且需要很多次才能洗干净现在有一种比较方便的去纹身方式,就是护肤结合,贝黛琪精华露涂抹方式抹在纹身处,这种方式比较方便,没有疼动感,在家都可以自己去除的。激

    2024-04-15
    39500

发表评论

登录后才能评论
保存