移动硬盘如何使用

移动硬盘如何使用,第1张

移动硬盘用起来还是很方便的,跟mp3一样,一端接硬盘,一端插USB,数据线跟mp3数据线类似,就是多了一个USB插口,就是有两个USB接口,一个主,一个副。一般不需要供电,只插主接口就行啦,第一次连接电脑会自动安装驱动,安好之后就能用啦。

传统文本处理任务的方法中一般将TF-IDF向量作为特征输入。显而易见,这样的表示实际上丢失了输入的文本序列中每个单词的顺序。在神经网络的建模过程中,一般的前馈神经网络,如卷积神经网络,通常接受一个定长的向量作为输入。卷积神经网络对文本数据建模时,输入变长的字符串或者单词串,然后通过滑动窗口加池化的方式将原先的输入转换成一个固定长度的向量表示,这样做可以捕捉到原文本中的一些局部特征,但是两个单词之间的长距离依赖关系还是很难被学习到。

循环神经网络却能很好地处理文本数据变长并且有序的输入序列。它模拟了人阅读一篇文章的顺序,从前到后阅读文章中的每一个单词,将前面阅读到的有用信息编码到状态变量中去,从而拥有了一定的记忆能力,可以更好地理解之后的文本。

其网络结构如下图所示:

由图可见,t是时刻,x是输入层,s是隐藏层,o是输出层,矩阵W就是隐藏层上一次的值作为这一次的输入的权重。

如果反复把式 2 带入到式 1,将得到:

其中f和g为激活函数,U为输入层到隐含层的权重矩阵,W为隐含层从上一时刻到下一时刻状态转移的权重矩阵。在文本分类任务中,f可以选取Tanh函数或者ReLU函数,g可以采用Softmax函数。

通过最小化损失误差(即输出的y与真实类别之间的距离),我们可以不断训练网络,使得得到的循环神经网络可以准确地预测文本所属的类别,达到分类目的。相比于卷积神经网络等前馈神经网络,循环神经网络由于具备对序列顺序信息的刻画能力,往往能得到更准确的结果。

RNN的训练算法为:BPTT

BPTT的基本原理和BP算法是一样的,同样是三步:

1前向计算每个神经元的输出值;

2反向计算每个神经元的误差项值,它是误差函数E对神经元j的加权输入的偏导数;

3计算每个权重的梯度

最后再用随机梯度下降算法更新权重。

具体参考: https://wwwjianshucom/p/39a99c88a565

最后由链式法则得到下面以雅可比矩阵来表达的每个权重的梯度:

由于预测的误差是沿着神经网络的每一层反向传播的,因此当雅克比矩阵的最大特征值大于1时,随着离输出越来越远,每层的梯度大小会呈指数增长,导致梯度爆炸;反之,若雅克比矩阵的最大特征值小于1,梯度的大小会呈指数缩小,产生梯度消失。对于普通的前馈网络来说,梯度消失意味着无法通过加深网络层次来改善神经网络的预测效果,因为无论如何加深网络,只有靠近输出的若干层才真正起到学习的作用。 这使得循环神经网络模型很难学习到输入序列中的长距离依赖关系

关于RNN梯度下降的详细推导可以参考: https://zhuanlanzhihucom/p/44163528

梯度爆炸的问题可以通过梯度裁剪来缓解,即当梯度的范式大于某个给定值时,对梯度进行等比收缩。而梯度消失问题相对比较棘手,需要对模型本身进行改进。深度残差网络是对前馈神经网络的改进,通过残差学习的方式缓解了梯度消失的现象,从而使得我们能够学习到更深层的网络表示;而对于循环神经网络来说,长短时记忆模型及其变种门控循环单元等模型通过加入门控机制,很大程度上弥补了梯度消失所带来的损失。

LSTM的网络机构图如下所示:

与传统的循环神经网络相比,LSTM仍然是基于xt和ht−1来计算ht,只不过对内部的结构进行了更加精心的设计,加入了输入门it 、遗忘门ft以及输出门ot三个门和一个内部记忆单元ct。输入门控制当前计算的新状态以多大程度更新到记忆单元中;遗忘门控制前一步记忆单元中的信息有多大程度被遗忘掉;输出门控制当前的输出有多大程度上取决于当前的记忆单元。

在经典的LSTM模型中,第t层的更新计算公式为

其中it是通过输入xt和上一步的隐含层输出ht−1进行线性变换,再经过激活函数σ得到的。输入门it的结果是向量,其中每个元素是0到1之间的实数,用于控制各维度流过阀门的信息量;Wi 、Ui两个矩阵和向量bi为输入门的参数,是在训练过程中需要学习得到的。遗忘门ft和输出门ot的计算方式与输入门类似,它们有各自的参数W、U和b。与传统的循环神经网络不同的是,从上一个记忆单元的状态ct−1到当前的状态ct的转移不一定完全取决于激活函数计算得到的状态,还由输入门和遗忘门来共同控制。

在一个训练好的网络中,当输入的序列中没有重要信息时,LSTM的遗忘门的值接近于1,输入门的值接近于0,此时过去的记忆会被保存,从而实现了长期记忆功能;当输入的序列中出现了重要的信息时,LSTM应当把其存入记忆中,此时其输入门的值会接近于1;当输入的序列中出现了重要信息,且该信息意味着之前的记忆不再重要时,输入门的值接近1,而遗忘门的值接近于0,这样旧的记忆被遗忘,新的重要信息被记忆。经过这样的设计,整个网络更容易学习到序列之间的长期依赖。

GRU是在LSTM上进行简化而得到的,GRU的网络结构如下所示:

Zt代表更新门,更新门的作用类似于LSTM中的遗忘门和输入门,它能决定要丢弃哪些信息和要添加哪些新信息。

Rt代表重置门,重置门用于决定丢弃先前信息的程度。

要注意的是,h只是一个变量,因此在每个时刻,包括最后的线性组合,h都是在用以前的自己和当前的备选答案更新自己。举例来说,这一个变量好比一杯酒,每次我们要把一部分酒倒出去,并把倒出去的酒和新加入的原料混合,然后在倒回来,这里的reset控制的就是要倒出去的,并且混合好之后再倒回来的酒的比例,而update控制的则是用多大的比例混合新原料和倒出来的之前调制好的酒。同理,也可以以此理解LSTM,LSTM的遗忘门功能上和reset相似,而输入门与update相似,不同之处在于LSTM还控制了当前状态的exposure,也就是输出门的功能,这是GRU所没有的。

1百面机器学习

2 https://zhuanlanzhihucom/p/45649187

3 https://wwwjianshucom/p/39a99c88a565

欢迎分享,转载请注明来源:品搜搜测评网

原文地址:https://pinsoso.cn/meirong/3285593.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2024-02-15
下一篇2024-02-15

随机推荐

  • 神仙水和清莹露区别

    神仙水和清莹露区别如下:1、质地不同神仙水的质地是清爽不粘稠,水状;清莹露的质地是透亮清澈的水状,触感顺滑轻薄,水润感十足,没有香味。2、效果不同神仙水是一种精华水,化妆水后使用,上脸吸收快,不油腻,对闭口有一定作用,长期使用可以稳定肌肤,

    2024-04-15
    16800
  • 黑松露是什么 了解黑松露的来源、品种和价值?

    黑松露的品种主要分为两类,分别是冬季黑松露和夏季黑松露。冬季黑松露通常在12月至3月之间收获,味道更为浓郁,价格也更为昂贵。夏季黑松露则在5月至8月之间收获,味道相对较淡,价格也相对便宜一些。黑松露是一种珍贵的地下真菌,也是世界上最昂贵的食

    2024-04-15
    8600
  • 神仙水和清莹露的使用方法

    1、清洗干净脸部以后,待脸部自然晾干。2、按压瓶体,将清莹露挤到手中并均匀涂抹在脸上,轻轻一抹,帮助净白成分吸收。3、将神仙水少量倒在掌心后,在脸部均匀的按压,重复三遍,神仙水含天然活肤酵母精华,促进肌肤新陈代谢正常化,具有调整肌肤酸碱值平

    2024-04-15
    8100
  • 妮维雅男士润肤霜过期了能用吗

    妮维雅男士润肤霜过期了不能用过期的东西就最好不要用了,而且这种润肤霜虽然说你用的话一次两次没有什么问题,但是如果你这样,而且也不能保证它过期了会产生什么过期的物质,可能会影响你的皮肤,所以脸部最好是不要涂的身体的其他部位虽然说影响不大,但是

    2024-04-15
    18000
  • 妮维雅夜间美白保湿精华乳!一款可以在夜间保湿的精华乳

    这款精华乳用起来比较方便,挤压式的设计很干净卫生,而且还含有能防止黑色素的成分妮维雅夜间美白保湿精华乳夏天的时候很多姐妹都被晒黑了,现在是时候要做好美白工作了,偷偷美白才可以超过别的美少女,给大家分享一款我觉得好用的身体精华乳就是妮维雅夜间

    2024-04-15
    10500
  • 妮维雅630和玉兰油多效修护面霜哪个好

    妮维雅630。1、吸收性。妮维雅630适合任何肤质,且温和不刺激,日夜也都适用,玉兰油多效修护面霜吸收性不如妮维雅630。2、成分。玉兰油多效修护面霜美白效果太快太明显说明添加化学成分多,妮维雅630与之相比好些没那么多化学成分。妮维雅面霜

    2024-04-15
    16200
  • 清莹露和神仙水的区别

    清莹露和神仙水的区别为价格区别、外观区别、功效区别、适用人群不同、效果区别。1、成分区别:神仙水是由半乳糖酵母的发酵物过滤液组成,除了丁二醇和其它润肤成份之外,没有其它有效成份。清莹露是用水做溶剂,加入了酵母、甘油、适量的乳化剂和酸类,水杨

    2024-04-15
    9400

发表评论

登录后才能评论
保存