keras中文文档 keras( 二 )


使用覆盖值覆盖序列,以跳过时间步 。
对于输入张量的每一个时间步(张量的第一个维度),如果所有时间步中输入张量的值与mask_value相等,则将在所有下游层中屏蔽(跳过)该时间步 。如果任何下游层不支持覆盖但仍然收到此类输入覆盖信息,会引发异常 。
举例说明:
Embedding 是一个将离散变量转为连续向量表示的一个方式 。该层只能用作模型中的第一层 。
Embedding 有以下3个主要目的: 在 embedding 空间中查找最近邻,这可以很好的用于根据用户的兴趣来进行推荐 。作为监督性学习任务的输入 。用于可视化不同离散变量之间的关系.
举例说明:
输出结果:
由维基百科的介绍我们可以得知,卷积是一种定义在两个函数(??跟??)上的数学操作,旨在产生一个新的函数 。那么??和??的卷积就可以写成?????,数学定义如下:
对应到不同方面,卷积可以有不同的解释:?? 既可以看作我们在深度学习里常说的核(Kernel),也可以对应到信号处理中的滤波器(Filter) 。而 ?? 可以是我们所说的机器学习中的特征(Feature),也可以是信号处理中的信号(Signal) 。f和g的卷积 (?????)就可以看作是对??的加权求和 。
一维时域卷积操作:
二维图像卷积操作:
卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网路能从低级特征中迭代提取更复杂的特征 。
一维卷积层(即时域卷积),用以在一维输入信号上进行邻域滤波 。
举例说明:
结果输出:
2D 卷积层 (例如对图像的空间卷积) 。
举例说明:
结果输出:
3D卷积层(例如体积上的空间卷积)
举例说明:
结果输出:
深度可分离1D卷积 。该层执行分别作用在通道上的深度卷积,然后是混合通道的逐点卷积 。如果use_bias为True并提供了一个偏差初始值设定项,则它将偏差向量添加到输出中 。然后,它可选地应用激活函数以产生最终输出 。
深度可分离的2D卷积 。可分离的卷积包括首先执行深度空间卷积(它分别作用于每个输入通道),然后是点向卷积,它将混合所得的输出通道 。depth_multiplier参数控制在深度步骤中每个输入通道生成多少个输出通道 。
直观上,可分离的卷积可以理解为将卷积内核分解为两个较小内核的一种方式,或者是Inception块的一种极端版本 。
转置卷积层 (有时被成为反卷积) 。对转置卷积的需求一般来自希望使用 与正常卷积相反方向的变换,将具有卷积输出尺寸的东西 转换为具有卷积输入尺寸的东西,同时保持与所述卷积相容的连通性模式 。
池化层是模仿人的视觉系统对数据进行降维,用更高层次的特征表示图像 。实施池化的目的:降低信息冗余;提升模型的尺度不变性、旋转不变性 。防止过拟合 。
通常有最大池化层,平均池化层 。
池化层有三种形态:1D 用于一维数据,2D 一般用于二维图像数据,3D 带时间序列数据的图像数据
循环神经网络(Recurrent Neural Network, 简称 RNN),循环神经网络的提出便是基于记忆模型的想法,期望网络能够记住前面出现的特征,并依据特征推断后面的结果,而且整体的网络结构不断循环,因此得名为循环神经网络 。
长短期记忆网络(Long-Short Term Memory, LSTM )论文首次发表于1997年 。由于独特的设计结构,LSTM适合于处理和预测时间序列中间隔和延迟非常长的重要事件 。
举例说明:
结果输出:
GRU 门控循环单元- Cho et al. 2014.
在LSTM中引入了三个门函数:输入门、遗忘门和输出门来控制输入值、记忆值和输出值 。而在GRU模型中只有两个门:分别是更新门和重置门 。与LSTM相比,GRU内部少了一个”门控“,参数比LSTM少,但是却也能够达到与LSTM相当的功能 。考虑到硬件的计算能力和时间成本,因而很多时候我们也就会选择更加”实用“的GRU 。
举例说明:
结果输出:
循环神经网络层基类 。
关于指定 RNN 初始状态的说明
您可以通过使用关键字参数 initial_state 调用它们来符号化地指定 RNN 层的初始状态 。initial_state 的值应该是表示 RNN 层初始状态的张量或张量列表 。
可以通过调用带有关键字参数 states 的 reset_states 方法来数字化地指定 RNN 层的初始状态 。states 的值应该是一个代表 RNN 层初始状态的 Numpy 数组或者 Numpy 数组列表 。
关于给 RNN 传递外部常量的说明

秒懂生活扩展阅读