TensorSpace.js
开始使用
基本概念
TensorSpace Converter
模型预处理
模型
网络层
网络层融合
Activation1d
增加一个激活函数层。
构造器
基于 TensorSpace 模型 是否在初始化之前载入了预训练的模型,有不同的配置方法。查看 网络层配置 文档了解网络层配置基本规则。
〔情况一〕如果 TensorSpace 模型在初始化之前已经载入了预训练的模型,那么不需要在 Layer 中配置 网络模型相关系数
TSP.layers.Activation1d();
〔情况二〕如果 TensorSpace 模型在初始化之前未载入预训练的模型,那么需要配置必要的网络模型相关系数
[方法一] 使用 activation 参数进行构造
TSP.layers.Activation1d( { activation : String } );
[方法二] 使用 shape 参数进行构造
TSP.layers.Activation1d( { shape : [ Int ] } );
图1 - Activation1d 层示意图(左:收缩 | 右:展开)
参数列表

参数名

标签

类型

简介

具体用法细节和例子

activation

String 激活函数名称,
网络模型相关系数
可选为 softmax sigmoid tanh ReLU LReLU ELU

shape

Int[] 输出的形状,
网络模型相关系数
例如,shape: 100
表示输出是一个向量,1维长度100

paging

Bool 是否使用分页,paging详细解释 当全链接层太长时,使用分页方式来显示Dense层,true 使用分页;false[默认值] 不使用分页

segmentLength

Int 每页的结点数量,只有在paging是true时生效 200[默认值] 表示每页200个节点

segmentIndex

Int 分页第一次渲染显示的下标,只有在paging是true时生效 0[默认值]

overview

Bool 设置text角度overview详细解释 false[默认值]

name

String 层的命名 name: “layerName”
顺序模型中,建议添加,以便从模型中获取层对象
函数式模型中,必须给每个层添加 name 属性,且添加的名称 name 的值需要和预训练网络中对应层的名称相同

color

Color Format 层的颜色 Activation1d默认颜色是 #fc5c9c

closeButton

Dict 层关闭按钮外观控制列表, 查看详情

display: Bool. true [默认值] 显示按钮, false 隐藏按钮

ratio: Int 为正常大小的几倍,默认为1倍,例如,当ratio设为2时,关闭按钮为正常大小的2倍大

initStatus

String 本层初始化状态,查看详情 close[默认值] : 收缩
open:展开

animeTime

Int 张开和伸缩的速度 例如2000就是2秒,如果在layer中配置animeTime属性将会覆盖model中的animeTime。
属性
.inputShape : Int[]
filter_center_focus本层输入Tensor的形状,例如inputShape = [ 32 ] 表示此层输入向量长32。
filter_center_focus在 model.init() 后才可拿到数据,否则为undefined。
.outputShape : Int[]
filter_center_focus本层输出Tensor的形状为1维 1️⃣
filter_center_focus本层输出Tensor的形状,例如outputShape = [ 32 ] 表示经过此层处理后,输出向量长32。
filter_center_focus在 model.init() 后才可拿到数据,否则为undefined。
.neuralValue : Float[]
filter_center_focus本层层间输出值数组。
filter_center_focus载入模型,在 model.predict() 后才可以拿到数据,否则为undefined。
.name : String
filter_center_focus本层的自定义名称。
filter_center_focus创建后即可取到。
.layerType : String
filter_center_focus本层的类型,返回一个定值,字符串Activation1d
filter_center_focus创建后即可取到。
方法
filter_center_focus将此层连接到 previous_layer 上,previous_layer 即此层的上一层
filter_center_focus此方法可用于构建 函数模型 图结构。
filter_center_focus详情参见 构建图结构
.openLayer() : void
filter_center_focus展开 Layer,如果 Layer 已经处于 “open” 状态,Layer 将会保持 “open” 状态。
filter_center_focus详情参见 网络层状态
filter_center_focus闭合 Layer,如果 Layer 已经处于 “close” 状态,Layer 将会保持 “close” 状态。
filter_center_focus详情参见 网络层状态
使用样例
filter_center_focus 如果 TensorSpace 模型在初始化之前已经载入了预训练的模型,那么不需要在 Layer 中配置网络模型相关系数。
let activationLayer = new TSP.layers.Activation1d( {

    // 建议配置,当使用 TensorSpace 函数模型时,为必要配置。
    name: "Activation1d1",
    // 可选配置。
    initStatus: "open"

} );
filter_center_focus 如果 TensorSpace 模型在初始化之前未载入预训练的模型,那么需要配置必要的网络模型相关系数。
let activationLayer = new TSP.layers.Activation1d( {

    // 必要网络模型相关系数配置。
    activation: "relu",
    // 建议配置,当使用 TensorSpace 函数模型时,为必要配置。
    name: "Activation1d2",
    // 可选配置。
    initStatus: "open"

} );
什么时候用
如果你熟悉Keras | TensorFlow | tfjs 框架,构建模型时使用了激活层Activation1d(下表列出了可能的使用情景)。一一对应的,在TensorSpace中,使用本API。
框架名称 对应框架中新建对象代码段
Keras keras.activations.softmax(x, axis=-1)
TensorFlow tf.nn.log_softmax( logits, axis=None, name=None, dim=None )
TensorFlow.js ttf.layers.activation({activation: 'relu6'})
源码
tensorspace/src/layer/intermediate/Activation1d.js