TensorSpace.js
开始使用
基本概念
模型预处理
模型
网络层
网络层融合
Activation1d
增加一个激活函数层。
构造器
〔方法一〕使用 activation 参数进行构造
TSP.layers.Activation1d( { activation : String } );
〔方法二〕使用 shape 参数进行构造
TSP.layers.Activation1d( { shape : [ Int ] } );
Fig. 1 - Activation1d 层示意图(左:收缩 | 右:展开)
参数列表

参数名

标签

类型

简介

具体用法细节和例子

activation

📦

String 激活函数名称 可选为 softmax sigmoid tanh ReLU LReLU ELU

paging

🎨🔧

Bool 是否使用分页,paging详细解释 当全链接层太长时,使用分页方式来显示Dense层,true 使用分页;false[默认值] 不使用分页

segmentLength

🎨⚙️

Int 每页的结点数量,只有在paging是true时生效 200[默认值] 表示每页200个节点

segmentIndex

🎨⚙️

Int 分页第一次渲染显示的下标,只有在paging是true时生效 0[默认]

overview

🎨⚙️

Bool 设置text角度overview详细解释 false[Default]

name

🔧

String 层的命名
建议添加
name: “layerName”

color

⚙️🎨

color format 层的颜色 Activation1d默认颜色是 #fc5c9c

closeButton

⚙️🎨

Dict 层关闭按钮外观控制列表, 查看详情

display : Boolean. true [default] 显示按钮, false 隐藏按钮

ratio : Int 为正常大小的几倍,默认为1倍

例如,设为2为正常大小的2倍大

initStatus

⚙️️🎦

String 初始化时,本层是否收缩 close[default] : 收缩

animeTime

⚙️🎦

Int 张开和伸缩的速度 例如2000就是2秒,如果在layer中配置animeTime属性将会覆盖model中的animeTime。
属性
.inputShape : Int[]
filter_center_focus本层输入Tensor的形状,例如inputShape = [ 32 ] 表示此层输入向量长32。
filter_center_focus在 model.init() 后才可拿到数据,否则为undefined。
.outputShape : Int[]
filter_center_focus本层输出Tensor的形状为1维 1️⃣
filter_center_focus本层输出Tensor的形状,例如outputShape = [ 32 ] 表示经过此层处理后,输出向量长32。
filter_center_focus在 model.init() 后才可拿到数据,否则为undefined。
.neuralValue : Float[]
filter_center_focus本层层间输出值数组。
filter_center_focus载入模型,在 model.predict() 后才可以拿到数据,否则为undefined。
.name : String
filter_center_focus本层的自定义名称。
filter_center_focus创建后即可取到。
.layerType : String
filter_center_focus本层的类型,返回一个定值,字符串Activation1d
filter_center_focus创建后即可取到。
方法
filter_center_focus此方法只在 Functional Model 中使用(非序列型,图结构)。
filter_center_focus将此层连接到layer上,layer即此层的上一层
filter_center_focus使用此方法来建立一个连接。在 Sequential Model 中不需要专门使用此方法来建立链接,参照 Keras or TensorFlow.js 构建模型语法,直接添加层即可。
let inputLayer = new TSP.layers.Input1d( {

    shape: [28]

} );

let activationLayer = new TSP.layers.Activation1d( {

    activation: "softmax"

} );

activationLayer.apply( inputLayer );
.openLayer() : void
filter_center_focus通过直接和3d场景中物体交互直接点击层打开。
filter_center_focus代码中通过调用方法打开。
let activationLayer = new TSP.layers.Activation1d( {

    // 配置Activation1d。

} );

model.add( activationLayer );

// ... 给模型添加更多的layer。

model.init();

// 调用openLayer API来打开layer。

activationLayer.openLayer();
filter_center_focus通过直接和3d场景中物体交互点击按钮关闭。
filter_center_focus代码中通过调用方法打开。
let activationLayer = new TSP.layers.Activation1d( {

    // 配置Activation1d。

} );

model.add( activationLayer );

// ... 给模型添加更多的layer。

model.init();

// 如果layer已经是打开状态,调用closeLayer API来关闭layer。

activationLayer.closeLayer();
使用样例
filter_center_focus声明一个Activation1d的实例,方便复用
let activationLayer = new TSP.layers.Activation1d( {

    activation: "softmax",
    name: "Activation1d1",
    initStatus: "open"

} );

model.add( activationLayer );
filter_center_focus直接添加Activation1d
model.add(new TSP.layers.Activation1d( {

    activation: "softmax",
    name: "Activation1d2"

} ));
什么时候用
如果你熟悉Keras | TensorFlow | tfjs 框架,构建模型时使用了激活层Activation1d(下表列出了可能的使用情景)。一一对应的,在TensorSpace中,你应该使用此API。
框架名称 对应框架中新建对象代码段
Keras keras.activations.softmax(x, axis=-1)
TensorFlow tf.nn.log_softmax( logits, axis=None, name=None, dim=None )
TensorFlow.js ttf.layers.activation({activation: 'relu6'})
标签详情
符号 参数性质 说明
⭐️ 必要 使用时必须提供,不能为空,只要提供了这些参数,就能正常创建实例,控制参数使用默认值。
🔧 推荐 使用时推荐给定,未给定也可以运行,但在体验和易用性上有隐患。
⚙️ 可选 根据模型配置参数选择性添加,这里的参数对于层的结构(3D可视化外观)没有影响。
📦 模型 配置卷积层的相关属性,并对输出特征图形状有影响。
🎨 外观 可覆盖TSP.model下的属性进行细调(查看详情
🎦 动画控制 可覆盖TSP.model下的属性进行细调(查看详情
源码
tensorspace/src/layer/intermediate/Activation1d.js