• 向量数据:2D数据,形状为(samples,features)。
• 时间序列数据 或 序列数据,3D张量,形状为(samples,timesteps,features)
• 图像:4D张量,形状为(samples,height,width,channels )或(samples,frames,channels,height,weight)
• 视频:5D张量,形状为(samples,frames,height, width,channels)或(samples, frame, channels,height, width)
文章目录一、N阶张量二、张量的关键属性三、数据批量的概念四、现实世界中的数据张量五、张量运算
一、N阶张量
一般来说,当前所有机器学习系统都使用张量作为基本数据结构。张量这一概念的核心在于,它是一个数据容器。它包含的数据几乎总是数值数据,因此它是数字的容器。张量是矩阵向任意维度的推广[注意,张量的维度(dimension)通常叫作轴(axis)]。
标量(0D 张量)
仅包含一个数字的张量叫作标量...
神经网络中使用的数据很多存储在多维Numpy数组中,也叫
张量(tensor)。一般来说,当前所有
机器学习系统都使用
张量作为基本数据结构。
张量对这个领域非常重要,重要到Google的TensorFlow都以它来命名。那么什么是
张量?
张量这一概念的核心在于,它是一个数据容器。它包含的数据几乎总是数值数据,因此它是数字的容器。我们可能对矩阵很熟悉,它是二维
张量。
张量是矩阵向任意
维度的推广(注意,
张量的
维度(dimension)通常叫作轴(axis))。
神经网络知识点记录
定义: 张量(Tensor)是一个定义在一些向量空间和一些对偶空间的笛卡尔积上的多重线性映射,其坐标是|n|维空间内,有|n|个分量的一种量, 其中每个分量都是坐标的函数, 而在坐标变换时,这些分量也依照某些规则作线性变换。r 称为该张量的秩或阶(与矩阵的秩和阶均无关系)。
通俗理解: 张量实际上是不同维度数组的总称,如:0阶张量表示的是一个标量,1阶张量表示的是一个向量,2阶张量表示的是一个矩阵等。
标量(Scalar):标量是一个独立存在的数,比如在线性代数中一个实数 5 就
神经网络使用的数据存储在多维Numpy数组中,也叫张量(tensor)。
张量是一个数据容器,张量的维度(dimension)通常叫做轴(axis)。
1. 标量(0D张量)
仅含一个数字的张量叫做标量(scalar,也叫标量张量、零维张量、0D...
理解迭代,只需要知道乘法表或者一个计算器就可以了。迭代是 batch 需要完成一个 epoch 的次数。记住:在一个 epoch 中,batch 数和迭代数是相等的。
比如对于一个有 2000 个训练样本的数据集。将 2000 个样本分成大小为 500 的 batch,那么完成一个 epoch 需要 4 个 iteration。
2、
批量
批量,即Batch,是
深度学习中的一个重要概念。
批量通常是指两个不同的概念——如果对应的是模型训练方法,那么
批量指的是将所有数据处理完以后一次性更新权重或者参数
理解深度学习需要熟悉一些简单的数学概念:Tensors(张量)、Tensor operations 张量操作、differentiation微分、gradient descent 梯度下降等等。
“Hello World”—-MNIST 手写数字识别
#coding:utf8
import keras
from keras.datasets import mnist
from keras ...
可以看看这个 【参考:CNN中feature map、卷积核、卷积核个数、filter、channel的概念解释,以及CNN 学习过程中卷积核更新的理解_xys430381_1的专栏-CSDN博客】
【参考:卷积核(kernel)和过滤器(filter)的区别_xu.hyj-CSDN博客】
【参考:深度学习面试题09:一维卷积(Full卷积、Same卷积、Valid卷积、带深度的一维卷积) - 黎明程序员 - 博客园】
【参考:卷积神经网络中的batch到底是什么? - 知乎】
batch是批
标量(OD 张量)
数字组成的数组叫作向量(vector)或一维张量(1 D 张量)。一维张量只有一个轴。下面是一个 Numpy 向量。
(tensorflowcv) turing@localhost ~ % python
Python 3.7.5 (v3.7.5:5c02a39a0b, Oct 14 2019, 18:49:57)
[Clang 6.0 (clang-600.0.57)] on...