深度学习中的Data Augmentation- Test Time Augmentation (TTA)
本文主要学习深度学习中常用的数据增强(Data Augmentation)技术以及在Keras中如何实现它。
Deep Learning中存在很多通过改变神经网络(Neural Network)的训练(Training)方式改善神经网络结果的方法,Data Augmentation是其中一种常[……]
Read More本文主要学习深度学习中常用的数据增强(Data Augmentation)技术以及在Keras中如何实现它。
Deep Learning中存在很多通过改变神经网络(Neural Network)的训练(Training)方式改善神经网络结果的方法,Data Augmentation是其中一种常[……]
Read MoreYOLOv2模型结构
YOLO的输入输出很复杂,Loss函数更加复杂,但是它的网络结构比较简单,只是Convolusion + Batch Normalization + Leaky Relu的重复叠加。
下面是experiencor/keras-yolo2定义的网络模型。
[……]
Read MoreROI Pooling的缺陷
如前面文章<深入理解ROI Pooling>中所述,ROI Pooling的主要问题在于它在处理过程中两次量化(Quantization)丢失了一些信息(下图深蓝色区域和浅蓝色区域)。
由于信息丢失,执行ROI Pooling之后,此时的候选框已经和[……]
Read More本文主要讨论Fast R-CNN论文中使用的ROI Pooling(上图中蓝色矩形框部分)。
什么是ROI
ROI是Region of Interest的缩写,是原始图像上的一个Proposed Region。提取ROI的方法有很多,本文不详细讨论。
Fast R-CNN是如何工作[……]
Read MoreBatch Generator
[插入Input和Output] 中讨论了Pascal VOC2012数据集上YOLOv2的Training输入数据和Ground Truth是如何生成的,并且实现了一个SimpleBatchGenerator。
YOLOv2 Loss Functio[……]
Read More1.tf.multiply()-两个矩阵中对应元素各自相乘
tf.math.multiply()实现将矩阵x和矩阵y逐个元素(element-wise)相乘,返回一个新的矩阵。注意它实现的是元素级别的相乘,也就是两个相乘的数元素各自相乘。
若w为m*1或者1*1的矩阵,x为m*n的矩[……]
Read More文章来源:
https://medium.com/@CinnamonAITaiwan/cnn%E6%A8%A1%E5%9E%8B-resnet-mobilenet-densenet-shufflenet-efficientnet-5eba5c8df7e4
CNN演进
下图为我们了展示[……]
Read More为什么引入非线性激活函数
如果采用线性激活函数,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron),感知机连最基本的异或问题都无法解决,更别提更复杂的非线性问题,这样的神经网络就没有意义。
常见的非线性激活函数[……]
Read MoreISSUE
从数据集(Dataset)中构造神经网络输入时,遇到同一维度的的Feature元素个数不同的问题,比如:
$$
\text{features} = [[1, 2, 3], [4, 5], [1, 4, 6, 7]]
$$
这种变长的Feature数据在Tensorflo[……]
Read More问题:短期记忆
反向传播(Back Propagation)是一种与最优化方法(比如梯度下降方法)结合、用来训练人工神经网络的常见方法。该方法对网络中所有权重计算损失函数的梯度,然后将梯度反馈给最优化方法,用来更新网络权重以最小化损失函数。
在神经网络中一个典型的问题就是梯度消失(Gra[……]
Read More