| by YoungTimes | No comments

深度学习中的Data Augmentation- Test Time Augmentation (TTA)

本文主要学习深度学习中常用的数据增强(Data Augmentation)技术以及在Keras中如何实现它。

Deep Learning中存在很多通过改变神经网络(Neural Network)的训练(Training)方式改善神经网络结果的方法,Data Augmentation是其中一种常[……]

继续阅读

Read More
| by YoungTimes | No comments

YOLOv2 on Pascal VOC2012 – 网络模型(Model)

YOLOv2模型结构

YOLO的输入输出很复杂,Loss函数更加复杂,但是它的网络结构比较简单,只是Convolusion + Batch Normalization + Leaky Relu的重复叠加。

下面是experiencor/keras-yolo2定义的网络模型。

[……]

继续阅读

Read More
| by YoungTimes | No comments

深入理解ROI Align和ROI Warp

ROI Pooling的缺陷

如前面文章<深入理解ROI Pooling>中所述,ROI Pooling的主要问题在于它在处理过程中两次量化(Quantization)丢失了一些信息(下图深蓝色区域和浅蓝色区域)。

由于信息丢失,执行ROI Pooling之后,此时的候选框已经和[……]

继续阅读

Read More
| by YoungTimes | No comments

深入理解ROI Pooling

本文主要讨论Fast R-CNN论文中使用的ROI Pooling(上图中蓝色矩形框部分)。

什么是ROI

ROI是Region of Interest的缩写,是原始图像上的一个Proposed Region。提取ROI的方法有很多,本文不详细讨论。

Fast R-CNN是如何工作[……]

继续阅读

Read More
| by YoungTimes | No comments

YOLOv2 Loss函数详细分析

Batch Generator

[插入Input和Output] 中讨论了Pascal VOC2012数据集上YOLOv2的Training输入数据和Ground Truth是如何生成的,并且实现了一个SimpleBatchGenerator。

YOLOv2 Loss Functio[……]

继续阅读

Read More
| by YoungTimes | No comments

Tensorflow中的乘法运算

1.tf.multiply()-两个矩阵中对应元素各自相乘

tf.math.multiply()实现将矩阵x和矩阵y逐个元素(element-wise)相乘,返回一个新的矩阵。注意它实现的是元素级别的相乘,也就是两个相乘的数元素各自相乘。

若w为m*1或者1*1的矩阵,x为m*n的矩[……]

继续阅读

Read More
| by YoungTimes | No comments

CNN模型-ResNet、MobileNet、DenseNet、ShuffleNet、EfficientNet

文章来源:
https://medium.com/@CinnamonAITaiwan/cnn%E6%A8%A1%E5%9E%8B-resnet-mobilenet-densenet-shufflenet-efficientnet-5eba5c8df7e4

CNN演进

下图为我们了展示[……]

继续阅读

Read More
| by YoungTimes | No comments

神经网络中的非线性激活函数

为什么引入非线性激活函数

如果采用线性激活函数,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron),感知机连最基本的异或问题都无法解决,更别提更复杂的非线性问题,这样的神经网络就没有意义。

常见的非线性激活函数[……]

继续阅读

Read More
| by YoungTimes | No comments

变长数据Features转换为Tensor

ISSUE

从数据集(Dataset)中构造神经网络输入时,遇到同一维度的的Feature元素个数不同的问题,比如:

$$
\text{features} = [[1, 2, 3], [4, 5], [1, 4, 6, 7]]
$$

这种变长的Feature数据在Tensorflo[……]

继续阅读

Read More
| by YoungTimes | No comments

动图详解LSTM和GRU

问题:短期记忆

反向传播(Back Propagation)是一种与最优化方法(比如梯度下降方法)结合、用来训练人工神经网络的常见方法。该方法对网络中所有权重计算损失函数的梯度,然后将梯度反馈给最优化方法,用来更新网络权重以最小化损失函数。

在神经网络中一个典型的问题就是梯度消失(Gra[……]

继续阅读

Read More
  • 1
  • 2