Neural Network Posts

Page

14 Jun 2021

这里会不定期的更新一些神经网络模型的论文笔记,如果对这个方向感兴趣的可以看看。

物体检测模型 R-CNN

Mark Chen | 02 May 2021

论文链接 三种不同的 CV 任务 一般来说,我们可以将 CV 任务按照输出的数据量分为以下三种: 图像分类 - 给定一张图片,输出一个一维向量,对整张图片进行分类 物体识别 - 给定一张照片,输出若干坐标对,在照片上用方形的 box 框出所有特定类型的物体 图像分割 - 给定一张照片,输出一个同样大小的 mask,标注具体每一个像素属于什么类型 这三种任务中,模型输出的信息 ...

深度残差网络 Res-net

Mark Chen | 11 Oct 2020

在深度学习中,两个严重影响了模型效果的问题是梯度消失问题与梯度下降问题。这两个问题的出现与深度学习的根本机制 - 反向传播损失函数梯度有关。在很长一段时间里,人们认为超过100层的网络是“不可训练”的。然而残差网络 (Residual Network, ResNet) 的出现改变了这一切。通过设计“短路”机制,残差网络可以让梯度更好的在网络的层之间传播,从而使得训练500+层的超深神经网络成为了可 ...

深度学习的梯度下降方法

Mark Chen | 03 Oct 2020

神经网络的训练本质上是通过调节参数来最小化模型输出的损失函数。然而如何调节参数看似简单实际却有许多技巧和方法来优化。这篇文章会介绍最基本的随机梯度下降,采用一阶动量的SGD with momentum,和采用自适应学习率的AdaGrad, RMS Prop, 和集大成者 Adam。这些模型各自有各自的特点,并且在不同的场景中各有优劣。 深度学习中的梯度下降方法 上回(神经网络是如何工作的)中, ...

神经网络如何工作

Mark Chen | 31 Jul 2020

神经网络作为一种新兴的计算机技术被许多人称为一种全新的“编程范式”,与往常的算法编写不同,神经网络是一种“数据驱动”的编程方法。在往常的算法编写中,人们需要手动编写算法的逻辑,而在神经网络中,人们只需要为网络提供海量数据和参考答案,网络就会自动生成算法。那么神经网络到底是怎么工作的呢? By Mark Chen, 29299731 这篇文章会对机器学习中的神经网络为什么可以被训练&am ...

长短期记忆递归网络 LSTM

Mark Chen | 03 Apr 2020

一般的神经网络只能处理单个信息,可是有的时候神经网络的输入是一个时间序列,在这种情况下普通的前馈神经网络就不能利用“上下文”中隐含的信息来更好的处理当前输入。为了解决这个问题,人们提出了递归神经网络(Recurrent Neural Network, RNN)。可是递归神经网络也有问题:由于同样的权重在网络中一直被累乘,在反向传播的时候极容易出现梯度消失与梯度爆炸的问题。同时,由于RNN在状态间传 ...

医学图像分割模型 U-net

Mark Chen | 04 Jan 2020

U-net是一种前馈神经网络模型,与传统卷积神经网络不同的是,U-net通过直接拼接相同分辨率的图像在网络中创造“短路”,从而使得梯度可以更好的在网络中传播。与此同时,通过将下卷积前的图像分割结果拼接到上卷积过程中的分割结果上,下卷积结果中的高分辨率细节也可以被传递到上卷积过程中,从而提高模型分割准确率。 1. Introduction U-net与其他机器视觉神经网络的根本区别: 一 ...