RNN的更多应用
RNN的更多应用
Many to one
RNN不仅可以输入一个序列,输出一个序列,也可以输入一个序列,输出一个向量,通常是取输出序列的最后一个向量,这样的结构称为Many to one。
常用这种结构的任务有:
情感分析,讲一句话作为序列输出网络,输出只取最后一个,更具输出判断这句话的态度是积极 ...
nlp
自然语言处理(nlp)
词嵌入(word embedding)
one-hot:图像分类问题主要使用one-hot编码,比如一共有五类,那么属于第二类的话,他的编码为(0,1,0,0,0),但是在nlp中自然是行不通的,假如一篇文章有2000个词,那么任意一个词的编码表示为(0,0,…,0,1,0, ...
RNN
RNN
对于人类而言,以前见过的十五会在脑海里留下记忆,虽然随后记忆会慢慢消失,但是每当经过体系,人们对往事的记忆又会影响当下的判断。
而对于卷积神经网络,其相当于人类的视觉,对现在所看到的东西提取特征与分析,去没有记忆能力,所有它只能处理一种特定的视觉任务,没办法根据以前的记忆来处理新的问题。那有 ...
数据增强
数据增强
我们都知道,神经网络能够拟合任意的非线性函数,但是这都有一个前提,就是我们的Train数据集足够的大,能够让模型学习到足够多的信息,但实际情况下,很多时候我们并没有如此大的数据集。那怎么办呢?我们可以通过对原图像做一些变换生成新的图像,从而扩大数据集。
以下api都来自于torchvisi ...
CNN实现MNIST数字分类
import torchfrom torch import nn,optimfrom torch.utils.data import DataLoaderfrom torchvision import datasets,transformsimport argparse#参数定义parser=arg ...
经典CNN
经典CNN
LENET-5
AlexNet
VGGNet
计算量非常大
GoogleNet
同一层用不同尺寸的卷积核:Inception
ResNet(深度残差网络)
当深度到达22层以后,再堆叠更多的层数,模型性能反而会下降,因为太多层的堆叠经常会使得误差积累导致梯度离散。
ResNet:卷 ...
CNN原理
CNN
卷积神经网络(CNN)的结构:
卷积层→池化层→全连接层
那为何不用传统全连接神经网络处理图像呢?其缺点也是很明显的,对于大尺寸图片:
首先将图片展开为张量会丢失信息
处理大尺寸图片需要巨量的参数
参数太多容易导致过拟合
卷积层
卷积层是构建卷积神经网络的核心层,它产生了网络中大部分的 ...
MNIST数字分类
MNIST数字分类
模型结构
简单的三层全连接模型:两个隐藏层
超参数定义:
import torchfrom torch import nn,optimfrom torch.utils.data import DataLoaderfrom torchvision import datasets,t ...
神经网络结构
已经学过了懒得写了
数据预处理与训练模型的技巧
数据预处理
中心化
所有数据每个特征维度减去均值,使数据均值为0
标准化
使得数据均值为0后,还需要使用标准化的做法让数据的也在维度都有着相同的规模,有两种常用方法:
除以标准差,使得新数据的分布更接近高斯分布
让每个特征维度大的最大值和最小值按比例放到1~-1之间
主成分分析
相关背景
在许多 ...