英语轻松读发新版了,欢迎下载、更新

8030个结果,耗时23毫秒。

0
赞成
0
回复
学习笔记TF026:多层感知机
2017年07月22日 by 清醒疯子
,Dropout。随便丢弃部分输出数据节点。创造新随机样本,增大样本量,减少特征数量,防止过拟合。bagging方法,对特征新种采样。 SGD参数难调试,SGD设置不同学习速率,结果可能差异
0
赞成
0
回复
学习笔记TF030:实现AlexNet
2017年07月25日 by 清醒疯子
福大学李飞飞教授创办,收集大量带标注信息图片数据供计算机视觉模型训练。1500万张标注高清图片,22000类,100万张标注图片主要物体定位边框。眼睛生物照相机,每200ms拍一张,3岁已经上亿张
0
赞成
0
回复
学习笔记TF031:实现VGGNet
2017年07月26日 by 清醒疯子
VGGNet,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司一起研发,深度卷积神经网络。VGGNet反复堆叠3x3小型卷积核和2x2最大
0
赞成
0
回复
学习笔记TF032:实现Google Inception Net
2017年07月28日 by 清醒疯子
、NLPConv层。一般,卷积层增加输出通道数,提升表达能力,计算量增大、过拟合,每个输出通道对应一个滤波器,同一滤波器共享参数,只能提取一类特征。NIN,输出通道组保信息。MLPConv,普通卷积层,接1x1卷积
0
赞成
0
回复
学习笔记TF033:实现ResNet
2017年07月29日 by 清醒疯子
-T。前面一层信息,一定比例不经过矩阵乘法和非线性变换,直接传输下一层。Highway Network,gating units学习控制网络信息流,学习原始信息应保留比例。gating机制
0
赞成
0
回复
学习笔记TF034:实现Word2Vec
2017年07月30日 by 清醒疯子
卷积神经网络发展趋势。Perceptron(感知机),1957年,Frank Resenblatt提出,始祖。Neocognitron(神经认知机),多层级神经网络,日本科学家Kunihiko
0
赞成
0
回复
学习笔记TF038:实现估值网络
2017年08月07日 by 清醒疯子
Q-Learning,学习Action对应期望值(Expected Utility)。1989年,Watkins提出。收敛性,1992年,Watkins和Dayan共同证明。学习期望价值,从当
0
赞成
0
回复
学习笔记TF024:TensorFlow实现Softmax Regression(回归)识别手写数字
2017年07月08日 by 清醒疯子
Technology database),简单机器视觉数据集,28X28像素手写数字,只有灰度值信息,空白部分为0,笔迹根据颜色深浅取[0, 1], 784维,丢弃二维空间信息,目标分0~9共10类。数据加载
0
赞成
0
回复
学习笔记TF015:加载图像、图像格式、图像操作、颜色
2017年05月28日 by 清醒疯子
标量秩1张量。图像所有像素存在磁盘文件,需要被加载到内存。 图像加载与二进制文件相同。图像需要解码。输入生成器(tf.train.stringinput
0
赞成
0
回复
学习笔记TF016:CNN实现、数据集、TFRecord、加载图像、模型、训练、调试
2017年05月30日 by 清醒疯子
> 训练模型数据集 Stanford计算机视觉站点Stanford Dogs http://vision.stanford.edu/aditya86/ImageNetDogs/ 。数据下载解压到模