花费 221ms 找到2391条记录
1 双立方插值和三次卷积插值
2013年03月07 - 最近在看图像缩放插值,对双立方插值和三次卷积插值理解不了。我看网上有人介绍双立方插值和其他人介绍的三次卷积插值是一样的,这两个是同种算法吗?能否给我说说这两个算法的原理。
2 CAE(Convolutional Auto-Encode) 卷积自编码
2016年04月05 - 最近复习一下之前看的深度学习的网络,在deeplearning-toolbox中看到一个CAE一时没想起来就看了一下官方的解释CAE(Convolutional Auto-Encode) 卷积自编码 ,对于这个深度学习的网络的的解释很少。下面谈一下自己的认识,算是总结吧CAE
3 图像处理中的卷积运算
2012年08月16 - 卷积是对矩阵中的每一个元素进行的操作,卷积所实现的功能是由其卷积核的形式决定的,卷积核是一个大小固定、有数值参数构成的矩阵,矩阵的中心为参考点(anchor point)或锚点,矩阵的大小称为核支撑。 卷积计算法:要计算一个特定点的卷积值,首先将核的参考
4 卷积神经网络总结
2015年04月02 - 卷积神经网络总结——放牛娃的春天原文链接:http://blog.csdn.net/achaoluo007/article/details/40956285CNNs应用的最成功的一个例子:Yann LeCun(曾经是Hinton组的research associate)链接:http
5 多通道卷积和反卷积的理解
2017年03月29 - 多通道输入的卷积过程: https://arxiv.org/pdf/1603.07285.pdf http://www.uoguelph.ca/~gwtaylor/publications/zeilertaylorfergus_iccv2011.pdf Convolution
6 深度概览卷积神经网络全景图,没有比这更全的了
2018年05月06 - 翻译 | 林椿眄 编辑 | Just 出品 | 人工智能头条(公众号ID:AI_Thinker) 【AI科技大本营导读】深度卷积神经网络是这一波 AI 浪潮背后的大功臣。虽然很多人可能都已经听说过这个名词,但是对于这个领域的相关从业者或者科研学者来说
7 卷积理解以及在数字图像处理中的应用
2016年07月15 - 卷积的数学意义 卷积(Convolution)是通过两个函数f 和g 生成第三个函数的一种数学算子 卷积的物理意义 卷积在信号处理机制中用途广泛,其中函数f可看做信号的发生,函数g可看做对信号响应,两者的卷积可看作在t时间过去产生的信号经过处理后的叠加 https
8 卷积神经网络(CNN)中卷积的实现
2018年04月01 - 卷积运算本质上就是在滤波器和输入数据的局部区域间做点积,最直观明了的方法就是用滑窗的方式,c++简单实现如下: 输入:imput[IC][IH][IW] IC = input.channels IH = input.height IW = input.width 卷积
9 卷积网络keras实现的部分理解
2017年09月29 - 参考 CNN简介(原图到特征图的映射) 1. 卷积有padding和stride,左上顶头开始,直到遍历完输入图像的所有像素(即使靠右靠下还有剩余padding也不再计算)。 奇数图像stride=(2,2),no padding卷积:先减1,再除以2。 图像大小m*m
10 卷积神经网络(一):常见的激活函数以及其意义
2018年03月13 - 激活函数的意义: 在生物意义上的神经元中,只有前面的树突传递的信号的加权和值大于某一个特定的阈值的时候,后面的神经元才会被激活。 简单的说激活函数的意义在于判定每个神经元的输出 有没有达到阈值。 放在人脸识别卷积神经网络中来思考,卷积层的激活函数的意义在于这一块区域的特征

 
© 2014-2019 ITdaan.com 粤ICP备14056181号