推荐 综合 人气 评论 点赞
卷积神经网络
【神经网络与深度学习】卷积神经网络-进化史:从LeNet到AlexNet
【卷积神经网络-进化史】从LeNet到AlexNet本博客是【卷积神经网络-进化史】的第一部分《从LeNet到AlexNet》如需转载,请附上本文链接:http://blog.csdn.net/cyh_24/article/details/51440344更多相关博客请猛戳:http://blog.csdn.net/cyh_24本系列博客是对

0评论2023-02-091004

深度学习基础 (十五)--padding,卷积步长与简单卷积神经网络示例
https://testerhome.com/topics/12383

0评论2023-02-09994

卷积的本质及物理意义
提示:对卷积的理解分为三部分讲解1)信号的角度2)数学家的理解(外行)3)与多项式的关系1 来源卷积其实就是为冲击函数诞生的。“冲击函数”是狄拉克为了解决一些瞬间作用的物理现象而提出的符号。古人曰:“说一堆大道理不如举一个好例子”,冲量这一物理

0评论2023-02-12993

opencv构建高斯卷积核
关于高斯核函数可以参见阮一峰老师的日志:高斯模糊的算法如何使用高斯核进行高斯模糊可以参见我的另一篇日志:opencv构建自定义卷积 1 Mat Gaussian_kernal(int kernel_size, int sigma) 2 { 3 const double PI = 3.14159265358979323846; 4 int m = kernel_

0评论2023-02-09988

莫比乌斯反演及狄利克雷卷积
参考文档:https://wenku.baidu.com/view/fbec9c63ba1aa8114431d9ac.html假设$F(n)=\sum_{d|n}f(d)$,那么$f(n)=\sum_{d|n}μ(d)F(\frac{n}{d})$假设$F(n)=\sum_{n|d}f(d)$,那么$f(n)=\sum_{n|d}μ(\frac{d}{n})F(d)$μ(d)即莫比乌斯系数,$μ(d)=1(n==1)$$μ(d

0评论2023-02-07986

卷积,reLu,池化的意义 卷积代替池化
1.卷积提取局部特征2.Relu留下相关特征,去掉不相关特征,卷积之后的正值越大,说明与卷积核相关性越强,负值越大,不相关性越大。3.池化池化的目的:(1)留下最相关的特征,或者说留下最明显的特征。(2)增大感受野,所谓感受野,即一个像素对应回原图的区

0评论2023-02-09982

CNN5 调用 C实现pool2d im2col col2im Python 调用 C/C++实现卷积
1. swig实现在Python 调用 C/C++实现卷积中,尝试了python通过swig调用c提高性能的方法。以下为pool2d im2col col2im三个函数在swig下的配置。%module t%include stdint.i%typemap(in,numinputs=0,noblock=1) size_t *l1{size_t templen1;$1 = templen1;}%typ

0评论2023-02-09976

« 上一页 1/22 下一页 »