自由
贪安稳就没有自由,要自由就要历些危险,只有这两条路。 -- 鲁迅
batchnorm batchnorm
Batchnorm原理详解 前言:Batchnorm是深度网络中经常用到的加速神经网络训练,加速收敛速度及稳定性的算法,可以说是目前深度网络必不可少的一部分。本文旨在用通俗易懂的语言,对深度学习的常用算法–batchnorm的原理及其代码实
2020-09-14 Techdim
贪心算法 贪心算法
问题1.钞票支付问题。有1元、2元、5元、10元、20元、50元、100元的钞票无穷多张。现使用这些钞票支付x元,最少需要多少张?例如,X=628最佳支付方法:6张100块的,1张20块的,1张5块的,1张2块的,1张1块的;共需要6+1+
2020-09-06 Techdim
高通snpe使用 高通snpe使用
版本snpe1.32支持Python的版本为Python2.7 和 Python3.4 安装Python3.4由于ubuntu18.04默认的Python版本为Python3.6 所以要先安装Python3.4 下载Python3
2020-08-26
深度学习常见的激活函数sigmod、tanh、ReLU、LeakyRelu、Relu6 深度学习常见的激活函数sigmod、tanh、ReLU、LeakyRelu、Relu6
记录一下sigmod、tanh、ReLU、LeakyRelu、Relu6激活函数的区别与优缺点
2020-08-13
MOSAIC 数据增强 MOSAIC 数据增强
mosaic数据增强理解起来十分方便,主要思想是将四张图片进行随机裁剪,再拼接到一张图上作为训练数据。原文中提到这样做的好处是丰富了图片的背景,并且四张图片拼接在一起变相地提高了batch_size,在进行BN的时候也会计算四张图片,所以对
2020-08-05
CVPR 论文Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection CVPR 论文Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection
  在这篇文章中,作者首先指出了anchor-based和anchor-free方法最终训练结果的性能差异主要来来自于正负样本的选择。如果在训练的过程中采取相似的正负样本定义策略那么在最终的结果上是几乎相同的。也就是说如
2020-08-03
目标检测算法损失函数1 目标检测算法损失函数1
目标检测任务的损失函数由Classificition Loss(分类损失)和Regeression Loss(回归损失)两部分构成。目标检测任务中损失函数的大致演变过程按照时间线可以划分如为Smooth L1 Loss->IoU Lo
2020-07-17
Python 偏函数 Python 偏函数
https://baijiahao.baidu.com/s?id=1613459698249266824&wfr=spider&for=pc 偏函数(Partial function)是通过将一个函数的部分参数预先绑定为某些
2020-07-15
pycharm快捷键 pycharm快捷键
pycharm快捷键pycharm快捷键 查看PyCharm自带的默认快捷键的方法,请移步: PyCharm默认快捷键(系统默认最全)英文版 红色高亮显示文本为本人最常用的快捷键。系统默认快捷键之外,还有一些其他的操作技巧,请移步:
2020-07-14
日志模块 日志模块
日志模块 logging日志等级系统 级别 何时使用 DEBUG 详细信息,典型地调试问题时会感兴趣。 详细的debug信息。 INFO 证明事情按预期工作。 关键事件。 WARNING 表明发生了一些意外,或者不久的将
2020-07-10
1 / 2