大想法-(收藏)

Posted ls1314

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大想法-(收藏)相关的知识,希望对你有一定的参考价值。

1. 第一弹

2. 第二弹

  • 小目标猜想【1】
    在two stage中,是不是在rpn中就没有处理好scale size,所以rpn就无法选到恰当的小目标候选区域,所以后面再怎么cnn也无法得到小目标的detection。是否考虑在rpn中加入attention,更加关注小目标,然后得到一系列的small obj的region proposals

  • 1*1的卷积降低计算量也绝对不是哆啦A梦的百宝袋。他的计算量的减小的同时也在减小input volume spatial resolution,损失了resolution一定程度上当然会降低精确度。换言之,这是用损失精确度的代价来降低计算量。所以这又是一个计算量和精确度的trade~ off。你需要通过实验精确度量到底怎样balance计算量和准确度。实验证明,googlenet那种程序的降低计算量的手法并不会对精确度造成很大的损失,损失可以忍受。所以googlenet的实验设计细节,就是我们学习怎么trade~ off的一个好例子。

  • 1/最大子团!=极大连通子图,最大子团祥细请参考算法导论【我也查一下】。貌似可以简单理解为:一个大图中某个子图,这个子图是完全图。(包含的任何两个节点都相连,且图不能再加点,比如,三角形,完备四边形,完备五角星,等等)

    2/无向图的什么性质推导出了局部和全局的马尔科夫性,局部与全局马尔科夫性各有什么特点?【貌似马尔可夫性可以简单理解为:无向图中,不相邻的任意两点独立。所以全局与局部只是描述独立性质所满足的区域大小吗?待考证】

    3/明白了softmax的一些细节了:已知每个y_predict对应的score了,就可以简单做归一化了,为何还要,对每个y_predict对应的score先做指数化,再归一化? 答:最大熵原理【数学之美】,指数函数有放大缩小功能:让score大者更大,score小者更小,使得每个y_predict对应的score之间原本不是巨大的差距,变得很大。这样每个y_predict对应的指数化及归一化后的概率,之间的区分度就很大了。分类工作【挑选那个最大概率值对应的y_predict】就非常容易了。再次领悟【站在巨人肩膀上】的真理及其内涵:我今天看到这两篇关于post,crf的科普文章,再次证明我之前对于看论文以及写代码做实验的猜想:如果是经典已发表过已经出来的工作论文代码工具书籍PPT等等资源。正确的理解学习方法是:先找科普文,先找科普文,先找科普视频PPT,tutorial也可以啊。等把科普工作以及必须的框架和核心思路搞清楚心里有数了,才能去看原paper看源代码,这样学习才不懵逼,学习效率才是最高的。

  • 关于object detection中region proposals的true label或者说grpund truth,为什么是 (让rp与手动打标的框的ground truth做iou,大于阈值的rp的ground truth就【被程序标记为】和手动打标框的ground truth相同。)? 因为,这么多rp,我不可能事先把所有可能的rp都标记下ground truth,所以天才的researcher们想到一个折中的办法:先打一些百分百正确的框的ground truth,然后通过计算rp与这些手工标记的框做重叠实验【更本质地说,是以重叠度iou作为指标评价rp与手工打标框的相似度】,如果足够相似,那么rp的ground truth就直接取手工打标框的ground truth. 这是一种【用有限样本的情况+相似性实验】来推导【无限样本的情况】,正是机器学习的精髓,也是transfer learning的精髓:【用有限样本的规律+无限样本与有限样本的相似性度量 来近似估计 无限样本的规律】

以上是关于大想法-(收藏)的主要内容,如果未能解决你的问题,请参考以下文章

最近做项目的一点想法

关于眼下分词的想法

关于数据仓库的若干想法

制作PPT时的一些想法

新的学习路径学习想法和思路的头脑风暴:基于泰迪云课程,对数据分析和数据建模,机器学习算法进行统筹,接着是基于大数据的数据挖掘进度

关于团队的一点想法