书籍阅读-会读才会写-导向论文写作的文献阅读技巧
Posted Jucway
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了书籍阅读-会读才会写-导向论文写作的文献阅读技巧相关的知识,希望对你有一定的参考价值。
文章目录
阅读记录05.22
心得
书籍阅读
通过阅读<会读才会写><科技论文写作>这两本书籍,第一次系统的了解论文阅读的全貌,虽然之前或多或少的都有接触到阅读,但是总是欠缺点思考。一般老师们都会强调阅读文献一定要带着批判性的思维;但是这是一个空泛的概念,没有真正的说明白怎么样的阅读才是批判性的阅读,怎么才能在阅读中训练或者说提高批判性思维;文中讨论的一些阅读文献的技巧;
- 批评点(Point of Critique)
- 现有文章的缺陷,未来文章加以弥补
- 明显的遗漏点(Missed Obvious Poitn)
- 忽略先前理论(文章作者阅读不充分)
- 待讨论问题(Relevant Point of Pursue)
- 有待另文讨论
- 能否(Will) 结论能否论证
当在阅读文献的过程中进行实践,这些策略相当于与段落的总结,即使时隔多日再次阅读,也能快速回忆;
让阅读成为一项工作,而不仅仅只是阅读,阅读文献要有仪式感,更要做好阅读前和阅读文献的准备工作;
论文阅读
要说这两年CV最火的工作就当属于CV与NLP结合了, 2020年google 团队提出的将vision-transformer直接开启了CV的一个新时代;打破了CV和nlp在模型上的壁垒,同时在短短的一年多的时间内,各种机遇vision-transformer 的文章层出不穷,之前神经网络做过的,现在都用transformer都试了个遍;
这次选择实践的论文是vision-transformer:
AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE
前期论文写作是通过不断模仿完成的整个论文的框架
一篇AI领域的论文的结构一般包括:
Title
这篇文章Title直接能体现出这篇文献方法的思想,也就是通过将图片等价于若干个16*16的words;同时是具有Scale上进行的实验
Author:
来自谷歌研究,谷歌大脑团队
Abstract
先通过当前的CPL(Critical Previous Literature),同时存在的GAP(空白)。接着直接说明作者WTD(What They Do),以及最终的ROF(Result of Findings)
Introduction
Related Work
简述当前领域的一些其他工作,未来解决复杂度高,序列长的问题,前人通过一系列的方法进行改进,但是并没有直接将tranformer用作图像分类,同时列举了两个与作者研究最相关的工作,一个是只在cifar100上进行patches 的工作,另外一个是iGPT,这两个工作都没有直接将Transformer用在大规模的图像分类上
Method
Experiments
Results
Discussion/Conclusion
直接开门见山写WTDD(What They Did),以及总结ROF(Result of FIndings).接着提出Challenge,对未来PFW(Pursue Future Work);
Reference
Appendix
笔记
以上是关于书籍阅读-会读才会写-导向论文写作的文献阅读技巧的主要内容,如果未能解决你的问题,请参考以下文章