科研快速入门与水文章技巧

本文的核心是快速,力求以最小的精力入门某一科研领域,达到毕业要求。

首先,将该领域核心基础知识快速过一遍。比如拿机器学习来说,只需要知道它有哪些模型,这些模型可以用来解决哪些问题,模型怎样使用,有哪些关键指标、哪些优缺点、哪些关键参数可以调以及大概怎么调即可。至于模型的原理,有个映像、概念上有其轮廓即可,而像模型的底层原理、代码实现那些应该统统放弃,搞懂它们对于核心目标而言性价比过于低了,即使有更高追求,也应当在实现核心目标的基础上。

其次,猛读论文。先大致找一个方向,然后找这个方向的各种文章看,直到找到一个或几个自己非常感兴趣的细分方向,再根据这个细分方向猛读相关文章,同时一定要留意和记录好那些公开代码和数据集的文章,虽然这种文章占比小,但读的文章多了就能攒得很可观。文章读得多了,自然就知道这个领域主要是要解决哪些问题,有哪些主要的方法以及这些方法大概是怎样实现和解决那些问题的。

这个时候灵感会逐渐出现,在有想法时就可以基于之前找到的那些公开的代码和数据集来构建自己的实验,当效果不错的时候,就能完成初稿,然后走向投文章之路。

----------------------------------------------------

代码和数据集:自己写代码费时费力,最好在别人代码的基础上进行改动和拼凑。虽然网上有很多数据集来源,但还是建议用自己看别人文章时别人公开的数据集,因为这样的数据集基本上不用我们自己二次加工了,基本上直接拿过来就能用,省时省力。

创新点:就看怎么定义新了,既然是水文章,要求自然不高,思路自然就宽广了。单从改模型和算法来说,一方面能将模型或算法的子模块子算法排列组合,此外对于子模块子算法本身而言也能增删和改进,两者结合那变化可就太多了,每一种组合都是一种创新思路。再从应用领域来说,一个问题的解决方法数不胜数,比如一个简单的分类,就能用各种算法和模型进行实现,这么多实现思路,总有别人没用过的,你来用当然也算创新。

创新的关键:关键在于自己有说法。最常用的套路就是田忌赛马,就是拿自己方法表现好的点和别人算法表现一般甚至差的点来比较,方法一般都是有自身局限性的,一般不能面面俱到,这些都是可以操作的空间。比如我的模型准确度很一般,但是我的速度快或者模型参数小,又或者在样本更少的条件下我的表现更好,又或者是在某些特殊数据上我的表现好等等。

能水成功的本质:哪有那么多真正意义上的创新,绝大数的创新都是西红柿炒鸡蛋、鸭蛋、鸵鸟蛋、各种蛋,甚至踩高跷的西红柿炒蛋方法。三四区的水平,基本上就是这样子。而开放获取的SCI比核心好发,因为SCI文章种类和每年收的文章比中文核心要多太多。比如SCI是十篇收一篇,那核心至少三十篇收一篇。某种程度上就是一种生意,在版面费上SCI四区八九千而核心四五千。所以只要文章有基本的创新,格式正确、能自圆其说,看起来有说服力,有高级感(公式多而复杂、花里胡哨的的图片、高大上或晦涩的名词、说得潜力巨大等等)那就更好了,又掏八九千块钱,基本上没什么问题。(当然一般是导师出钱)

资料举例:比如搞深度学习和机器学习方向,可以看鲁鹏的深度学习与计算机视觉的课来从概念上认识深度学习,然后看李牧的动手深度学习的前30节课来具备看懂一些基础的关键代码的能力,其它一些人的视频也是一样的基本思想,就是知道模块或算法干什么用,可以怎么调,会用代码就行了,不要纠结原理和代码实现。

速度的关键:给自己一个期限,大概一个学期足够了,将该领域核心基础知识快速过一遍一两个月足够。用ChatGPT辅助写代码,是一种很好的方法。

:毕业是很容易的,难的是毕业之后达成自己想要的目标,因此时间就非常重要,为自己毕业之后的目标多准备几个月,对结果的影响是很大的,就如同跑步,跑同样的距离,早点开始走路就能到,而晚了疾跑也来不及。早达到毕业要求,早准备毕业之后的事,毕业之后就会觉得读研越值。

 

 

 

 

 

你可能感兴趣的:(人工智能,计算机视觉,深度学习)