文章目录
- 1.阅读第一篇论文
- (1)论文结构
- (2)目标
 
- 2.使用GPT辅助论文的阅读与写作
- 3.专有名词
- (1)架构
- (2)网络
- (3)机器学习
 
- 4.文献翻译软件
- 5.从哪里下载文献?
- 6.如何判断(你自己的)研究工作的价值or贡献【论文精读·李沐】
- 7.经典论文
- (1)AlexNet 2012
- (2)FCN 全卷积 2014
- (3)ResNet:残差学习(Residual Learning)
- (4)Attention is All You Need 2017
 
 
1.阅读第一篇论文
作为一个研一新生,科研新手,第一次阅读论文,应该如何入门?读一篇论文,应该抓住哪些重点?
(1)论文结构
①标题 (Title)
 ②摘要 (Abstract)
 ③引言 (Introduction)
 ④方法 (Method)
 ⑤实验 (experience)
 ⑥结论 (conclusion)
 ⑦关键词
 ⑧参考文献
(2)目标
看文献抓重点,只看你想要的东西
1.看模型实现了什么目标,拿什么实现的
 2.摘要或引言里,看他自己说的创新点,然后在文章里找他怎么实现的这个创新点
 3.先看摘要和结论,有些他们创新的算法要看挺久

 
 
2.使用GPT辅助论文的阅读与写作
1.用GPT简述内容,整理创新点,写综述,解析代码
 ①将几篇文章放上去,让GPT帮忙写成综述,将每篇论文用两句话总结,然后整理共同点和不同点。
 ②用传统的方式肉眼逐篇逐字去看,一些细节一开始很难看懂,有些专有名词不认识,需要一个个查,用GPT会方便理解。
 ③写毕设的时候,用GPT来写毕业论文的第一章很爽。
 ④用GPT来拓展思路也很有用。
3.专有名词
(1)架构
1.Transformer:Transformer模型架构是一种基于自注意力机制的神经网络结构。
 2.Pytorch、TensorFlow:两种深度学习框架。2019年起,Pytorch逐步取代TensorFlow成为主流。
(2)网络
1.CNN:卷积神经网络。
在 Transformer 被广泛应用之前,CNN 是计算机视觉领域的主流架构,用于图像分类、目标检测、图像分割等任务。许多经典的视觉模型(如 ResNet、VGG、Inception 等)都是基于 CNN 的。
2.U-Net:基于CNN,主要用于生物医学图像分割。
 3.ResNet:基于CNN,何凯明提出,为了解决深度神经网络中的梯度消失和梯度爆炸问题(解决深层网络退化问题),使得训练更深的神经网络成为可能。ResNet 的核心思想:残差模块,残差学习。应用:图像分类、目标检测(Faster R-CNN)与图像分割(Mask R-CNN模型都采用ResNet作为特征提取的主干网络)、迁移学习(医学图像分析、遥感图像分类)
(3)机器学习
1.机器学习的两种主要学习方法:
 ①有监督学习(Supervised Learning):一种机器学习方法,其中模型通过使用带有标签的训练数据来学习预测目标变量的关系。
 ②无监督学习(Unsupervised Learning):使用未标记的数据,算法必须自行发现数据中的结构
2.baseline:在深度学习和机器学习中,baseline(基线)指的是在某项任务中用来作为参照的基础模型或标准方法。它为新模型的性能提供一个基准,以便评估新方法的改进效果或有效性。许多图像分割任务中,U-Net 经常被用作 baseline。U-Net 因其卓越的分割能力和易于实现的结构,已经成为医学图像分割、语义分割等任务中的标准模型。因此,很多研究都会使用 U-Net 作为 baseline,对比新方法在分割任务中的表现。
3.欠拟合与过拟合
 ①欠拟合 (Underfitting):训练集和测试集表现很都差。因此模型太简单、训练数据不够。
 ②过拟合 (Overfitting):训练集表现好,测试集表现差。模型记住了训练集的太多噪声。
4.训练集、验证集、测试集
 ①训练集 (Training Set):模型训练
 ②验证集 (Validation Set):模型调优
 ③测试集 (Test Set):测试模型
4.文献翻译软件
1.知云文献翻译:知云官网:https://www.zhiyunwenxian.cn/
2.Zotero:
 ①Zotero官网:https://www.zotero.org/download/
 ②Zotero教程:文献管理利器Zotero的使用说明
3.ReadPaper
 4.小绿鲸
 5.直接搓pdf,然后不会的单词查字典
5.从哪里下载文献?
①dblp:dblp.org
 ②papers with code:paperswithcode.com
 ③arxiv
 ④维度学术
链接:如何在dblp官网下载外文文献
6.如何判断(你自己的)研究工作的价值or贡献【论文精读·李沐】
新意度 × 有效性 × 问题大小 = 价值

7.经典论文
(1)AlexNet 2012

 
 
(2)FCN 全卷积 2014

(3)ResNet:残差学习(Residual Learning)
(4)Attention is All You Need 2017
1.Transformer model的开山奠基之作,首次引入了自注意力机制(self-attention mechanism):《Attention is All You Need》,2017年6月12日
 讲解链接:https://zhuanlan.zhihu.com/p/673974803
