年末回顾:2021年 AI 领域十大研究趋势及必读论文

39fcf192e59f7e6787c910a4465fe0f6.png

编 | 小轶,Yimin_饭煲

在本文中,我们将梳理近百篇的最新深度学习论文,以总结出“2021 年十大 AI 研究趋势”。AI 领域的论文可谓层出不穷。这篇文章或许能帮助你跟踪总体趋势和重要研究。下文中提及的部分工作可能并不发表于 2021 年,但对于形成 2021 年的 AI 趋势也起到了重要作用,因而也在本文中列出。

dbbc7cf00a4ea7bef190833b233985a5.png1. OpenAI CLIPbc43aa2ebd633e873a10565e4d4ef2ef.png

bbf182775cb3661ee9cec4ffb7d72653.pngOpenAI今年年初发布的CLIP模型可以说是今年AI行业最重要的里程碑。 CLIP模型看起来似乎只是是隐藏在模型"DALL·E"背后的一个不显眼的存在。不过在OpenAI的CLIP模型发布之初,我就认为CLIP模型无论从上层应用还是底层模型架构来看都是一个非常重要的工作。正如我所预期的那样,CLIP 的使用量快速增长。在 Kevin Zakka的博文[1]指出,"鉴于CLIP在该领域的影响力,很遗憾它与DALL·E 同时宣布"(也即DALL·E掩盖了CLIP模型的风头)" "传统的基于固定标签类别的视觉监督学习已死", 还有一些博文称“OpenAI的CLIP是今年计算机视觉最重要的发展”。

CLIP的机制非常简单。使用可以从网络上大量获取的大量图像以及与之相关的文本来预训练CLIP模型中相应的图像和文本编码器。如果文本和图像内容匹配,模型将给出高相似度,否则将给出低相似度。

为什么CLIP模型这么有用? 首先,考虑从图片到文字的方向,可以通过输入图片从多个选项中选择最匹配图片的文字对图片进行分类。传统的图像分类一般是在多分类框架中解决,从一个固定的类中选择一个正确的答案,但是使用CLIP,图像使用未定义范围的自然语言文本进行分类。通过将标签转化为自然语言文本,可以无需使用特定下游任务的数据对CLIP进行微调就进行分类,因此可以实现“零样本学习”。

e38027fa09b71ea4f4b069c1b3714740.png

相反,考虑到从文本到图像的方向,如果输入某个文本,对图像进行优化,使其与文本的相似度变大,就可以用自然语言生成图像。准确地说,它通过优化其潜在表示并结合使用大量图像预训练的图像生成模型来生成图像,例如 VQGAN。VQGAN + CLIP的这种组合在今年年中成为网络上的一大话题,因为它可以轻松生成高质量的图像。近来,一种结合扩散模型(详细信息将在后面描述)和CLIP的“CLIP引导扩散模型(CLIP Guided Diffusion Models)”也成为了热门话题。

除了图像分类和图像生成任务之外,CLIP模型作为“通用图像理解引擎”的各种用途正在扩展。在前面提到的Kevin Zakka博文中,在视觉领域,通过实际例子介绍了利用CLIP模型解决reCAPTCHA、目标检测、显著图可视化等各种任务中的应用。此外,在一篇题为“How Much Can CLIP Benefit Vision-and-Language Tasks?”的论文中,CLIP可以用于VQA、Image Captioning和视觉语言导航(Vision-Language Navigation)之类的任务,并且已达到与强大Baseline相当或超过的性能。CLIPScore实现了无参考文本的Image Captioning生成性能评估。CLIP模型也可以被用于基于NeRF的场景生成、物理AI、机器人技术。

最近,AudioCLIP和Wav2CLIP扩展了 CLIP 以学习音频、图像和文本三种模态之间的关系。许多工作提出了CLIP模型的扩展和改进,例如 Lite和SLIP。

ef949bb52c6844cc765e832df7154dcb.png2. 自监督学习/对比学习40791bbd5ee73723db66cee65f21d46f.png

913bd8392c8edec9659f430a6c9d18b0.png自监督学习是一种通过从数据本身创建伪监督信号来学习机器学习模型的方法。目前最流行的自监督学习方法是BERT中著名的掩码语言模型(MLM)。MLM被广泛应用于各种预训练方法之中。自监督学习中一个重要的分支是对比学习,它使用数据之间的“相似/不相似”关系作为训练时的监督信号。它的简单性和强大的表示学习能力使其在过去几年中广泛应用于各种人工智能任务。

对比学习并不是什么新鲜的概念。多年之前,在自然语言处理领域流行的Word2Vec和Quick Thoughts中已经使用了类似的技术。

近年来在NLP领域中,ELECTRA通过检测自然语言文本中的替换词进行自监督学习,CLEAR通过数据扩展和对比学习获得高质量的句子表示,DeCLUTR使用从文档中采样的文本片段训练高质量的句子表示,SimCSE则是一种只需要两个输入到编码器的简单有效的句子表示方法。

在计算机视觉领域,从大量标记图像(例如ImageNet)中进行有监督的预训练已经很普遍。然而,在过去几年中,自监督学习和对比学习技术变得非常流行。最典型的是 SimCLR 和 SimCLRv2,它们通过将不同的数据扩展应用于单个图像来进行表示学习。此外,MoCo使用动量编码器进行对比学习,BYOL通过一种从头开始创建隐表示的自监督学习方法及无标签的知识蒸馏提升性能。还有许多其他方法被提出,例如DINO和SimSiam。上面介绍的CLIP也是基于对比学习训练的。

最近,MAE和SimMIM这两种使用与掩码语言模型类似的思想进行计算机视觉的自监督学习方法也成为热门话题。

c0cb6aa316cc13c861cfd6b261437cdb.png3. 多层感知器 (MLP) 的复兴6fa23ec36f7f113ca70aac614d0a3d26.png

ace6b4a7dccb714ca62b18015eb554aa.png2021 年也是多层感知器 (MLP) 蓬勃发展的一年。 虽然它是一个简单的模型,可以称为仅使用线性层和激活函数的“原始神经网络”,但当它通过具有复杂架构的现代方法进行训练时,它已经显示出惊人的强大性能。

在图像分类中,无需使用卷积神经网络 (CNN) 和 Transformer 中广泛使用的注意力机制,只需将图像Patch和MLP相结合即可实现高性能和高速度的图像分类器。 2021年有大量基于MLP的模型出现,包括Mixer, gMLP还有Meta AI提出的ResMLP和RepMLP。

截止到2021年12月,尽管研究者们因为"MLP或许将成为超越Transformer的模型"而激动不已,但MLP还没有通过替换Transformer而普及。在最近发表的MLP综述论文"Are you ready for a new paradigm shift?"中指出,在目前的训练规模上,归纳偏置(Inductive bias)仍然有存在的必要,也即根据任务和数据设计模型结构仍然能在绝大多数情况下取得更好的效果。 此外,MLP还有一个未解决的问题,就是其性能严重依赖于输入分辨率。

39669be2d2c331e688ade37e52f54425.png4. 第三个深度学习库 JAX623d1ad76e2a2af62cbed022e1ffcab0.png

ebe72598a22dfc35d1f83780e6e3cd12.pngJAX是一个似乎同时具备Pytorch和Tensorflow优势的深度学习框架。 JAX 是 Google Research 开发的机器学习库,被称为“在 GPU/TPU上运行的具有自动微分功能的Numpy”,该库的核心是类似 Numpy 的向量和矩阵运算。我个人认为,与Numpy和PyTorch/TensorFlow最大的不同在于JAX是“(纯)面向函数的”,对于自动微分和误差反向传播的处理方式有着根本的不同。

如果你在“PyTorch vs TensorFlow in 2022”这篇博客文章[2]中阅读了Hacker News的评论部分,以及标题为“2022 Are you a PyTorch sect? TensorFlow sect?”的 Reddit 帖子[3]中的许多评论,诸如“人们开始转向JAX”、“使用 JAX”和“JAX 正在取代 TensorFlow”这样的评论表明它甚至在社区基础上也逐渐流行起来。

2021 年,DeepMind 发表的许多优秀研究在其实现中使用 JAX 和基于 JAX 的神经网络库Haiku。视觉Transformer和MLP-Mixer的实现中也使用了基于JAX的深度学习库Flax。最近,谷歌发布了一个基于JAX的计算机视觉库SCENIC,它利用视觉Transformer以统一的方式解决图像、视频和音频任务。

在自然语言处理(NLP)领域,Flax 已经正式被用于NLP的流行框架 HuggingFace Transformers 和目前开源最强的语言模型GPT-J。我经常使用Haiku(一个基于JAX的神经网络库),并使用JAX的并行化机制xmap进行模型并行化。今年6月发布的Cloud TPU VM也有助于使 TPU 更易于使用。总之,我们期待着“2022年是JAX年”的未来发展。

d45e5fc2c81049af635eba3130e1d5d7.png5. 扩散模型af2afcdd28d8a94300468ba3846f024c.png

42e4d58de9207e6c5e42fa5d086e8afb.png“扩散模型”通过逐渐向数据中添加噪声并学习相反的去噪过程来生成图像和语言。 “Beyond GAN in image generation”、“Likelihood-based SOTA”、“Applicable to language generation”等非常划时代的方法和论文陆续公布。扩散模型可以被称为是2021年最大趋势的其中之一。

2019-2020年,扩散模型的基础研究开始活跃起来。首先是基于使用分数的“分数匹配”的生成模型以及使用扩散概率模型的高质量图像生成方法. 从Denoising Diffusion Probabilistic Models开始,对扩散模型的在图像生成领域的研究开始变得活跃。

另一方面,与其他基于似然性的方法(如自回归模型)相比,扩散模型存在无法获得更好似然性的问题。2021年,研究者们改进了OpenAI的扩散模型Improved Denoising Diffusion Probabilistic ModelsThe diffusion model exceeded GAN in image generation来解决这个问题。他们的论文Diffusion Models Beat GANs on Image Synthesis发表并成为一个热门话题。此外,扩散模型也被应用于其他模态,包括D3PM应用于文本生成,DiffWave和WaveGrad应用于语音生成等。

最后,最近出现了“CLIP引导的扩散模型(CLIP guided diffusion model)”,它将扩散模型应用于从文本生成图像,类似于上述使用 VQGAN+CLIP的图像生成。

82314a0dcbf71e379e7e0911aaa9597a.png6. 以数据为中心的人工智能a410e2a77f2f1623fd11ab6ef599a0c8.png

c6dea3fc44be2a06c0db58d4a3c1f95a.png

早些年,有一种以数据为中心的“数据编程”技术。当年基于该技术起家的创业公司 Snorkel.ai,目前已市场估值超过百亿,加入独角兽行列。

而今年,“以数据为中心的人工智能”再度成为 AI 新趋势,又大火了一把。其背后的推动力是 DeepLearning.ai / Landing.ai 的领导者 Andrew Ng 在今年 3 月发布的名为 A Chat with Andrew on MLOps: From Model-centric to Data-centric AI 的演讲。在研讨会上,他倡导“以数据为中心的 AI”作为一个清晰的概念,引发学术界的广泛认同和讨论。Andrew 介绍了他当时负责的一个项目。该项目旨在开发一个用 CV 技术检测产品缺陷的系统。经过两周的开发期,他们发现通过改进模型并没有带来明显准确率的提升,而改进数据却带来了 16.9% 的性能提升。

之后,Andrew 又领导 Landing.ai / DeepLearning.ai 举办了一场以数据为中心的人工智能竞赛。与 Kaggle 等传统 AI 竞赛截然,这场比赛并不是下载标准数据集,然后改进模型端,而是通过改进数据端以提高结果。今年晚些时候,还与 NeurIPS 2021 国际会议一起举办了以数据为中心的 AI 研讨会。一篇论文[4]也谈到了“那些自称基准数据集的 benchmark 也充斥着各种数据错误”。

“数据对人工智能很重要”,这一点或许不用多说。很多人在将 AI 应用于现实世界的问题时,通过权衡“数据改进”和“模型改进”,或多或少都意识到数据改进具有很大的效益。但是,能在今年推出“以数据为中心的人工智能”的这一明确概念进行传播,并得到学术界广泛认可,依然是一个巨大的进步。

b8e9204f451031de9669566c159d3acc.png7. 语音无监督表示学习f3ca194390ae4609560ff18b1b6df394.png

df6924155549d9f2442e14b9a28d74f4.png2021 年,也是语音(语音、音频、音乐)技术取得重大突破的一年。

自 2020 年以来,语音的自监督学习得到了积极的研究,并应用于各种任务,例如 wav2vec 2.0。与文本和图像一样,通过收集大量未注释的数据并进行预训练学习,显著提高了在语音识别等各类语音任务上的性能。即使在 2021 年,自监督的研究势头也依然持续。SSAST 通过 mask 语音块来预训练学习高质量的语音表示。近日,[5] 则提出了一种用于学习语音、环境声音和音乐的通用语音表达的方法。

随着语音的表示学习方法变得越来越强大,今年各个语音任务上都有不小的突破。今年年中,Facebook 的 wav2vec-U 实现了无标签语音识别,备受关注。

此外,在处理语音时完全不依赖文本的“无文本NLP”方法在今年也得到了快速发展。典型的例子是 GSLM,它仅根据语音输入生成语言。[6] 则提出了一种使用离散潜在代码直接将语音转换为语音的方法。这是一种非常具有前景的突破性技术,因为世界上有很多语言并没有书面形式

这些用于语音的无监督表达学习方法大部分已经被 Facebook / Meta AI 开源了。这两家公司也是当前语言技术实力最强的机构之一。

95e710f4f0dead0bfa64f6d82531f9c8.png8. 语言模型继续做大做深5a97315a51b7b06550199becb693ef2e.png

3745dc3e33b5b5e2c9063e2fbb935064.png

震惊业界的 GPT-3 在 2020 年公布已经有一段时间了,但巨型语言模型的研发在那之后依然在持续推进。在 2021 年,GPT-3 已然不是“最新大规模语言模型”,而是各种更新模型的改进“基线”。

比如今年早些时候,EleutherAI 发布了号称“目前开源可用的最强语言模型”  GPT-J-6B(60 亿个参数)。GPT-J-6B 采用 JAX / Haiku 实的。AI21 Labs(以色列的自然语言处理初创公司)也发布了巨型语言模型 Jurassic-1。虽然它与 GPT-3 规模几乎相同(参数数量 178B),但它已加入了各种 trick 以提高性能。此外,12 月 DeepMind 发布了最新的 280B 参数的大规模语言模型 Gopher,证明其在各种自然语言理解任务中的表现优于 GPT-3。

在当今的语言模型研究中,不仅要加大规模,更注重加入巧思,研究如何用好大规模语言模型去解决目标任务。比如,FLAN 模型用 prompt 调优大规模语言模型,以提高模型在 zero-shot 场景下的泛化能力。其他旨在提高零样本泛化能力的代表工作包括 T0ExT5。这两篇工作都结合了预训练学习和大规模多任务学习。

需要注意的是,其中语言模型是基于 seq2seq 结构(如 T5),而不是仅仅有解码器(如 GPT-3)。2021 年,T5mT5 和可以直接处理字节序列的 ByT5 还发布了多语言的版本。这些模型的使用范围也正在不断扩大。

4de5e3383eac2e33ac389118a23b2bba.png9. 非参数方法5f28fee41c92d884d6752580dd271ac5.png

23c07904d7456ccc935f5cf06c5557e3.png

很长时间依赖,大规模语言模型将知识以模型参数的形式进行存储。虽然这些“参数化”模型可以拥有惊人的大量知识作为参数。它们在 QA 等需要大量知识的任务中表现良好。缺点则是模型的大小必须成倍增加才能改进。

从2020年左右开始,越来越多的研究开始将知识作为某种外部知识,而不是作为模型参数来表达,称为“非参数”方法。这些模型也被称为“基于搜索”的技术,因为它们需要通过搜索得到外部知识

典型的方法包括基于邻域搜索的语言模型(kNN-LM),基于邻域搜索的机器翻译(kNN-MT),以及使用搜索的语言生成。如 RAG ([7],见上图)和 MARGE([8],2020 年)使用搜索 + 释义进行预训练学习。

4481abb74d69f0265eb8276cc44a3c96.png

近日,大型语言模型 RETRO [9]发布。该模型通过搜索技术改进语言模型,基于一个 2 万亿 token 组成的数据库进行搜索,达到了近乎 GPT-3 的性能。这些模型的优点是在不增加参数数量的情况下提高了语言模型的性能,并且可以在之后不断添加或替换搜索数据库

b4a3e6b7a97536d7cdd55bb660d0dd9d.png10. “AI 大一统理论”212ac5299a09973d992a1f7668bd34d9.png

最后,让我们谈谈近年来人工智能最重要的趋势——“AI 大统一理论”。2021年,人工智能领域在各种“大整合”。近日,特斯拉 AI 负责人 Andrew Karpathy 发布了一条推文称“AI 空间的持续整合令人惊叹”, 很好地代表了 AI 行业的当前状态:

936dfd6b5b0358a1af8c828083661637.png

Andrew Karpathy 的 Twitter 全文

当我进入 AI 行业时,计算机视觉、语音、自然语言、强化学习等各个领域是完全分开的。那时候很难跨领域地阅读论文。因为方法完全不同,有的方法通常甚至不是基于机器学习的。

在 2010 年代,所有这些领域都开始转变,特别是机器学习和神经网络方面。模型架构或许多种多样,但论文都开始变得越来越相似,所有领域都在用大型数据集,并关注如何优化神经网络。

而从大约两年前开始,各个领域连神经网络架构都开始变得雷同起来——一个 Transformer 足矣(用 pytorch 版本的话,大约 200 行)。Transformer 作为一个强大的 baseline,你可以给它输入单词序列,或者或图像 patch 序列,或演讲语音序列。或者强化学习中的(state, action, reward)序列。任意其他标记统统都可以放入这个简单又灵活的模型框架。

在领域内部,比如 CV 领域,过去在分类、分割、检测、生成方面也存在一些差异,但所有这些也正在转换为相同的框架。现在方法上的区别都主要集中在:

  • 数据

  • 如何将你要解决的任务更好地映射到向量序列,以及如何从向量序列抽取输入/输出规范

  • 位置编码器的类型和任务定制化的注意力机制

因此,即使我是做 CV 的,也不得不开始关注其他领域,因为所有领域 AI 的论文和想法都已变得息息相关。每个人都在使用基本相同的模型,因此大多数改进和想法都可以快速在所有 AI 中快速“复制粘贴”

正如已经有不少人指出的那样,大脑的新皮质在其所有输入模式中也具有高度统一的架构。也许大自然偶然发现了一个非常相似的强大架构,并以类似的方式复制了它,只是改变了一些细节。AI 架构上的这种整合,使我们将更多注意力放在了提升软件、硬件和其他基础设施上,从而进一步加速了人工智能的进步。Anyway,这是个激动人心的时代。

即使基于 CNN 的各种强大模型已经广泛应用于 CV 领域多年。近年来,图像也开始被分割成 patch 喂进了 Transformer。从 Vision TransformersDeiT 开始,Transformer 的浪潮愈加汹涌。类似的想法开始通过 SST 传播到语音领域。SST 将频谱图也拆分为 patch 来分析语音。

在自然语言处理领域,我们如何像 GPT 一样使用 Transformer 来生成和转换新的图像和声音?答案很简单:“将图像和声音等输入转换为离散标记,并使用语言等转换器对标记序列进行建模。”这个框架没有具体的名称,但个人认为会是近两年左右深度学习行业最重要的趋势。

对于这种到离散标记序列的转换,通常使用 VQ-VAE,一种将潜在表达式绑定到离散标记的自解码器 (autoencoder),或者 dVAE (也被称为离散变分自编码器)。这种机制广泛应用于图像生成模型,如 VQGANDALL·ECogViewNÜWA,以及视频生成模型 VideoGPT。在音乐领域,Jukebox 它结合了离散化和 transformer 直接从音频生成音乐。

对输入进行离散标记化,通过屏蔽一部分并从上下文中恢复它可以更容易地学习高质量的表达式。例如自然语言处理领域流行的 BERT 掩码语言模型。使用这种机制,已经提出了用于视觉变换器的类 BERT 预训练模型 BEIT,以及用于视频的类 BERT 模型 VIMPAC

最后,Transformer 的浪潮不仅仅涉及语言、图像和音频等领域。TabTransformerNPT 使用了表格数据的自注意力机制。另外还有推荐系统领域的 Transformer4Rec,以及强化学习领域的 Decision Transformer。

目前,如果是一个可以序列化的任务,并且可以获得足够的(初步的)学习数据,Transformers for Everything 的趋势很可能会继续很长一段时间。Transformer 的霸权还要持续多久,我们拭目以待。

a6c1f4cf97195b5ce489c8f8439b95c3.png后台回复关键词【入群

加入卖萌屋NLP/IR/Rec与求职讨论群

后台回复关键词【顶会

获取ACL、CIKM等各大顶会论文集!

deead512a0186dec3c5cc162a7b30b4c.gif bdb14193103a3f53d9443a1a52e72ad1.png

[1] https://blog.kzakka.com/posts/clip/

[2] https://www.assemblyai.com/blog/pytorch-vs-tensorflow-in-2022/

[3] https://www.reddit.com/r/MachineLearning/comments/rga91a/d_are_you_using_pytorch_or_tensorflow_going_into/

[4] https://arxiv.org/abs/2103.14749

[5] https://arxiv.org/abs/2111.12124

[6] https://arxiv.org/abs/2107.05604

[7] https://arxiv.org/abs/2005.11401

[8] https://arxiv.org/abs/2006.15020

[9] https://arxiv.org/abs/2112.04426

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/477736.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

LeetCode 445. 两数相加 II(链表大数加法)

1. 题目 给定两个非空链表来代表两个非负整数。数字最高位位于链表开始位置。它们的每个节点只存储单个数字。将这两数相加会返回一个新的链表。 你可以假设除了数字 0 之外,这两个数字都不会以零开头。 进阶: 如果输入链表不能修改该如何处理?换句话…

Spring Cloud Alibaba到底坑不坑?

之前我发过一篇《说说我为什么看好Spring Cloud Alibaba》,然后这两天有网友给我转了这篇文章《坑爹项目spring-cloud-alibaba,我们也来一个》,问我的看法是怎么样的,聊天时候简单说了一下。今天在家休息,抽空整理一下…

聚焦信息抽取前沿难题,CCKS-千言通用信息抽取竞赛报名启动

转载公众号 | 百度NLP信息抽取旨在将非结构化文本中的信息进行结构化,是自然语言处理的基础技术和重要研究领域,一直受到学术界和工业界广泛关注。传统的信息抽取任务与评测通常针对特定的文本领域和单一的抽取任务,难以评估相关技术与方法在…

我有文章了,但也不想搞学术了

文 | 微调源 | 知乎又到了年底,跟大家简单唠唠2021年的收获(和失去)。在2020年的总结文章里(阿调x2020:爱、学术、钱与系统[1]),我最大的困扰可能是读博一年多却没什么主要成果的痛苦。好消息是…

LeetCode 829. 连续整数求和(数学)

1. 题目 给定一个正整数 N,试求有多少组连续正整数满足所有数字之和为 N? 示例 1: 输入: 5 输出: 2 解释: 5 5 2 3,共有两组连续整数([5],[2,3])求和后为 5。示例 2: 输入: 9 输出: 3 解释: 9 9 4 5 2 3 4示例 3: 输入: 15 输出: 4 解释: 15…

说说我为什么看好Spring Cloud Alibaba

最近对《Spring Cloud Alibaba基础教程》系列的催更比较多,说一下最近的近况:因为打算Spring Boot 2.x一起更新。所以一直在改博客Spring Boot专题页和Git仓库的组织。由于前端技术太过蹩脚,花了不少时间。大家不用担心,这个系列不…

【报名开启】CCKS2022技术评测任务七“化学元素知识图谱构建及应用”

任务描述:随着AI技术的发展和普及,药物研发也逐渐进入到AI时代,擅长处理大数据的AI深度学习技术,就成为近年来大家关注的焦点。化合物的性质预测的主要目的在于及时发现理化性质不达标的化合物,以降低候选化合物进入临…

LeetCode 12/13 罗马数字与整型互转(哈希,贪心)

文章目录1. 罗马数字转整型解题2. 整数转罗马数字解题1. 罗马数字转整型 罗马数字包含以下七种字符: I, V, X, L,C,D 和 M。字符 数值 I 1 V 5 X 10 L 50 …

Facebook 推出多模态通用模型 FLAVA,吊打 CLIP 平均十个点!

文 | 子龙编 | 智商掉了一地厉害了!作者将单一模型运用于三个不同领域的不同任务,结构简单且训练直观,还能有着出色的表现。自Transformer横空出世,从NLP到CV,再到今天的多模态,无数基于Transformer的模型被…

Nacos配置中心原理

动态配置管理是 Nacos 的三大功能之一,通过动态配置服务,我们可以在所有环境中以集中和动态的方式管理所有应用程序或服务的配置信息。 动态配置中心可以实现配置更新时无需重新部署应用程序和服务即可使相应的配置信息生效,这极大了增加了系…

论文浅尝 | AI回答小学科学问题达到人类水平(OpenBookQA)

转载公众号 | 南大Websoft AI能否像人类一样学习掌握科学知识,理解运用常识知识,最终像人类一样参加并通过学科考试?近日,南京大学万维网软件研究组(Websoft)在人工智能评测集OpenBookQA上实现了突破&#…

LeetCode 1003. 检查替换后的词是否有效(栈)

1. 题目 给定有效字符串 “abc”。 对于任何有效的字符串 V,我们可以将 V 分成两个部分 X 和 Y,使得 X Y(X 与 Y 连接)等于 V。(X 或 Y 可以为空。)那么,X “abc” Y 也同样是有效的。 例…

论文浅尝 - IJCAI2022 | 基于自适应虚词增强的小样本逆关系分类

论文作者:窦春柳,天津大学,研究方向:知识图谱论文链接:http://arxiv.org/abs/2204.12111代码地址:https://github.com/DOU123321/FAEA-FSRC摘要小样本关系分类(Few-shot Relations Classificati…

Spring Cloud Alibaba与Spring Boot、Spring Cloud之间不得不说的版本关系

这篇博文是临时增加出来的内容,主要是由于最近连载《Spring Cloud Alibaba基础教程》系列的时候,碰到读者咨询的大量问题中存在一个比较普遍的问题:版本的选择。其实这类问题,在之前写Spring Cloud基础教程的时候,就已…

这个开源数据集要在全球扩大中文NLP影响力,你也能来做贡献!

源 | 机器之心编辑部千言的升级重点聚焦大模型时代的机遇和挑战。「千言」是由百度联合中国计算机学会、中国中文信息学会共同发起的面向自然语言处理的开源数据集项目,旨在推动中文信息处理技术的进步。近日,在 2021 年 12 月 12 日的 WAVE SUMMIT2021 …

LeetCode 676. 实现一个魔法字典(哈希)

1. 题目 实现一个带有buildDict, 以及 search方法的魔法字典。 对于buildDict方法,你将被给定一串不重复的单词来构建一个字典。 对于search方法,你将被给定一个单词,并且判定能否只将这个单词中一个字母换成另一个字母,使得所…

技术动态 | 北大邹磊:图数据库中的子图匹配算法

转载公众号 | DataFunTalk分享嘉宾:邹磊 北京大学 教授编辑整理:xiaomei出品平台:DataFunTalk导读:本次讲座从图数据库中的核心查询算子——子图匹配入题,介绍了图数据库的基本概念、子图匹配的算法,以及在…

Spring Cloud Alibaba基础教程:Nacos的数据持久化

前情回顾: 《Spring Cloud Alibaba基础教程:使用Nacos实现服务注册与发现》《Spring Cloud Alibaba基础教程:支持的几种服务消费方式》《Spring Cloud Alibaba基础教程:使用Nacos作为配置中心》《Spring Cloud Alibaba基础教程&a…

盘点我跳过的科研天坑,进坑就是半年白干

文 | 白鹡鸰 and 小轶 祝大家新年快乐!去年白鹡鸰花了两个月,刷了八千篇Arxiv,结果发现很多论文存在一些比较“基本”的常见问题:研究问题和问题假设存在严重的漏洞,或者缺少充分的相关工作调研,导致所谓的…

LeetCode 553. 最优除法(数学)

1. 题目 给定一组正整数,相邻的整数之间将会进行浮点除法操作。例如, [2,3,4] -> 2 / 3 / 4 。 但是,你可以在任意位置添加任意数目的括号,来改变算数的优先级。你需要找出怎么添加括号,才能得到最大的结果&#…