LSTM 为何如此有效?这五个秘密是你要知道的
文本挖掘实操课!手把手教你用文本挖掘剖析54万首诗歌
从发展历史视角解析Transformer:从全连接CNN到Transformer
生成对抗网络(GAN)的数学原理全解
超细节的BERT/Transformer知识点
基于知识引入的情感分析
深度学习中Attention Mechanism详细介绍:原理、分类及应用
融合外部知识的常识问答
张俊林:对比学习「Contrastive Learning」研究进展精要
一文掌握《对比学习(Contrastive Learning)》要旨,详述MoCo和SimCLR算法
人大团队研究:面向文本生成,预训练模型进展梳理
如何解决文本分类中的样本不均衡问题
【Hello NLP】CS224n笔记[7]:整理了12小时,只为让你20分钟搞懂Seq2seq
清华团队让 AI 写诗“更上一层楼”,诗歌图灵测试迷惑近半数玩家
Knowledge In PLM: 语言模型可以作为一种知识库吗?
一文了解预训练语言模型
吊打BERT、GPT、DALL·E,跨模态榜单新霸主诞生!
FAIR研究员:重新思考BatchNorm中的"Batch"
深度学习中的Normalization你懂了多少?一个公式概括其思想与框架
为什么机器学习算法难以优化?一文详解算法优化内部机制
浅谈贝叶斯统计添加链接描述
神经网络中,设计loss function有哪些技巧?
语言模型微调领域有哪些最新进展?一文详解最新趋势
深入理解“预训练”
多样性文本生成任务的研究进展
如何利用多任务学习提升模型性能?
深度学习多目标优化的多个loss应该如何权衡
【CMU博士论文】可控文本生成,附107页pdf与Slides
对比学习有多火?文本聚类都被刷爆了…
预训练语言模型fine-tuning近期进展概述
基于深度学习的文本分类6大算法-原理、结构、论文、源码打包分享
持续更新中……