贾珈:自然语言处理中9个不可不知的研究热点(附视频)

2020 年 5 月 23 日上午,在中国中文信息学会青年工作委员会主办、北京智源人工智能研究院和美团点评承办的“ACL-IJCAI-SIGIR 顶级会议论文报告会(AIS 2020)”中,智源青年科学家、清华大学计算机科学技术系博士生导师、长聘副教授贾珈作了题为《NLP in IJCAI 2020》的报告。

 

贾珈,智源青年科学家,清华大学计算机科学技术系担任博士生导师、长聘副教授,中国计算机学会语音对话和听觉专委会秘书长,中国中文信息学会语音专业委员会秘书长,主要负责学会青年工作委员会学生委员工作,主要研究方向为情感计算。

IJCAI是人工智能领域的顶级国际学术会议,在演讲中,贾珈基于IJCAI 2020的录用论文内容,按算法层面和任务层面两个维度,从无监督预训练、跨语言学习、元学习和少样本学习、迁移学习、误差、知识融合、问答、自然语言生成、多模态这九个方面介绍了关于自然语言处理的主要成果和研究趋势。

 

下面是贾珈演讲的精彩要点介绍。

 整理:智源社区 罗丽

一、IJCAI 2020词云图中的NLP热点

 

IJCAI 2020中有80余篇论文和自然语言处理相关,通过对关键词做词云分析,我们可以发现,深度学习在自然语言处理当中仍然占据主导型地位。

       图1:历年IJCAI NLP论文数量及关键词“词云”分析

除了深度学习之外,词云当中还包含2020年的其他研究热点,主要总结为以下四个方面:

(1)生成类的任务,如对话生成、段落生成。

(2)网络结构设计,在网络结构设计当中研究者们非常喜欢用Attention。

(3)实体关系抽取和实体识别,在今年的IJCAI中,实体关系抽取和实体识别被广泛进行相关的研究。

(4)与神经网络结合设计模型框架,越来越多的研究者注重利用知识和神经网络结合的方式来设计自己的模型框架。

接下来,贾珈主要从两个维度(算法层面,任务层面)、九个方面对IJCAI 2020中NLP相关研究进行了总结。

       图2:IJCAI NLP研究中的9个highlights

二、算法层面对NLP的研究总结

1.无监督预训练

预训练语言模型一直是NLP领域的研究热点,它极大地提升了各大NLP任务的性能。

        图3:有关BERT的通用语言模型

图3是在BERT出现后,有关BERT的一系列通用语言模型。在IJCAI 2020中,也有相关工作聚焦到了语言模型的预训练当中,这些预训练的语言模型中,既包含了通用的预训练模型,如EViLBERT模型[1]、AdaBERT模型[2],也包含了某一个特定任务上的预训练模型,如BERT-INT模型[3]、BERT-PLI模型[4]和FinBERT模型[5]。

EViLBERT模型是通过多模态预训练的语言模型淘汰Image caption(图像描述),取得了较好的效果;AdaBERT模型是利用网络结构搜索进行参数压缩,解决BERT耗时长、参数量大的问题;BERT-INT解决知识图谱的对齐问题;BERT-PLI解决的是法律条文检索的问题;FinBERT解决的是金融文本挖掘的问题。

BERT的出现,已经极大地推动了NLP领域的发展,贾珈推测,NLP围绕BERT的相关研究在未来几年主要体现在这两个方面:

   (1)如何加快无监督的语言模型训练过程;

   (2)如何通过减少时间开销,寻找更好的网络结构。

2.跨语言学习

近年来,NLP领域对跨语言学习的研究愈发关注,有着很大的现实需求。在 IJCAI 2020中也涉及到如何解决跨语言的问题,它的意义在于一方面可以促进文化交流,另一方面,也更重要的是,它可以极大地促进NLP技术在大量非英语场景下的部署,包括Word-embedding事例、Unsupervised模型、机器翻译等都是相应的热点。

        图4:跨语言学习的示例

   

图4为跨语言学习的一个示例,通过学习跨语言的Word embedding,跨语言中有相似意义的词包含了相似的向量。

 

在无监督的跨语言模型研究中,跨语言模型的预训练是大家关注的一个热点。在IJCAI2020中,UniTrans[6] 研究了无监督的跨语言实体识别方法,也有研究者探究了跨语言模型中无监督Domain adaptation问题[7]。

 

相比于无监督方法,在跨语言的有关研究中,有监督方法的效果更好,平行语料库在机器翻译等问题上仍至关重要。在IJCAI 2020有监督的跨语言的研究中,有文章探究了用平行语料库生成跨语言复述的问题[8],也就是Bilingual Generation,也有研究用跨语言标注尝试解决语义消息的问题[9]。

 

此外,机器翻译也是跨语言研究的一个重要方向,在IJCAI2020中,共有七篇机器翻译的相关论文。

3.元学习和少样本学习

近年来,Meta-learning(元学习)和Few shot learning(少样本学习)逐渐成为学术界的研究热点,在IJCAI 2020中,主要探究了两种方式在NLP领域的应用,其中Few shot learning在各种分类任务中应用较为广泛,通过Few shot learning,神经网络可以用很少的样本就泛化到新的类别上;而Meta-learning是实现Few shot learning的重要手段,算法以MAML(Model-Agnostic Meta-Learning)为代表。

 

在IJCAI 2020中,也有几篇论文探究了Meta learning和Few shot learning在NLP领域的应用,如:QA via Meta-Learning[10]一文中,作者用Meta learning研究了复杂知识库下的问答模型;在Few shot learning的研究中,有研究者探究了Few shot learning在医学+NLP领域的应用[11],通过Few shot learning技术,可以根据病例对疾病进行分类。

4.迁移学习

迁移学习作为机器学习长期以来的研究热点,在IJCAI2020的研究中很火热。在深度学习流行的今天,如何将已经学习到的知识迁移到已有的领域,尤其是如何将大规模无标注的语料中所包含的知识迁移到各个任务上,受到了研究者的广泛关注。

在迁移学习中,最为典型的模式是预训练+Fine tune,这一模式随着BERT的普及越发地得到了NLP研究者的关注。

另一方面,不同于简单的预训练+Fine tune的模式,很多研究者致力于探索更先进的迁移学习框架,在IJCAI2020中,有研究谈及了阅读理解下的知识迁移[12],还有人研究有关文本风格的迁移[13]。

迁移学习除了任务层面上的迁移,还有数据集层面的迁移(Domain adaptation),在IJCAI 2020中,文章《Domain Adaptation for Semantic Parsing》[14]介绍了语法分析的Domain adaptation,这些研究都是对更先进的框架进行探讨,也值得大家更进一步地跟踪和关注。

5.误差

在NLP领域中,由于数据集不均衡的原因,以及各种各样的固有偏见,会出现各种各样的Bias,比如性别上的Bias和种族上的Bias,如果对这些Bias不加处理便会导致不同群体间的歧视。

       图5:Bias in NLP的示例

以图5为例,当我们对Word embedding(词向量)进行可视化时便会发现,有大量单词的Embedding是和性别有相关性的,例如Brilliant, Genius这样的词汇在Embedding中往往和男性更相关,而Dance和Beautiful等这些词汇一般和女性更相关,如何消除这种bias对NLP算法来说至关重要。

在IJCAI 2020中,有数篇论文和NLP当中的Bias 相关,在论文WEFE[15]中,作者提出了一套测试Word embedding是否Fair的框架,还有一篇则是研究者提出了新的测试方法和测试平台,并对NLP模型中的公平性做出了严格的测试[16]。

6.知识融合

尽管大规模的语料在NLP模型中被广泛使用,但目前NLP研究对大规模语料缺乏结构化的认识,特别是对复杂语言的理解能力,所以近些年来很多研究者开始尝试将知识图谱等结构化的知识融合到自然语言处理的框架中,如ACL 2019中的ERNIE框架[17]。

       

图6:知识融合的示例

图6为ERNIE一文中给出的例子。其中,实线表示现有的知识,红色或绿色的虚线表示从句子中提取的事实,通过结构化知识的融入,对句子中的实体关系抽取可以达到更好地效果。

有很多研究者将聚焦在如何将知识融入到NLP模型中,在IJCAI 2020中,共有10篇相关论文,这10篇文章主要分为两类:

   (1)用知识图谱增强原来的NLP任务的性能。其中:有用知识提升阅读理解的效果[18];有用知识提升QA的效果[19];有关于事件的因果性检测[20];有介绍神经机器翻译[21];有研究对话生成[22]。

   (2)用知识图谱构建、补全和生成知识。在有关知识图谱的构建与补全工作中,Mucko[23]探究了跨模态的知识推理;BERT-INT[24]探究了知识图谱的对齐;TransOMCS[25]则研究了如何生成常识性知识。这些都是IJCAI 2020 在知识图谱的构建和补全方面比较有代表性的工作。

 

三、任务层面对NLP的研究总结

1.问答

近年来,有关QA的研究已经从Simple QA逐渐演化发展为Complex QA。Simple QA可以理解为简单的模式匹配,而Complex QA通常需要推理,甚至多跳推理(Multi-hop reasoning)。在IJCAI 2020中,有三篇论文探究了将知识图谱和QA相结合,以实现更复杂的QA,它们分别是,Mucko[26]、Retrieve, Program, Repeat[27]、和《Formal Query Building with Query Structure Prediction for Complex Question Answering over Knowledge Base》[28],而研究LogiQA[29]和《Two-Phase Hypergraph Based Reasoning with Dynamic Relations for Multi-Hop KBQA》[30]谈及了QA中的推理和多跳推理问题,QA通常还会和其它任务结合,形成多任务框架,以提升多个任务的效果。

在IJCAI2020中,有研究将QA和阅读理解,实体关系抽取结合[31],有将QA和文本生成任务相结合[32],这些都是将Multi-task和QA相结合的比较好的模板研究。

2. 自然语言生成

自然语言生成有着广阔的应用前景,也是近年来的研究热点,而在深度学习普及之前,传统的NLG需要内容规划,信息聚合,语法分析等多个步骤,在GAN,VAE等生成模型,以及Sequence2Sequence,Transformer等序列模型出现后,基于深度学习的自然语言生成得到了长足的发展。

在IJCAI 2020中,有大量的工作聚焦在了NLG这一问题上,共有12篇工作研究了生成问题。这些文章分散在不同的任务、目标生成,比如对话生成[33]、复述生成[34]、答复生成[35]以及法律文本生成[36]和评论生成[37],还有不少研究谈及通用的NLG生成框架,将来可以很好地普适应用于各个任务上。由于预训练模型的快速发展,在IJCAI 2020中,出现了将预训练模型和NLG结合进行的研究ERNIE-GEN[38],也有研究结构化的数据生成文本[39]和利用NLG生成预料Matric平衡语料[40],因此,在NLP中,自然语言生成已经具有全方位的研究,这也体现了在NLP领域中,IJCAI会议的受欢迎程度。

 

3.多模态

多模态(Multi-modality),尤其是将文本和其它的语音、视频、图像的模态相结合,一直以来都是研究的热点话题,也是IJCAI 2020中非常重要的一个研究部分,今年一共有7篇和Multi-modality相关的研究。

视觉问答(Visual Question Answering,VQA)作为研究热点之一,在IJCAI 2020中有4篇论文,分别从知识推理[41]、自监督[42]和网络设计[43]等角度去研究如何通过可视化信息增强QA效果。有研究是通过视频语义推理以达到更好的检索效果[44],还有关于视觉-语音的导航(Navigation)[45],研究通过模型对语言和图像同时进行理解,把语言当中描述的位置以及关键点定位到真实场景图像当中,然后执行相对应的动作,以避免环境造成的bias问题,增加导航鲁棒性。由于BERT的快速发展,IJCAI2020当中,有很多研究和视觉模态结合来做预训练模型,在各项跨模态的任务当中取得了很好的效果。

点击阅读原文,进入智源社区参与更多讨论。

参考文献

[1] Agostina Calabrese, Michele Bevilacqua, Roberto Navigli. EViLBERT: Learning Task-Agnostic Multimodal Sense Embeddings. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp.481-487.

[2] Daoyuan Chen, Yaliang Li, Minghui Qiu, et al. AdaBERT: Task-Adaptive BERT Compression with Differentiable Neural Architecture Search. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 2463-2469.

[3] Xiaobin Tang, Jing Zhang, Bo Chen, et al. BERT-INT: A BERT-based Interaction Model For Knowledge Graph Alignment. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3174-3180.

[4] Yunqiu Shao, Jiaxin Mao, Yiqun Liu, et al. BERT-PLI: Modeling Paragraph-Level Interactions for Legal Case Retrieval. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3501-3507.

[5] Zhuang Liu, Degen Huang, Kaiyu Huang, et al. FinBERT: A Pre-trained Financial Language Representation Model for Financial Text Mining. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Special Track on AI in FinTech. 2021. pp. 4513-4519.

[6] Qianhui Wu, Zijia Lin, Börje F. Karlsson, et al. UniTrans : Unifying Model Transfer and Data Transfer for Cross-Lingual Named Entity Recognition with Unlabeled Data. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3926-3932.

[7] Juntao Li, Ruidan He, Hai Ye, et al. Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language Model. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3672-3678.

[8] Mingtong Liu, Erguang Yang, Deyi Xiong, et al. Exploring Bilingual Parallel Corpora for Syntactically Controllable Paraphrase Generation. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3955-3961.

[9] Edoardo Barba, Luigi Procopio, Niccolò Campolungo, et al. MuLaN: Multilingual Label propagatioN for Word Sense Disambiguation. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3837-3844.

[10] Yuncheng Hua, Yuan-Fang Li, Gholamreza Haffari, et al. Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via Alternate Meta-learning. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3679-3686.  

[11] Congzheng Song, Shanghang Zhang, Najmeh Sadoughi, et al. Generalized Zero-Shot Text Classification for ICD Coding. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 4018-4024.  

[12] Xin Liu, Kai Liu, Xiang Li, et al. An Iterative Multi-Source Mutual Knowledge Transfer Framework for Machine Reading Comprehension. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3794-3800.  

[13] Xiaoyuan Yi, Zhenghao Liu, Wenhao Li, et al. Text Style Transfer via Learning Style Instance Supported Latent Space. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3801-3807.  

[14] Zechang Li, Yuxuan Lai, Yansong Feng, et al. Domain Adaptation for Semantic Parsing. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3723-3729.

[15] Pablo Badilla, Felipe Bravo-Marquez, Jorge Pérez. WEFE: The Word Embeddings Fairness Evaluation Framework. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 430-436.  

[16] Pingchuan Ma, Shuai Wang, Jin Liu. Metamorphic Testing and Certified Mitigation of Fairness Violations in NLP Models. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 458-465.  

[17] Dongling Xiao, Han Zhang, Yukun Li, et al. ERNIE-GEN: An Enhanced Multi-Flow Pre-training and Fine-tuning Framework for Natural Language Generation. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3997-4003.

[18] Xin Liu, Kai Liu, Xiang Li, et al. An Iterative Multi-Source Mutual Knowledge Transfer Framework for Machine Reading Comprehension. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3794-3800.

[19] Yongrui Chen, Huiying Li, Yuncheng Hua, et al. Formal Query Building with Query Structure Prediction for Complex Question Answering over Knowledge Base. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3751-3758.

[20] Jian Liu, Yubo Chen, Jun Zhao. Knowledge Enhanced Event Causality Identification with Mention Masking Generalizations. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3608-3614.  

[21] Yang Zhao, Jiajun Zhang, Yu Zhou, et al. Knowledge Graphs Enhanced Neural Machine Translation. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 4039-4045.  

[22] Sixing Wu, Ying Li, Dawei Zhang, et al. TopicKA: Generating Commonsense Knowledge-Aware Dialogue Responses Towards the Recommended Topic Fact. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3766-3772.

[23] Zihao Zhu, Jing Yu, Yujing Wang, et al. Mucko: Multi-Layer Cross-Modal Knowledge Reasoning for Fact-based Visual Question Answering. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 1097-1103.

[24] Xiaobin Tang, Jing Zhang, Bo Chen, et al. BERT-INT:A BERT-based Interaction Model For Knowledge Graph Alignment. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3174-3180.  

[25] Hongming Zhang, Daniel Khashabi, Yangqiu Song, et al. TransOMCS: From Linguistic Graphs to Commonsense Knowledge. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 4004-4010.

[26] Zihao Zhu, Jing Yu, Yujing Wang, et al. Mucko: Multi-Layer Cross-Modal Knowledge Reasoning for Fact-based Visual Question Answering. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 1097-1103.

[27] Yuncheng Hua, Yuan-Fang Li, Gholamreza Haffari, et al. Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via Alternate Meta-learning. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3679-3686.

[28] Yongrui Chen, Huiying Li, Yuncheng Hua, et al. Formal Query Building with Query Structure Prediction for Complex Question Answering over Knowledge Base. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3751-3758.

[29] Jian Liu, Leyang Cui, Hanmeng Liu, et al. LogiQA: A Challenge Dataset for Machine Reading Comprehension with Logical Reasoning. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3622-3628.

[30] Jiale Han, Bo Cheng, Xu Wang. Two-Phase Hypergraph Based Reasoning with Dynamic Relations for Multi-Hop KBQA. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3615-3621.

[31] Tianyang Zhao, Zhao Yan, Yunbo Cao, et al. Asking Effective and Diverse Questions: A Machine Reading Comprehension based Framework for Joint Entity-Relation Extraction. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3948-3954.

[32] Weijing Huang, Xianfeng Liao, Zhiqiang Xie, et al. Generating Reasonable Legal Text through the Combination of Language Modeling and Question Answering. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3687-3693.

[33] Hengyi Cai, Hongshen Chen, Yonghao Song, et al. Exemplar Guided Neural Dialogue Generation. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3601-3607.  

[34] Mingtong Liu, Erguang Yang, Deyi Xiong, et al. Exploring Bilingual Parallel Corpora for Syntactically Controllable Paraphrase Generation. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3955-3961.

[35] Shifeng Li, Shi Feng, Daling Wang, et al. EmoElicitor: An Open Domain Response Generation Model with User Emotional Reaction Awareness. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3637-3643.

[36] Weijing Huang, Xianfeng Liao, Zhiqiang Xie, et al. Generating Reasonable Legal Text through the Combination of Language Modeling and Question Answering. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3687-3693.

[37] Shijie Yang, Liang Li, Shuhui Wang, et al. A Structured Latent Variable Recurrent Network With Stochastic Attention For Generating Weibo Comments. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3962-3968.

[38]Dongling Xiao, Han Zhang, Yukun Li, et al. ERNIE-GEN: An Enhanced Multi-Flow Pre-training and Fine-tuning Framework for Natural Language Generation. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3997-4003.

[39] Yang Bai, Ziran Li, Ning Ding, et al. Infobox-to-text Generation with Tree-like Planning based Attention Network. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3773-3779.

[40] Yimeng Chen, Yanyan Lan, Ruinbin Xiong, et al. Evaluating Natural Language Generation via Unbalanced Optimal Transport. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 3730-3736.  

[41] Zihao Zhu, Jing Yu, Yujing Wang, et al. Mucko: Multi-Layer Cross-Modal Knowledge Reasoning for Fact-based Visual Question Answering. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 1097-1103.

[42] Xi Zhu, Zhendong Mao, Chunxiao Liu, et al. Overcoming Language Priors with Self-supervised Learning for Visual Question Answering. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 1083-1089.  

[43] Ganchao Tan, Daqing Liu, Meng Wang, et al. Learning to Discretely Compose Reasoning Module Networks for Video Captioning. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 745-752.

[44] Zerun Feng, Zhimin Zeng, Caili Guo, et al. Exploiting Visual Semantic Reasoning for Video-Text Retrieval. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 1005-1011.  

[45] Yubo Zhang, Hao Tan, Mohit Bansal. Diagnosing the Environment Bias in Vision-and-Language Navigation. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence Main track. 2021. pp. 890-897.‍


智源社区
关注 关注
  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
博客
Yoshua Bengio独家专访:我不想把大模型未来押注在Scaling Law上,AGI路上要“注意安全”...
04-17 434
导读漫长的30年间,数度从主流方向的超然出走,是Bengio的制胜秘诀。这种不盲从主流的风格体现在他研究生涯的方方面面。90年代末期,神经网络被打入冷宫,Bengio的论文多次遭拒,连学生们也开始担心,和他一起研究神经网络会导致毕业后找不到工作。“那场有关神经网络的文化沙漠可能‘劝退’了很多研究者,但我有点固执,坚信我们应该坚持下去。”而时过境迁,如今神经网络早已成为主流,审稿人的看法也发生了翻天...
博客
活动报名|ICLR 2024,无需训练,Fast-DetectGPT让检测速度提升340倍,准确率提升 75%...
04-07 23
报告主题:Fast-DetectGPT高效零样本机器生成文本检测报告日期:4月9日(周二)14:30-15:30主题简介:大语言模型如ChatGPT和GPT-4在各个领域对人们的生产和生活带来便利,但其误用也引发了关于虚假新闻、恶意产品评论和剽窃等问题的担忧。本文提出了一种新的文本检测方法——Fast-DetectGPT,无需训练,直接使用开源小语言模型检测各种大语言模型生成的文本内容。Fast-...
博客
活动报名|大模型时代数据的价值与隐私保护
03-26 23
报告主题:大模型时代数据的价值与隐私保护报告日期:3月28日(周四)10:30-11:30主题简介:在大模型的时代,数据的重要性前所未有地凸显出来。本次讲座将关注数据与大模型交互时的两个问题:隐私问题和数据价值评估。具体来说,将分享关于具有差分隐私保证的大模型学习的最新进展,相关技术和理论创新使得我们能够首次成功隐私微调超大模型如GPT-3(175B)。除了关注隐私问题,数据所有者还可能希望公平地...
博客
张宏江:大模型技术发展的八点观察
03-06 68
继ChatGPT之后,Sora模型的出现再次激发了各行各业对AI的热情。面对术语的日新月异,个人和企业应用的纷繁涌现,以及商业模式的持续重构,大模型能够展现出惊人的能力并迅速影响社会,这背后有着更深刻的原因。在近日举办的“亚布力中国企业家论坛年会”上,智源研究院学术顾问委员会主任张宏江发表了闭幕式演讲,分享了他对大模型技术发展的八点观察。第一,大模型取得突破的核心是Scaling Law2017年...
博客
让模型畅所欲言不再Say No丨专访Dolphin开源模型作者Eric Hartford
02-23 861
导读“对不起,作为语言模型,我无法帮助你。”这是一段模型发出的常见回答,也是Eric Hartford 最初想要训练一个未经审查模型(uncensored model)的灵感来源。通过删除数据集中包含“对不起”“作为一个大语言模型”等词的交互案例,他尝试训练模型不要再拒绝回答。Eric认为模型创建者不应将个人价值观内嵌于AI引擎之中,“在模型部署为应用程序之前,正确的做法是将其构建为不可知论,不关...
博客
智源社区2024 AI科研趋势调研开启!参与有礼
01-29 54
智源社区诚挚邀请您参与“2024 AI科研趋势调研”。我们期待社区成员,以及AI领域的专业人士,对AI技术、产品、安全等关键领域的未来趋势和重要问题发表专业见解。问卷填写时间约5分钟,调研结束后,智源社区将联合腾讯科技,为您带来对调研的深度解读。‍‍‍‍本次调研得到了南京航空航天大学李丕绩、零一万物黄文灏、智源研究院杨熙、复旦大学桂韬等技术专家的支持和建议。请您扫描下方二维码,或者点击阅读原文参与...
博客
活动报名|NPHardEval:动态评估大模型推理能力
01-25 63
报告主题:NPHardEval:一个通过计算复杂性评估大型语言模型推理能力的动态基准报告日期:1月30日 (周二)10:30-11:30主题简介:推理能力是当前LLM最重要的特征之一,它也在复杂决策任务中扮演了不可或缺的角色。因此,研究LLM的推理能力至关重要。然而,现有的基准在对LLM的推理能力进行严格评估方面是不充分的。它们也容易过拟合,因为这些公开且静态的基准允许模型可能针对特定基准指标调整...
博客
活动报名|大模型的推理能力究竟由什么决定
01-25 80
报告主题:大模型的推理能力究竟由什么决定报告日期:1月31日(周三)09:30-10:30主题简介:大模型的推理性能究竟由什么决定?以后的研究者如何设计思维链技术才能让大模型推理性能更好的提升?思想链(CoT)对于提高大型语言模型(LLM)的推理能力具有重要意义。然而,CoT 的有效性与提示中推理步骤的长度之间的相关性仍然很大程度上未知。为了阐明这一点,多家研究机构(西北大学、罗格斯大学、利物浦...
博客
600万播放课程导师Jeremy:训练模型是门手艺,实践出真知 丨智源专访
01-25 503
导读近日,智源社区对明星AI教育家、原Kaggle总裁兼首席科学家、fast.ai创始人Jeremy Howard进行专访。本次专访围绕技术普惠、开源与闭源之争、中美差距、AI人才培养等核心议题展开。fast.ai是a16z首批支持的开源项目之一,该课程(https://course.fast.ai)目前已达到600万播放量,谷歌研究总监Peter Norvig曾力荐,“‘深度学习人人可学’是很多...
博客
活动报名:4天达5.9k星多榜单第一,Yann LeCun转发,腾讯开源PhotoMaker,一作李震分享...
01-22 65
报告主题:PhotoMaker,一种高效个性化定制人像照片的文生图模型报告日期:1月22日(本周一) 14:30直播腾讯PhotoMaker是一种高效个性化定制人像照片的文生图模型,发布4天已达5.9k星,Yann LeCun转发「左下角这幅文艺复兴时期的画,是我的最爱」。该工作现已开源,论文一作李震将在1月22日下午14:30在智源社区进行分享,欢迎报名参与讨论。主题简介:在研究界还是企业界主流...
博客
活动报名|AutoAct:探索可自主分化的大模型智能体,浙江大学副教授张宁豫,周五直播...
01-10 116
报告主题:AutoAct:探索可自主分化的大模型智能体报告日期:01月12日(周五) 14:30-15:30主题简介:大模型智能体在人工智能领域已展现出巨大的潜力和强大的能力。目前大多数大模型智能体工作都基于闭源大模型如 ChatGPT 或 GPT-4,而基于开源大模型的智能体大多也需要依靠ChatGPT或GPT-4生成的交互轨迹数据来进微调。本次报告将介绍一种基于自规划(Self-Plan)的智...
博客
活动报名|音频AIGC开源平台,音频生成开源工具包Amphion的歌声转换指南
01-10 70
报告主题:音频生成开源工具包Amphion的歌声转换指南报告日期:01月16日 14:30-15:30主题简介:Amphion是一个集成了语音合成转换、歌声合成转换、音效音乐生成等多功能为一体的音频AIGC开源平台(https://github.com/open-mmlab/Amphion)。在本次报告中,我们将针对于歌声转换(Singing Voice Conversion),介绍该任务的定义、...
博客
活动报名|发挥卓越性能,Diffusion Model扩散模型的可重复性与一致性
01-02 62
报告主题:扩散模型的可重复性与一致性‍报告日期:1月12日(周五)10:30-11:30主题简介:扩散模型作为一种强大的生成模型,在众多应用领域如图像生成、逆向问题解决及文本至图像转换中展现出卓越性能。这些模型通过逆向扩散过程,将随机噪声输入转换成新的数据内容(例如图像)。在本研究中,我们发现了扩散模型相较于大多数其他生成模型所呈现的独特现象,我们称之为“一致性与可重复性”。更具体地,我们的大量实...
博客
活动报名|AGI之路,实现模态大一统的NExT-GPT,轻量级对齐网络,模态切换的指令微调...
01-02 77
报告主题:AGI之路:实现模态大一统的NExT-GPT报告日期:1月5日(周五)14:30-15:30主题简介:近来,多模态大语言模型已经取得了令人振奋的成果。然而,现有多模态大语言模型仍主要集中在对输入端进行多模态理解,而输出端仍受限于文本内容。相较之下,人类在沟通时具备理解和感知各种模态的能力,并能够以灵活的方式输出各类模态的回复。因此,构建能够接受和传递任何模态内容的系统,是实现类人水平的人...
博客
活动报名丨大语言模型能否成为博弈论中的理性玩家?系统性的分析
01-02 78
报告题目:大语言模型能否成为博弈论中的理性玩家?一个系统性的分析报告日期:2024年1月3日(周三)14:30-15:30主题简介:博弈论作为一种分析工具,在社会科学研究中经常被用来分析人类行为。由于大语言模型(LLMs)的行为与人类高度一致,一个有前景的研究方向是在博弈实验中使用LLMs来替代人类,从而促进社会科学领域的研究。然而,尽管对大型语言模型与博弈论的结合进行了大量实证研究,大型语言模型...
博客
活动报名|大模型玩手机?腾讯开源AppAgent,多模态大模型作为智能体的研究与探索...
01-02 139
报告主题:AppAgent,多模态大模型作为智能体的研究与探索报告日期:1月9日(周二)14:30-15:30主题简介:如果将语言大模型比喻成一个能思考能交流的大脑,多模态语言大模型则是给大脑赋予了眼睛,让它能够像人一样看到世界。本次报告我将介绍团队在多模态大模型方向的努力与尝试。包括如何更高效的构建图文大模型训练数据集以及图文大模型的应用。在此次报告中,我将介绍我们团队近期在多模态语言模型方面的...
博客
活动报名:斯坦福&谷歌,视频生成框架WonderJourney,吴佳俊学生俞洪兴分享
12-22 135
报告主题:WonderJourney,创造属于你的开放式三维世界报告日期:12月28日(周四)11:00-12:00主题简介:你是否也曾好奇《爱丽丝梦游仙境》中的种种奇幻经历,但却难以仅从文字或插图中想象?在这次演讲中,我将介绍我们近期的工作,“WonderJourney”。从一张图片或一段文字出发,WonderJourney能合成一系列多样且自然连接的3D场景,让用户能够看到一个独特的“Wond...
博客
活动报名:基于梯度下降的神经网络学习中的不变低维子空间
12-22 68
报告主题:基于梯度下降的神经网络学习中的不变低维子空间报告日期:12月26日(周二)11:00-12:00主题简介:在过去的几年里,梯度下降对于简洁解的隐式偏向是在深度网络训练中广泛研究的现象。在这项工作中,我们首先将焦点缩小到深度线性网络并来研究这一现象。通过我们的分析,在数据具有低维结构时,我们的研究揭示了学习动态中的一个令人惊讶的“简洁法则”。具体而言,我们表明从正交初始化开始的梯度下降的演...
博客
活动报名:EMNLP 2023最佳长论文奖,以标签为锚,从信息流动的视角分析上下文学习...
12-22 67
报告主题:以标签为锚:从信息流动的视角分析上下文学习(EMNLP 2023最佳长论文奖)报告日期:12月26日(周二)14:30-15:30上下文学习是一种在大语言模型时代常用的小样本学习方法。它通过向大语言模型提供示例样本的方式,引导模型完成指定的任务。上下文学习无需参数更新,直观易用,非常契合大语言模型时代的需求。近来,已经有许多工作从不同角度分析了上下文学习。一些工作分析了上下文学习中示例的...
博客
活动报名|“开源版Gemini”——Emu2多模态模型技术详解
12-22 176
根据少量演示和简单指令完成听、说、读、写、画等多模态任务是人类的基本能力。对于AI系统而言,如何利用多模态环境下的各种信息、实现少样本多模态理解与生成是有待攻克的「技术高地」。2023年12月21日,智源研究院开源发布新一代多模态基础模型Emu2,通过大规模自回归生成式多模态预训练,显著推动多模态上下文学习能力的突破。Emu2在少样本多模态理解任务上大幅超越Flamingo-80B、IDEFICS...

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • 源创Talk第1期 | 对话晶泰科技赖力鹏:AI制药独角兽的崛起之路 18426
  • AI 版 Nature Index 排名,两种结果折射中国 AI 实力软肋 13657
  • 《因果科学周刊》第6期:领域自适应 13217
  • IEEE 2021年新增Fellow出炉,70余位华人入选 12390
  • 语音中的 Transformer一文打尽! 11246

分类专栏

  • 智源发布 1篇

最新评论

  • 南京大学俞扬教授:强化学习真实环境不好用?那就模拟器来凑!

    2401_83861945: 表情包表情包表情包表情包

  • 活动报名:LLaVA和LLaVA-Plus视觉指令微调及工具使用构建多模态智能体

    guitar&programmer: 你好,有回放吗?

  • 大模型讲习班丨智源研究员张正:FlagData大模型数据处理工具集

    @SmartSi: 有ppt吗

  • Google DeepMind研究员杨梦娇:基础模型与顺序决策的问题、方法、及应用

    学籍记录卡: 你好,这个还有当时的视频资源吗

  • 图神经网络在生物医药领域的12项研究综述

    2301_77918273: 有没有论文资源文件包?

您愿意向朋友推荐“博客详情页”吗?

  • 强烈不推荐
  • 不推荐
  • 一般般
  • 推荐
  • 强烈推荐
提交

最新文章

  • Yoshua Bengio独家专访:我不想把大模型未来押注在Scaling Law上,AGI路上要“注意安全”...
  • 活动报名|ICLR 2024,无需训练,Fast-DetectGPT让检测速度提升340倍,准确率提升 75%...
  • 活动报名|大模型时代数据的价值与隐私保护
2024年16篇
2023年180篇
2022年237篇
2021年376篇
2020年264篇
2019年69篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

深圳SEO优化公司海南高端网站设计多少钱金华企业网站设计哪家好中卫网站搭建哪家好广元至尊标王哪家好阜新百度竞价包年推广报价沙井seo推荐蚌埠网络推广推荐珠海网站搜索优化报价雅安网站优化报价乌海百度网站优化排名丽水网站搭建哪家好沈阳网络推广哪家好酒泉seo优化多少钱长葛模板网站建设哪家好南京网站优化软件报价怀化企业网站建设多少钱鸡西网站搭建多少钱大鹏网站优化排名哪家好秦皇岛关键词排名公司玉树设计网站多少钱崇左百度关键词包年推广公司衢州网站改版报价孝感seo网站优化多少钱连云港品牌网站设计价格娄底阿里店铺运营报价普洱设计公司网站报价汉中网站优化软件哪家好丽江外贸网站建设公司防城港网站设计模板公司白银网站优化推广公司歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

深圳SEO优化公司 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化