谢志鹏老师学术成果荣获多项国际会议奖项!

在人工智能和自然语言处理的领域,创新和突破是推动技术进步的关键。谢志鹏老师团队在这一领域取得了令人瞩目的成就,其学术成果在多个国际会议上获得了高度认可和多个奖项。这些荣誉不仅是对他们辛勤工作和创新精神的肯定,也是对他们在自然语言处理技术发展中所做贡献的认可。


01.LERC-COLING 2024 OUTSTANDING PAPER 

1.1论文标题Discriminative Language Model as Semantic Consistency Scorer for Prompt-based Few-Shot Text Classification

1.2论文作者及链接Zhipeng Xie, Yahe Li

1.3论文简介一种成功的基于提示的微调方法应具备三个先决条件:任务兼容性、输入兼容性和证据丰富性。考虑到这一点,本文设计了一种基于提示的新方法(称为DLM-SCS),该方法利用经过预训练的判别语言模型ELECTRA来区分标记是原始标记还是替换标记。该方法建立在一个直观的理念基础上,即使用真实标签实例化的提示语应比其他使用错误标签的提示语具有更高的语义一致性得分。由于提示语通常由多个部分组成,因此其语义一致性可以相应地分解,这意味着每个部分都能为语义一致性判别提供信息。然后,利用没有引入额外参数的预训练ELECTRA模型来计算每个部分的语义一致性。广泛的实验表明,我们的模型在10个广泛使用的文本分类任务中的表现优于几种最先进的基于提示的一次性方法。

02.ADMA 2024 SPECIAL SESSION BEST PAPER AWARD

2.1论文标题A Chinese Hypernymy Detection Method Cross-Lingually Supervised by English Hypernymies

2.2论文作者及链接Zhipeng Xie, Shui Xie

2.3论文简介上位词在人类认知和自然语言理解的各种应用中起着根本性的作用。在自动上位词检测任务上,监督方法通常优于无监督方法,但它们需要足够多的带注释的上位词作为训练示例,而这在资源匮乏的目标语言中是无法获得的。为了解决这个问题,我们提出了一种神经多示例学习方法来检测资源匮乏的目标语言中的上位词。它以跨语言监督的方式工作,其中带标注的上位词的监督信息来自资源丰富的源语言。通过使用英语作为源语言并以中文为目标语言,实验评估表明,该方法在上位词检测任务上比几种最先进的监督和无监督方法更准确。

03.ICLR 2024 SPOTLIGHT PAPER

3.1论文标题Information Retention via Learning Supplemental Features

3.2论文作者Zhipeng Xie, Yahe Li

3.3论文简介信息瓶颈原理是一种信息论方法,用于学习一种在简洁性和预测能力之间取得平衡的优良表征。这种方法能够减少信息冗余,去除不相关和多余的特征,从而提高模型在特定领域内的泛化能力。然而,在资源有限或领域外的情况下,i.i.d(独立同分布)的假设可能不成立,此时多余的(或冗余的)相关特征可能对模型的主要特征起到补充作用,有助于提高在分布变化的测试数据集上的预测性能。因此,我们提出一种新的方法,不是通过信息瓶颈来压缩输入信息,而是尽可能保留所有相关信息以用于预测。我们设计并实现了一个三阶段的监督学习框架,用于共同学习主要特征和补充特征,从而解除主要特征对补充特征的压制。广泛的实验结果表明,我们的方法学习到的表征在领域内和领域外都展现出良好的泛化能力,尤其是在资源有限的情况下。谢志鹏老师团队的这些成就,不仅展示了他们在人工智能领域的深厚实力,也为自然语言处理技术的发展做出了重要贡献。他们的工作不仅推动了学术界的进步,也为实际应用提供了新的可能性。我们期待团队未来更多的创新成果,继续在人工智能领域引领潮流,为社会带来更多的科技进步和创新解决方案。


友情链接
联系我们
地址: 中国 上海市杨浦区淞沪路2005号复旦大学江湾校区2号交叉学科楼
邮编: 200438
电话: +86-21-31242153
传真: +86-21-31242153
E-mail: dataology@fudan.edu.cn