2018年6月9日至10日,中国中文信息学会青年工作委员会与百度公司共同主办了一场高水平的学术交流活动——“AIS2018(ACL、IJCAI、SIGIR)论文预讲会”,在北京圆满举行。此次会议涵盖了十个专题讲座,全面呈现了最新的研究成果。
参会者可通过回复“AIS”获取演讲者的公开PPT。
1. 段超群(哈尔滨工业大学)
段超群同学详细介绍了《注意力融合深度匹配网络在自然语言推理中的应用》。自然语言推理,即判断两个句子之间的语义关系,是一项关键任务。他强调,当前方法在处理词对间的复杂关系和长距离依赖问题时存在不足。为此,段同学提出了一种新型的计算单元结构,包括交叉注意力、融合交叉注意力、自注意力和融合自注意力四个子层。该模型通过引入这些机制,显著提升了对复杂词对关系和长距离依赖问题的处理能力。
2. 韩家龙(腾讯AI Lab)
韩家龙同学探讨了《超文本文档的分布式表示:hyperdoc2vec》。随着互联网的发展,超文本文档的重要性日益凸显。韩家龙介绍了超链接作为区分传统文本和超文本的关键特征,并提出了hyperdoc2vec方法,通过学习文档内部的词以及引用关系,实现对超文本的有效表示。这种方法能够更好地处理新文档和上下文意图敏感问题,适用于多种下游任务。
3. 何志成(南开大学)
何志成同学分享了《基于关系层次嵌入模型的话题标签表示学习:Hashtag2Vec》。在社交网络中,话题标签常用于标注文本内容,以便于检索和推荐。何志成提出了一种结合内容和结构信息的层次嵌入模型,通过学习话题标签、推文和词之间的关系,实现了对话题标签的有效表示。该模型在两个推特数据集上的实验表明,其性能优于其他方法。
4. 蔡祥睿(南开大学)
蔡祥睿同学讲解了《具有时间感知注意力机制的医疗概念嵌入》。他指出,电子医疗记录是医疗分析的核心数据,而现有研究忽视了医疗概念的时间属性。蔡祥睿提出了一种结合时间上下文范围的医疗概念嵌入方法,通过引入注意力机制,使模型能够关注不同时间单元的医疗特征。实验结果表明,该模型在处理大规模时间范围数据时仍能保持良好的性能。
通过本次预讲会,参会者不仅获得了最新的学术成果,还深入了解了如何应对自然语言处理、超文本表示及医疗数据分析中的挑战。希望这些研究能够推动相关领域的进一步发展。