2019年07月19日上午9点30分,新加坡A*STAR(Agency for Science, Technology and Research)高性能计算研究所(IHPC)周天异研究员应曹治国教授和肖阳副教授邀请来人工智能与自动化学院做了自然语言处理和机器学习相关研究的学术报告,报告的题目是“迁移学习在序列标注中的应用”。报告会由肖阳副教授主持,学院从事模式识别和机器学习相关研究的老师和学生共20余人参加了报告会。
自然语言处理(NLP)是人工智能和语言学领域的重要分支学科,旨在探讨如何处理及运用自然语言,包含有认知、理解和生成等多方面的步骤。近年来,随着深度学习技术的快速发展,自然语言处理算法的性能也得到了巨大的提升,取得了越来越多的实际应用。现有的深度学习模型往往对训练样本的数量和质量提出了很高的要求。然而,自然语言处理训练样本的标注过程比较复杂,需要具有语言学专业知识的研究人员来完成,成本昂贵。这也给自然语言处理算法的大规模推广造成了极大的困难。针对上述问题,周天异研究员及所属团队提出了一种名为DATNet(Dual Adversarial Transfer Network)的深度迁移学习模型,可以实现不同语言之间的异质信息迁移。DATNet整合了一般化的资源对抗判别器(GRAD)和对抗训练机制,可以有效地应对训练样本不平衡的问题。实验证明,在不引入任何额外手工特征的条件下,DATNet在多个公开数据集上都可以取得业内领先的效果。DATNet的成果已经被自然语言处理领域的顶级会议ACL 2019录用,并将做口头报告。周天异研究员的报告精彩纷呈,会后交流环节也和同学们有很好的互动,与会师生获益良多。
周天异,博士,现为新加坡科技局高性能计算所高级研究员,计算科学研究部负责人,研究方向为机器学习、计算机视觉和自然语言处理。在包括ICML、CVPR、IJCAI、AAAI、ACL、IEEE TIP和IEEE TNNLS在内的国际顶级会议和期刊上发表论文30余篇。获得过ECCV 2016最佳论文提名奖。NIPS 2017最佳审稿人奖。IJCAI研讨会最佳论文奖。目前担任多个国际SCI期刊的副主编或者客座主编其中包括IEEE Access, IET image processing等。