自然语言处理(Nature Language Processing,NLP),是计算机领域与人工智能领域中的一个重要方向。NLP 的主要目标是解决人机对话中的各种困难,让计算机能够理解人类的语言。NLP在发展过程中一共经历了基于规则、基于统计机器学习、基于深度学习三个阶段。随着Transformer、Bert的出现,推动NLP进入到“黄金时代”。针对NLP的各种任务的研究愈发繁荣,大量研究成果不断涌现,NLP在不同行业的应用逐渐深入。

自然语言处理是腾讯 AI Lab 的主要研究方向之一,研究能力也一直处于业界领先水平。总体而言,腾讯 AI Lab 的研究内容囊括从自然语言理解到生成的整个链条,另外还涉及到对 AI 系统可解释性以及算法底层机制等理论研究。相关研究成果也一直在通过研究论文、开放数据集和开源代码的形式向 NLP 及 AI 社区分享。在今年的ACL 2020上,腾讯AI Lab共有20篇论文入选,覆盖对话及文本生成、机器翻译、文本理解三大方向。

为了帮助大家更好地了解和学习腾讯AI Lab在NLP领域的研究进展,智东西公开课邀请腾讯AI Lab开设专场。「腾讯AI Lab专场」的前两讲,将分别由腾讯AI Lab高级研究员李丕绩博士和宋林峰博士进行主讲。

李丕绩博士和宋林峰博士两位腾讯AI Lab高级研究员今年均有论文入选ACL 2020。李丕绩博士作为一作被收录的论文为《Rigid Formats Controlled Text Generation》;宋林峰博士作为一作入选的论文为《Structural Information Preserving for Graph-to-Text Generation》。

9月3日,李丕绩博士将基于入选论文,就《SongNet:格式控制下的文本生成框架》这一主题进行讲解。他将围绕文本生成技术的研究与挑战、基于自回归语言模型的格式控制文本生成框架SongNet,以及诗词生成、歌词创作应用案例展开解读。

李丕绩博士是腾讯AI Lab高级研究员,从事对话系统和文本生成相关的科研和落地相关工作。他主要研究自然语言处理领域的文本摘要、文本生成和对话系统方向,并在相关领域顶级会议和期刊发表多篇论文。同时,李丕绩博士还担任EMNLP 2020 summarization方向的Area Chair,并多次担任ACL,EMNLP,NAACL,NeurIPS,SIGIR,TACL等会议和期刊的PC Member和审稿人。

9月9日,宋林峰博士将就《图到文本生成任务中的通用型图结构信息保存法》这一主题进行直播讲解。他将围绕图到文本生成技术的发展与研究、基于重构图模型的通用型图结构信息保存法和在多类型图到文本生成技术中的应用,进行详细解读。

宋林峰博士是腾讯AI Lab高级研究员,于2019年5月从罗彻斯特大学获得博士学位,师从Daniel Gildea教授。他于2014年从中科院计算所硕士毕业,师从刘群博士。从2013年11月到2014年2月,他简短的以研究助理的身份访问在新加坡SUTD的张岳博士。他曾于2015、2017和2018年暑假在IBM沃森研究院Salim Roukos的团队实习,Mentor是王志国博士。

适合人群

1、从事NLP方向的科研人员和高校老师
2、工业界NLP或机器学习方向的算法工程师和开发者
3、对NLP感兴趣以及相关研究方向的高校学生

入群路径

本次专场我们将设置讨论群,并会邀请讲师入群。加入讨论群,你除了可以免费观看直播、提前获取课件之外,还能直接和讲师认识及交流。当然,你还可以结识更多的技术大牛。

想要加入讨论群的朋友,可以添加小助手小语(ID:hilele20)进行预约,备注“姓名-公司/学校/-职位/专业”的朋友可以优先审核通过哦。