语言学-计算机科学技术跨学科对话

4月25日下午,外文学院“数据驱动的多语学习者复合语言能力研究”人文社科融合创新团队举办了复旦外文-计算机跨学科对话。此次活动邀请了外文学院、计算机科学与技术学院以及现代语言学研究院的四位应用语言学和自然语言处理领域的专家学者。活动通过本学科重要理论和前沿研究成果的分享以及跨学科的交流互动,探讨了自然语言处理技术与应用语言学研究跨学科融合创新的前景与可能。来自外文学院和现代语言学研究院的近四十名教师、博士后、研究生和本科生参加了活动。


计算机科学与技术学院的张奇教授分享了大模型时代下的危与机。他指出,当前大模型研究仍然属于统计机器学习的范畴,语言模型的训练仍然需要大量标注数据。同时张奇教授也提到,语言模型是否具有真正的推理能力还有待继续研究,在处理分布外数据集方面很困难。

图片


外文学院的郑咏滟教授分享了人类学习多语种的规律。郑咏滟教授指出,同一套概念系统在人脑中会呈现分布式的概念表征。人类学习多语种的机制十分复杂,现有文献中存在四种不同的三语习得假设:累积增进模型,语言地位假说,类型相近模型,手术刀模型,但是并没有充分证据证明究竟哪一种假设最符合实际情况。因此,将机器学习和人类学习多个语言的议题结合起来,有助于推动多语言发展内在机制的理论疆域。

图片


现代语言学研究院青年副研究员桂韬博士介绍了大模型时代下自然语言处理技术的发展历程和应用前景。他从ChatGPT的前世今生讲起,用生动形象的例子和可视化的技术介绍了大语言模型的实现原理以及在当今时代中多学科、多领域的应用可能。

图片


外文学院秦文娟副教授从语言教育研究者的视角切入,分享了外文学院LEAD Lab和计算机学院NLP Lab正在合作开展的有关大模型在二语写作教学中应用的合作项目。在该项目中,来自外文学院十余位本科生和研究生讲参与数据标注工作,而以及来自计算机学院的博士生将负责大模型的训练。这个合作研究项目为进一步落实和深化外文-计算机跨学科融合创新奠定了基础。

图片
图片


此次讲座分享了两个学科的前沿理论和研究成果,包括大模型的认知能力、多语种学习的规律、自然语言处理技术的发展历程和应用前景以及大模型在语言教育场景中的应用。活动不仅为外文学院师生创造了一个了解人工智能前沿技术的机会,更创造了一个跨学科思想交流与科研合作的平台。


Copyright © 2021 复旦大学 版权所有 沪ICP备05013629号