3月19日下午,计算学部在活动中心320举办了第十五期哈工大计算学部人工智能学科发展论坛(仲荣论坛)。本次论坛的主题为“ChatGPT:技术原理、应用场景和未来趋势”,邀请了复旦大学计算机学院的邱锡鹏教授,新浪微博的张俊林博士,北京智源人工智能研究院的王业全博士,哈工大计算学部的秦兵教授和车万翔教授做专题报告和专题讨论。论坛由哈工大计算学部和科工院交叉科学处联合主办,承办方包括哈工大计算学部社会计算与信息检索研究中心和黑龙江省人工智能头雁团队。校内外相关领域的近三百位专家学者参加本次论坛。本次活动由计算学部张伟男教授和冯骁骋副教授主持。
计算学部主任刘挺教授首先致辞,简要介绍了仲荣论坛的由来,以及之前仲荣论坛围绕人工智能的基础、自然语言生成最新进展、自然语言商业生态、深度学习在计算机视觉领域的发展应用等议题引起了热烈的反响。本次论坛旨在深入探讨ChatGPT的技术基础、广泛应用场景以及潜在的发展趋势,从而推动人工智能与各行业的深度融合。期待促进跨学科的交流与合作,进一步推动人工智能技术在不同领域的广泛应用和创新发展。
邱锡鹏教授作了题为《对话式大型语言模型》的报告。针对ChatGPT进行介绍,以及ChatGPT的三个关键技术:情境学习、思维链和指导学习。接着介绍了对话式大型语言模型的定义,如何构建对话式大型语言模型以及实现对话式大型语言模型的关键步骤:语言模型基座、指令微调和能力强化。最后介绍了大型语言模型对人工智能技术的颠覆性影响以及未来的挑战。
张俊林博士作了题为《大型语言模型的涌现能力:现象与解释》的报告。报告主要分为五个部分:1)介绍了大模型的涌现能力;2)LLM表现出的涌现现象;3)LLM模型规模和涌现能力的关系;4)模型训练中的顿悟现象;5)LLM涌现能力的可能原因分析。并且对涌现能力原因给出一些猜想:1)任务评价指标不够平滑;2)最终任务过于复杂;3)用Grokking来解释涌现。
王业全博士作了题为《语言大模型前沿进展》的报告。本次报告围绕三个方面展开:1)介绍智源研究院的基本情况;2)介绍ChatGPT与悟道2.0;3)介绍悟道3.0的研究进展。介绍了GPT系列模型的迭代发展,讨论了目前ChatGPT存在的问题,在语言理解、生成文本可信度方面仍然存在问题。最后对比介绍了悟道与GPT的异同,并且交代了后续的发展和对模型的改进。提出MSG方法可用于提速较大的生长流程节省预训练成本,并且相比于目前流行的基于Net2Net方法在相同生长流程下具有更好的下游任务性能且不依赖于新结构的参数初始化,可以更灵活的支持后续研究。
车万翔教授作了题为《ChatGPT浅析》的报告。报告首先介绍了自然语言处理的发展历史,预训练语言模型、GPT-3的介绍、知识表示和调用方式的变迁。接着介绍的ChatGPT的发展和关键核心技术。最后讨论了目前大模型的不足,例如事实一致性和逻辑一致性的不足。
随后,特邀嘉宾和线上线下与会人员就ChatGPT的安全隐私问题、国内大模型发展机遇和挑战的进行了热烈探讨,与兄弟院系探讨在人工智能和大规模领域预训练模型等方面的合作方向。