本网讯(文/图 王健)2024年8月6日,应乐山师范学院电子信息与人工智能学院金澎院长邀请,北京大学赵东岩教授来乐山师范学院开展学术讲座,讲座题目为《大规模预训练语言模型及其应用前景》。本次讲座在特教C501举行,金澎院长主持了本次讲座。参加此次讲座的有电子信息与人工智能学院部分教师以及我院指导的西南石油大学读研究生。
金澎首先介绍了赵东岩教授。赵东岩教授是北京大学王选计算机研究所研究员,博士生导师,国务院特殊津贴获得者。主要研究方向为自然语言处理、语义数据管理、智能服务技术。近年来主持科技部AI2030基础研究类项目等国家级项目及课题8项、承担16项;发表学术论文100余篇(包括ACL、AAAI、IJCAI、SIGKDD、SIGIR、SIGMOD、VLDB、TKDE等CCFA类会议和期刊70余篇);授权发明专利23项;先后七次获得国家和省部级奖励,包括2006年度国家科技进步二等奖(排名第一);个人获第十届中国青年科技奖(2007年)和北京市第七届“科技之光”技术创新特别奖等荣誉。
赵东岩教授介绍了大规模预训练模型的由来、应用前景以及未来创新和突破的可能性方向。赵东岩教授提到从Google的BERT和OpenAI的GPT开始,模型的参数量已从最初的1亿增长到现在的千亿甚至万亿级别,发展速度惊人。随着大模型参数量激增,模型性能显著提升,但同时面临数据获取的天花板,以及能耗的现实约束。大模型在对话、知识问答、文本生成等方面取得进步,但存在知识不足、成本高等问题。未来,大模型将作为人类助手,在领域落地、开源生态、小模型优化及多模态探索上发展。在谈及大模型未来发展趋势中,赵东岩教授认为,行业应用是大模型能否持续发展的关键,这需要知识的精准注入;开源模型生态的建立对于构建健康的大模型生态至关重要,有助于打破垄断,促进技术普及,有助于形成一个健康的AI生态系统;“以小为美”是另一趋势,考虑到资源消耗和效率问题,开发高效、高质量的小模型变得尤为重要。此外,建立完善的模型能力评测体系优化,模型结构、计算的轻量化,以及多源实体数据的增强,都是未来研究的热点。
我院从事自然语言处理研究20多年,大模型出现前,就对神经文本生成做了较为深入的研究。目前正在大模型本地化、幻觉缓解、智能体等方面和相关高校、企业展开合作。赵东岩教授是我国著名的自然语言处理专家,通过此次精彩报告,为我们带来了新的观点和思路,促进了学院在大模型方面的研究工作。