当前位置:首页 > 报告详情

王炳宁-Transformer效率优化.pdf

上传人: 哆哆 编号:630910 2025-04-19 48页 11.94MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
王炳宁,百川智能预训练负责人,博士毕业于中国科学院自动化研究所,主要研究问答系统和大语言模型。历任搜狗、腾讯高级研究员,有着丰富大规模生成式模型经验。主导并发布了如ReCO、ComQA、ChiQA、T2Ranking等大规模中文问答数据,以及Baichuan系列预训练模型。在ACL、SIGIR、AAAI等国际顶级人工智能和自然语言处理会议上以第一作者发表论文11篇,并获得2021年CIKM best paper runner up。博士论文《机器阅读理解关键技术研究》获2019年中国中文信息学会优秀博士论文奖。中国中文信息学会青年工作委员会执行委员。 主要内容概括:王炳宁负责的百川智能在问答系统和大语言模型领域取得了一系列成果,包括发布多个大规模中文问答数据集和Baichuan系列预训练模型,并在国际顶级会议上发表多篇论文。此外,他还探讨了Transformer效率优化的问题,提出了如GQA/MQA、MLA等优化方案,以及在Prefilling和decoding两个阶段的优化策略。
"Transformer效率优化有哪些新方法?" "如何平衡语言模型规模与计算效率?" "GQA/MQA技术在语言模型中应用前景如何?"
客服
商务合作
小程序
服务号
折叠