当前位置:首页 > 报告详情

学生论坛-From MTer to LLMer 一个 NLPer 的十年-中国科学院软件研究所.pdf

上传人: 山海 编号:627115 2025-04-21 21页 2.12MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
陆垚杰在报告中回顾了自己作为自然语言处理(NLP)研究者的十年历程。他首先介绍了自己从机器翻译(MT)转向深度学习在NLP中应用的转变,特别是在神经网络机器翻译(NMT)方面的探索。随后,他谈到了预训练模型(如BERT、ELMo)的出现,并指出大模型时代(LLM)的到来。陆垚杰强调了从特定模型到统一模型的发展,以及从静态词表示到上下文词表示的转变。他提出了自己的研究哲学,包括明确目标、广泛阅读、快速迭代和不断优化。最后,陆垚杰讨论了LLM的知识边界探索,提出了增强模型推理透明性和利用知识图谱的方法。报告以对科研的热情、创新、视野、开放和韧性的总结作为结尾。
"NLP研究中的深度学习如何崛起?" "如何利用预训练模型解决NLP问题?" "大模型时代下的NLP研究有哪些新趋势?"
客服
商务合作
小程序
服务号
折叠