当前位置:首页 > 报告详情

2020年终大会-对话智能:14-1.pdf

上传人: li 编号:29910 2020-12-01 46页 32.96MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文探讨了预训练语言模型是否真正理解语言的问题。作者黄民烈是清华大学计算机系的教授,他提出,尽管预训练语言模型在许多语言任务上表现出色,但它们并不真正理解语言。它们基于统计规律和上下文来生成回答,但缺乏对语言深层含义的理解。 文章指出,模型在处理否定词、频率相关的事实、误导性词汇以及对象属性比较等方面存在困难。例如,当被问及“鸟会飞吗?”时,GPT-3回答“鸟会飞”,但却不知道当被问及“我的脚有几个眼睛?”时,应回答“脚没有眼睛”。 为了解决这些问题,文章提出了一些方法,如增加实体 masking 的概率、改进词-实体对齐、在 Transformer 模型中融入知识图谱等。同时,文章也强调了在评估模型时,需要考虑到模型漂移、数据集漂移和质量漂移等问题。 总之,尽管预训练语言模型在自然语言处理领域取得了显著进展,但它们仍然无法真正理解语言,需要在后续研究和应用中不断改进。
"语言模型真的理解语言吗?" "如何让预训练模型更好地理解语言?" "如何在故事生成中融入常识知识?"
客服
商务合作
小程序
服务号
折叠