《Datafun2024_张亚峰v.pdf》由会员分享,可在线阅读,更多相关《Datafun2024_张亚峰v.pdf(25页珍藏版)》请在三个皮匠报告上搜索。
1、DataFunConDataFunCon#20242024AIAI大模型技术在知乎搜索大模型技术在知乎搜索等场景的应用等场景的应用张亚峰知乎 算法负责人logoContentsContents目录目录知乎大模型能力建设 AI搜索基于大模型的内容/用户理解AI Embedding 应用于搜索召回排序0101知乎大模型能力建设知乎大模型能力建设 知乎大模型基建-知海图 AI大模型模型基础能力评估:知海图 AI 大模型与 GPT3.5 对比评估,评估结果显示知海图 AI 大模型整体达到 GPT3.5 模型 93.49%的能力,在知识问答方面知海图 AI 大模型表现优于 GPT3.5,达到其 102.
2、93%的水平,在推理能力上,知海图 AI 大模型也达到 GPT3.5 90.80%的水平。通过网信办大模型牌照备案:知海图 AI 大模型在 2023 年 11 月初正式通过国家互联网信息办公室深度合成服务算法备案,具备正式上线和对外提供服务资格。知乎大模型基建-多模态大模型多模态大模型:知乎多模态大模型:知乎&面壁共同开发的面壁共同开发的 MiniCPMMiniCPM-V V 多模态大模型,以多模态大模型,以 2.8B 2.8B 参数量,能够逼近甚至超越其他主流参数量,能够逼近甚至超越其他主流 7B 7B 大模型大模型Clip Clip 模型模型(对比(对比 ChineseClipChines
3、eClip):):base 模型(参数量 82M+60M vs CnClip86M+102M):分类准确率+15.1%(48.3%55.6%),检索召回+10.7%(78.2%86.6%)huge 模型(参数量 602M+338M vs CnClip632M+326M):分类准确率+10.7%(59.6%66.0%),检索召回+10.0%(80.8%88.9%)知乎大模型基建-极致以小博大极致以小博大+高性能低成本高性能低成本MiniCPM-V 2.0 是第一个通过多模态是第一个通过多模态 RLHF 对齐的端侧多模态大模型对齐的端侧多模态大模型该模型在多个主流评测基准上性能超该模型在多个主流评
4、测基准上性能超过了更大参数规模(例如过了更大参数规模(例如 17-34B)的主流模型,场景文字理解能力接近的主流模型,场景文字理解能力接近 Gemini Pro,在在 Object HalBench达到和达到和 GPT-4V 相仿的性能。相仿的性能。可以在移动手机上部署可以在移动手机上部署知乎大模型基建-极致以小博大极致以小博大+高性能低成本高性能低成本MiniCPM-V 2.0 是第一个通过多模态是第一个通过多模态 RLHF 对齐的端侧多模态大模型对齐的端侧多模态大模型该模型在多个主流评测基准上性能超该模型在多个主流评测基准上性能超过了更大参数规模(例如过了更大参数规模(例如 17-34B)
5、的主流模型,场景文字理解能力接近的主流模型,场景文字理解能力接近 Gemini Pro,在在 Object HalBench达到和达到和 GPT-4V 相仿的性能。相仿的性能。可以在移动手机上部署可以在移动手机上部署 MiniCPM:Unveiling the Potential of Small Language Models with Scalable Training Strategies.2024.知乎大模型基建-极致以小博大极致以小博大+高性能低成本高性能低成本MiniCPM-2B-128k:一个小于一个小于 3B 的的 128k 模型模型性能与先进的性能与先进的 7B 参数的模型(
6、如参数的模型(如 LWM-Text-128k 和和 Yi-6B-200k)在综合长文在综合长文本评测集本评测集 InfiniteBench 上相媲美上相媲美知乎大模型基建-极致以小博大极致以小博大+高性能低成本高性能低成本ui-sans-serif每隔每隔8 8个月个月知识密度翻倍知识密度翻倍同等知识量的模型参数量减半同等知识量的模型参数量减半知乎大模型基建-极致以小博大极致以小博大+高性能低成本高性能低成本训练方法的改进是实现训练方法的改进是实现以小博大的以小博大的关键之一关键之一对于不同规模的模型,对于不同规模的模型,最优训练超参最优训练超参数体现出明显差异性数体现出明显差异性合适的合适的