《久谦:135页ChatGPT纪要分享(135页).pdf》由会员分享,可在线阅读,更多相关《久谦:135页ChatGPT纪要分享(135页).pdf(135页珍藏版)》请在三个皮匠报告上搜索。
1、久谦|服务进步的群体|1 保密 ChatGPT 纪要分享 久谦中台 二三年二月 本纪要仅基于本所迄今为止可获得的信息编写。未经久谦咨询事先书面同意,任何其他人士或实体不得使用本纪要,本纪要亦不能用于任何其他目的。即使在经久谦咨询同意的情况下向任何其他人士或实体披露了本纪要,久谦咨询不会就本纪要的内容对该等其他人士和实体承担任何责任。久谦久谦 久谦|服务进步的群体|2 观点观点总结总结 1 ChatGPT 是社会发展的是社会发展的必然必然结果结果,2030 年数字化劳动力市场规模可达年数字化劳动力市场规模可达 1.73 万亿万亿元元 a ChatGPT 催生路径=社会问题+技术迭代 i 2008
2、 年全球金融危机-云计算产业-人工智能 ii 2020 年全球疫情-经济压力-企业降本增效-加快数字劳动力发展(文字工作者、方案策划师、程序员等)-NLP 技术赋能 b ChatGPT 技术路径=Transformer 结构-1,750 亿参数+巨大算力+单一模型+文字问答 i 冷启动监督策略模型:Transformer-GPT-GPT2-GPT3-ChatGPT ii 训练回报模型:机器学习-人类训练师+人工智能助手-结果以质量排序 iii 使用强化学习策略:随机指令+初始化 PPO 模型参数-更新模型 2 中短期内中短期内 ChatGPT 对产业生态不会带来实质性的颠覆对产业生态不会带来实
3、质性的颠覆,产业链参与者产业链参与者仍有仍有机会机会 a 技术痛点:新数据不友好+预训练模型(数据集积累仅截至 2021 年)i 新数据:未能建立和实时信息的连接 ii 预训练模型:如何保持实时更新 iii 产品体验:未达到理想状态(未必能超越垂直类产品)b 商业痛点:不开源+商业模式不清晰+运营成本高 i To C-To B(微软-应用在 Office 中)ii 潜在广告收入少-短期内无法替代搜索引擎=俱进且并存 iii 开发成本+企业使用成本 3 国内企业的入场机会国内企业的入场机会和发展现状和发展现状 a 大厂:百度-字节-腾讯-阿里-自研趋势 i 百度(文心一言-ERNIEBot):自
4、主研发平台+文心大模型+预训练大模型积累=To B(付费意愿稳定)+To C 产品 ii 字节:AIGC(短视频+图文)-数据+算法=语言处理模型 iii 阿里:AIGC(营销)iv 腾讯:AIGC(广告+社交+游戏)b 小厂:入局机会小,可作为大厂客户接入 i 技术积累薄弱+数据训练基础及经验不足+数据库及人力资源受限 ii 布局大厂下游 To B 应用端产品(需等待大厂开放 B 端应用接入)c 阻力:技术+硬件+政策 i 中美 ChatGPT 发展仍存差距:模型+规模-训练程度-回答的逻辑性+完整度-API 调用-企业生态 ii 芯片:算力瓶颈 iii 监管政策:国内引入 ChatGPT
5、政策尚未完善+规章制度尚未建立 4 产业链机会产业链机会及相关标的及相关标的 a 上游数据处理+下游智能应用 i 数据标注+算力+数据清洗+数据采集 ii 智能客服+聊天机器人 久谦久谦 久谦|服务进步的群体|3 b 计算机:算法+算力+数据 i 算法:科大讯飞、拓尔思(NLP)、海康威视(图像识别)、云从科技(图像识别)、格林深瞳(图像识别)ii 算力:海光信息(DCU)、寒武纪(AI 芯片)、景嘉微(GPU)iii 数据:天瑞声 c 传媒:平台+光模块+运营商 i 平台:中文在线、视觉中国、昆仑万维 ii 光模块:中际旭创(800G 光模块龙头+最早放量+最高份额和订单+股权激励+估值水平
6、较低)iii 中国移动 5 ChatGPT 未来迭代和产业辐射未来迭代和产业辐射 a 基础=纯粹创新精神+长期主义:创新型+投入+决心+顶尖人才储备 b 支点=算力+GPU+商业模式 i 大算力+大模型 ii 芯片:国产化替代 iii 知识定制化:特定领域数据(医疗、司法)iv 产业厂商合作:大公司-训练大模型+小公司-数据收集-商业化 v 产业辐射:数据(收集+处理+清洗)、智能对话(客服、机器人)、创作(素材收集+写作)、虚拟现实、教育 久谦|服务进步的群体|4 目录目录 OpenAI 高管解密 ChatGPT.5 国产 ChatGPT 何时问世?.15 ChatGPT 中美差距究竟有多大
7、.20 如何理解 ChatGPT 的强势出圈和国内发展.22 全面解读 ChatGPT 产业链机会.27 ChatGPT 来龙去脉.33 ChatGPT 学习笔记.35 2023 电子产业展望.41 AIGC 路演纪要.45 AI 或是新年预期差最大的计算机投资主线.47 全球科技创新核心 AI 发展.49 OpenAI 嵌入微软 Office 与 Bing,智能化向 C 端开始渗透.54 从 ChatGPT 热议看大模型潜力.56 AI 产业链研究之 ChatGPT 下游应用和场景商业化广阔.60 ChatGPT 与人形机器人共舞.63 微软新版 Bing 搜索引擎发布会.67 从美国科技巨
8、头财报看 AI 的发展和应用.71 从北美云厂商的 AI 规划看光通信的结构创新.77 从微软和 OpenAI 的合作来梳理 AI 投资逻辑.79 微软公司业绩交流.82 微软公司各业务线情况.85 微软 FY 2023Q2 业绩会.90 平治信息公司走访.93 云从科技走访.95 科大讯飞表现分析.98 科大讯飞 22 年度业绩预告说明会.102 科大讯飞访谈交流.107 拓尔思访谈交流.109 拓尔思 ChatGPT 市场化展望.114 拓尔思 ChatGPT 相关.122 科大讯飞投资价值研究分析与行业前景.127 ChatGPT 与商汤电话会.131 久谦|服务进步的群体|5 Open
9、AI 高管解密高管解密 ChatGPT 访谈日期:访谈日期:2023/2/8 具体内容具体内容 GPT-3 是一种大型语言模型,被训练用来在给定上下文中预测下一个单词,使用是一种大型语言模型,被训练用来在给定上下文中预测下一个单词,使用Transformer 架构架构 1 它很灵活,可以用于翻译、摘要、分类和问答等任务。GPT-3 的优势在于它的简单性和不需要专门训练数据集就能表现良好的能力 2 GPT-3 可以用于翻译任务,方法是提供比如“德语:英语”对的翻译样例(如果是德英翻译),或者像问人一样要求模型翻译给定的句子 3 尽管 GPT-3 主要是在英语数据上训练的,但仍然能够在翻译任务中表
10、现良好,因为它能够通过提供的样例中的模式,并利用自己的一般语言能力产生翻译 a GPT-3 也可以用于摘要和问答等任务。GPT-3 在商业应用中也取得了成功,如文本生成和问答。它明显比早期版本的 GPT(规模)更大、(功能)更强大,训练的数据也更多 b 它被用来生成创意写作任务的起点或变体,如产品描述,并已与 OpenAIAPI 集成,使开发人员更容易使用 c API 允许用户对 GPT-3 进行特定任务的微调,包括设置学习率和数据的过渡次数,以及选择模型大小 4 PeterWelinder 现任 OpenAI 产品与合作伙伴副总裁,负责 GPT-3 的运行和其他业务,在此之前,他曾是 Ope
11、nAI 的研发主管。使用 GPT-3 解决现实世界的问题 Peter,上次我们谈话时,上次我们谈话时,我记得你在我记得你在 OpenAI 做研究,但现在我们发现你是做研究,但现在我们发现你是OpenAI 的产品和合作伙伴关系副总裁,我很好奇这意味着什么?你每天都在做什的产品和合作伙伴关系副总裁,我很好奇这意味着什么?你每天都在做什么?么?1 我今天所做的与我做研究时完全不同,对我来说,做研究一直都是为了解决最困难的问题,以便真正对世界产生某种影响。我个人更倾向于研究的最终目标,而不是研究本身,做研究真的很有趣,你知道,深入研究,探索事物,最后总是有一个目标 2 GPT-3 发生了一件令人兴奋的
12、事情当我开始在 OpenAI 工作时,我做的很多事情都是机器人方面的。对于机器人技术来说,你在实验室里能做的事情和你在现实世界里能做的事情之间还有一些差距。使用 GPT-3,当我们在 GPT-3 中得到第一个结果时,很明显我们有一些东西可以开始应用于现实世界的问题,而不仅仅是做酷炫的演示 a 当我从事机器人工作时,我们最后得到的是一个非常酷的机器人手解魔方的演示,但每个人的家里并不具备部署它的条件 b 即使它足够强大,我也不知道它对解决魔方有多大用处,这是一种非常昂贵的方法。但是有了 GPT-3,我们有了一个语言模型,你现在可以应用它来解决各种不同的问题,从翻译到总结,再到分类和问答等应有尽有
13、,这是一个非常灵久谦|服务进步的群体|6 活的模式 c 所以,我们要做的就是看看这个模型来解决现实世界的问题是否足够好,对我来说,这是一个非常有趣的领域 3 当你拥有这项非常强大的新技术,有可能改变很多事物的工作方式时,这一切都是为了找到合适的方法来解决问题,看看你如何利用你工具箱里的工具来解决这些问题。不同的是,作为研究人员,我所做的是提出正确的基础和正确的方法来衡量进展。当目标非常遥远时,你需要想出这些玩具的方法来评估进展 a 现在,就像客户告诉我们“嘿,我正在尝试将 GPT-3 应用到这个用例中”,但它不起作用或太慢等诸如此类的事情,这些问题要具体得多 b 我的日常,现在更多的是建立一个
14、团队,用我们在 OpenAI 开发的技术来解决这些现实问题 当你将当你将 GPT-3 与其他用于大型语言模型的方法进行比较时,这似乎是一种趋势。与其他用于大型语言模型的方法进行比较时,这似乎是一种趋势。你是否注意到它在工你是否注意到它在工作方式上有哪些关键差异,采取某种方式是否有所不同?作方式上有哪些关键差异,采取某种方式是否有所不同?1 这是一个很好问题,我认为我真正喜欢 GPT-3 的地方,以及我认为它与众不同的主要方式是 GPT-3 所做的一切都非常简单 2 GPT-3 是一个大型语言模型,大型神经网络。它使用的是谷歌几年前推出的一种非常流行的 Transformer 架构,如今,它基本
15、上为所有不同的语言模型提供了支持,而且它也开始进入其他领域,比如计算机视觉等 3 GPT-3 的设置非常简单,它可以有一些上下文,你可以看看文本的历史。如果你正在读一本书,你可以看一页或一段文字,然后它试着预测下一个单词,这就是GPT-3 的训练方式。它只是训练了来自不同来源的大量文本,大部分来自互联网。它只是一遍又一遍地训练,根据它看到的一些单词,预测下一个单词 4 你可以从几个单词开始,但当我们今天训练这些模型时,我们训练它们的数量级是一千或几千个单词,你可以回顾这 1,000 个单词,然后试着预测下一个单词。所以设置非常简单,你只需要在这些庞大的文本数据集上训练它,以便继续预测下一个单词
16、,并在这方面做得非常好 a 我认为 GPT-3 的令人惊讶之处在于,如果你这样做,然后你把模型变得非常大,这让它有巨大的学习能力,然后它就会非常擅长以前你需要专门模型的一系列任务 b 以前如果你想进行翻译,你就需要一种专门翻译的神经网络,或者如果你想做总结,同样,你会以特定的方式设置你的网络,然后只训练它完成总结任务 c 我们在使用 GPT-3 中发现,你实际上在一些基准测试中获得了非常接近最先进的表现,这些基准测试包括总结、翻译、问题回答等等 d 该模型使用的是一个刚刚在互联网上训练过的模型,它不专门执行任何任务,而是能够以与阅读文本相似的方式再现文本。将 GPT-3 应用于翻译任务 实际上
17、,如何将其应用到翻译任务中,你如何把“预测下一个单词”变成一个翻实际上,如何将其应用到翻译任务中,你如何把“预测下一个单词”变成一个翻译?译?1 在很多其他的大型语言模型中,都有一些特定的步骤,你可以对一段文本进行编码。所以你会在神经网络中创建一些表示 久谦|服务进步的群体|7 2 然后你会有一个解码器来接受它,然后用它来写一些句子。例如:如果你做翻译,你会把它编码成某种表示,然后你的神经网络会有一个单独的部分来接受这种表示,并尝试输出你想要的东西,输入可能是一个德语的句子,输出的可能是一个英语的句子,而且,你知道它是专门为此训练的 a 那么对于你的问题,你如何处理 GPT-3 呢?最简单的方
18、法是:你可以提供一些例子,说明翻译可能的样子,仅以纯文本形式,你会写“德语:”和一些德语句子,然后是“英语:”和一些英语句子 b 你可能只提供一个例子,那么这个称为一下(one-shot),你可以提供一些例子,基本上都是“德语或者英语”的一些例子,然后你可以输入你想翻译的新句子,这就是所谓的多下(Few-Shot)训练 3 如果你有几个例子和模型,只要看看它现在在其上下文中看到的模式,它可以产生一个翻译。这是一个非常简单的设置。基本上,我认为告诉 GPT 该做什么的方式有点像你告诉人类做同样的事情。比如,如果我给你写电子邮件,“嘿,Lukas,我想让你翻译一些句子”a 我会告诉你:“请翻译这些
19、句子”,我可能会提供一些例子来让你了解一下它的语气,比如:我想要更正式的翻译,还是更随意的翻译等等,你会发现其中的规律,给你一个德语句子(我不知道你懂不懂德语)你就能把它翻译成英语 b 现在有了我们最新的模型,你甚至不需要提供这些例子,你可以像问人一样问模型,比如,“嘿,把这个句子翻译给我听”,或者“总结一下这篇文章”c 我们刚刚发现,这就是人们想要使用模型的方式。我们让他们做了更多这样的工作,但就是这么简单,你只要告诉它你想做什么,它就会尽最大努力去做 你是主要致力于训练模型使用多种语言你是主要致力于训练模型使用多种语言,还是主要是英语?语料库从何而来?,还是主要是英语?语料库从何而来?1
20、实际上我们做的正好相反。最初,当我们训练 GPT-3 时,我们一致努力不用英语以外的其他语言来训练它。事实证明,即使这些模型是巨大的,在你的数据集组合中也需要权衡取舍 a 如果你先用英语训练它,然后再用其他语言训练它,它在英语任务中表现就不那么好了,最终当我们训练它的时候,我们想看看,它在更通用的能力上能有多好?b 我们不太关心翻译,因此,每当我们输入额外的语言时,这只会以擅长用英语执行其他任务为代价,比如回答问题、总结等等 c 但结果是,即使明确地试图过滤掉大多数其他语言,也可能有一小部分数据是其他语言的。即便如此,该模型在翻译方面还是非常出色,在许多翻译任务中,它接近于最先进的技术 2 我
21、的母语是瑞典语,但我现在已经不会用瑞典语写作了,因为我从来没有这样做过。我现在做的是用英语写它,然后让 GPT-3 来翻译给我,这只是我的观点,它不会变得完美,我需要调试一些东西,但它出奇地好,而且模型中的瑞典训练数据量非常非常少 3 我们一直在不断更新我们的模型,让它们变得越来越好,所以现在我们引入了越来越多的语言数据,因为我们已经找到了如何以更优化的方式进行这些权衡。但是,一开始我们想要的是相反的,我们只是想把英语学好 是预测单词还是一次预测一个字符?这是怎么回事?是预测单词还是一次预测一个字符?这是怎么回事?久谦|服务进步的群体|8 1 都不是,它实际上是在预测一种叫做符号标记(Toke
22、n)的东西,这就像“单词的一部分”也许可以这么想,最常见的英语单词,它们由单个符号标记。我们有大约 50,000 个这样的标记,我们将它们映射到字符序列上,结果就像“hi”或“the”这样的常见单词最终会成为一个标记 2 但如果你有一个更不常见的词,比如“百科全书”之类的,你可能会把它分解成两三个符号,这就像单词片段,只是让这些语言模型更容易、更有效地使用文本 3 原则上,你也可以在字符层面上这么做,但它会变得非常低效,你知道,这就是这个领域可能正在改变的地方,最终,它将不止在字符层面上做到这一点 但我认为这会让学习外语变得非常困难,比如,亚洲语言是不可能的吗?如果他但我认为这会让学习外语变得
23、非常困难,比如,亚洲语言是不可能的吗?如果他们有更多的符号,或者我猜你可能会说,他们已经为你做了标记化,通过使用更多的们有更多的符号,或者我猜你可能会说,他们已经为你做了标记化,通过使用更多的字符来编码更大的含义字符来编码更大的含义 1 是的,训练标记器(Tokenizer)的方式肯定会对不同语言的性能产生影响。通常这两件事分两个不同的步骤进行训练 2 你可以在某些数据语料库上训练你的标记器,然后在其他一些数据集上分别使用该标记器训练你的模型,为了让你的模型真公众号新价值人正擅长不同的语言,你还需要在多种语言上训练该标记器 3 肯定是使用其他语言的成本更高,一个德语单词最终会变成更多的符号,因
24、为我们训练它的次数少得多。而英语非常高效,很多单词都是一个单一的符号,所以这使得它在其他语言上更糟糕,而且更昂贵 我能把一些东西翻译成日语吗?我能把一些东西翻译成日语吗?GPT-3 也能做到吗?也能做到吗?1 是的,我记得我们的一个日本用户的评论,他们非常喜欢使用 GPT-3 在英语和日语之间翻译技术文档,因为他们发现 GPT-3 在技术文档翻译方面比谷歌翻译要好得多。这大概是一年前的事了,谷歌翻译现在可能更好,但根据我们拥有的数据集,这可能只是一个偶然的事情 2 实际上,关于 GPT-3 的翻译功能,真正酷的事情是我们并没有在显式的输入和输出对上训练模型,翻译的文本片段,就像你通常所说的“对
25、齐的文本片段”一样 3 只是看到了很多日本人,它看过很多日本电影,也看过很多英语电影。不知怎么的,通过学习如何预测下一个单词,已经有足够多的小文本、博客文章或其他东西,作者在日语和英语之间切换。可能会对一些句子进行翻译,在那里它找到了映射,然后以某种方式有一个足够好的表示,然后推广到任意的翻译任务 4 对我来说,这太神奇了,它只是通过阅读大量的英语文本,大量的日语文本,然后可能就像在所有的数据中找到一些对齐的对,它就能够进行翻译,这对我来说太疯狂了 真是太神奇了,这种性能与早期版真是太神奇了,这种性能与早期版本的本的 GPT 有明显的不同吗?比如在有明显的不同吗?比如在 GPT-3 中是中是否
26、发生了什么,否发生了什么,OpenAI 认为“好吧,我们可以将其用于现实世界的商业应用”?这认为“好吧,我们可以将其用于现实世界的商业应用”?这是它需要达到的性能水平吗?是它需要达到的性能水平吗?1 是的,我认为 GPT-2 和 GPT-3 之间最大的区别是:它被训练在更多的数据上,它久谦|服务进步的群体|9 是一个更大的模型,大概差了两个数量级。最初的 GPT-2 大约有 15 亿个参数,而 GPT-3 最大的模型有 1,750 亿个参数,它上升了两个数量级,而且由于它是一个更大的模型,它也需要更多的数据 2 令人惊讶的是,这就是从感觉它相当愚笨到可以与之互动的原因,像 GPT-2 有点酷炫
27、,但大多数时候也感觉它非常愚蠢,我认为在 GPT-3 中,它有时会表现得出乎意料的好。不要误解我的意思,GPT-仍然会犯很多愚蠢的错误,但在某些任务上,它可能有 30-50%的时间是正确的,有时甚至更好 a 就好像突然之间在你需要抽样和尝试任务之前,也许每隔 20 次你就会看到一次,“哦,这个看起来不错”。有了 GPT-3,它开始每三次发生一次,或每两次,或每五次发生一次,你会说,“哦,天这实际上是”b 对于诸如总结文本之类的事情,我们有一个例子是用二年级学生的风格总结一段文字,令人难以置信的是,该模型能够简化单词,获得一段文本的要点等等,再说一次,它不是完美的,但它真的很好 3 显然,我们有
28、很多学术基准(academicbenchmarks),你可以运行这些模型,你可以看到它在学术基准上越来越好 4 但当你想要创建一些东西的原型时,这是一种完全不同的感觉,不同的是,现在很容易得到一些运行良好的东西 5 这是为什么我们决定,“嘿,现在它看起来很有用”,GPT-2 看起来没有那么有用,但是 GPT-3 对于所有这些任务,我们觉得“好吧,它已经足够接近最先进的技术了”,如果你有一个专门的模型或其他什么,一个聪明的程序员应该能够将其应用到他们所拥有的任何任务中,这就是我们设置的 API 验证的内容 你真正引以为豪的用例,它到底在哪里起作用?你能不能给我们指出一些地方,你真正引以为豪的用例
29、,它到底在哪里起作用?你能不能给我们指出一些地方,让我们可以在商业环境中与之互动?让我们可以在商业环境中与之互动?1 当然,我认为最让我们感到惊讶的是文案和问题回答,一般来说是创意写作。在文案方面,当时有很多公司开始在我们的平台上进行开发,有些公司像:Copysmith 是第一批;CopyAI;还有 Jarvis还有很多这样的公司。他们的做法非常聪明,因为他们意识到,当你使用 GPT-3 来完成某些任务时,它并不完美 a 时不时的,你可能会得到一些没有意义的东西 b 但如果你在做文案工作,比如你想根据产品的某些属性写一些吸引人的产品描述,比如鞋子,可能是鞋底的类型,颜色,鞋子的一些其他属性,你
30、想写一些真正吸引人的东西,那么作为一个人,你面临的问题是你陷入了某种写作瓶颈,我该从哪里开始呢?c 这些公司开始做的是他们采用 GPT-3,他们用它来生成一些起点或者一些产品描述的变体。你会发现,通常情况下,如果你生成五个这样的例子,其中一个看起来会很好,你可以把它作为你的起点,你可能只是接受它,或者做一些小的调整 d 这几乎是一种帮助人类创造力的方式,你知道吗,我觉得这太酷了 2 作家们会告诉我们,“嘿,我已经试着写这本书半年了,我总是陷入写作瓶颈。然后我开始在使用 GPT-3,现在我花了两周时间完成了整本书。”当你陷入困境时,它可以创造一个有趣的故事情节 a 作为一个有创意的作家,你开始探
31、索,就像“好吧,我没有想过这个角色会往久谦|服务进步的群体|10 这个方向发展,但让我们来探索一下吧”。然后它就变成了一个更有趣、更吸引人的过程 b 这几乎就像一个人,现在我们有一个头脑风暴的合作伙伴,你可以把它应用到所有这些不同的任务上。我觉得非常酷的是,我发现很多公司都在利用这一点,创造你以前做不到的新体验 c 我认为这是非常令人兴奋的。我觉得回答问题也非常酷,但是这个问题出乎我的意料。我认为我们不会预料到这是一个如此大的用例。使用 OpenAIAPI 微调GPT GPT-3 的优点之一似乎是它可以开箱即用。对于一些团队,如果出现问题,他们的优点之一似乎是它可以开箱即用。对于一些团队,如果
32、出现问题,他们会担心该怎么办。我想我很好奇,你通常与公司内部的会担心该怎么办。我想我很好奇,你通常与公司内部的 ML 团队合作,还是更多的工团队合作,还是更多的工程师认为这里的好处是,他们不必弄清楚机器学习是如何工作的,以获得自然语言处程师认为这里的好处是,他们不必弄清楚机器学习是如何工作的,以获得自然语言处理的好处,或者你是否倾向于将其与理的好处,或者你是否倾向于将其与 ML 团队集成到一种更大的团队集成到一种更大的 ML 工作流中?工作流中?1 我得说,这是一种混合,我们有多个机器学习团队。他们已经有了自己的模型,他们会在网上下载模型等等,他们会根据任务对模型进行调整 a 然后他们找到了我
33、们的 API 并开始使用我们的 API 做同样的事情,结果证明你可以从我们的模型中获得更好的性能。就像我们所拥有的最大的模型或最好的模型都没有开源版本,对于很多任务来说,这是最有效的方法 b 但我认为,我们的大多数客户可能更倾向于另一个阵营,即“真正聪明的开发者”。当我说“开发人员”时,这是一个相当广泛的群体 c 从程序员到工程师,从设计师到项目经理。许多人告诉我们 OpenAIAPI 是他们进入编程的原因,因为他们从我们的游乐场得到了非常好的结果,在那里你可以与我们的模型交互 d 他们有了想法,就开始学习如何编码,并接触到像 BubbleIO 之类的无代码工具。这真的降低了障碍,你不必成为一
34、名机器学习专家,也能从这些模型中得到非常好的结果。你只需要善于迭代并弄清楚如何向模型编写指令 2 这有点像每个人都能成为管理者,如果你想让你的员工按照你的想法去完成任务,你就必须给他们很好的指导,这和这些模型非常相似。比如,如果你不明确你的任务,你就会在输出中得到非常高的差异,但是,如果你真的很擅长具体说明,甚至提供几个例子,那么你就会得到非常好的结果 3 这不是一种机器学习技能,这几乎更像是一种任务规范,管理技能,我觉得很多人都能很快学会 4 我真的很兴奋,看到这么多人都能接触到这些模型,以前好像只有机器学习博士学位才能使用 我觉得我听人说过一个叫做“提示工程师(我觉得我听人说过一个叫做“提
35、示工程师(PromptEngineer)”的新角色可能与此)”的新角色可能与此有关,清楚如何提示有关,清楚如何提示 GPT-3 让它做你想让它做的事情让它做你想让它做的事情 1 这个很有趣,因为早期,当我们有第一个版本的 API 时,我们有一个非常聪明的人,他是一位世界知名的作者,也是一个程序员:安德鲁梅恩(AndrewMayne)2 他是该 API 的早期用户之一,他的内部名称是“提示耳语者(PromptWhisperer)”,或“GPT-3 耳语者”,他真的知道如何精心设计提示以久谦|服务进步的群体|11 获得最好的结果 3 因为它是在互联网上训练的,你需要把你的思想放在这样的想法中,“互
36、联网上的文本是如何开始的”,如果你想要一个真正好的食谱,你必须开始用食谱书或美食博客之类的东西来写作,这并不是说你可以让模型做你想让它做的事。我认为,这其中有很大一部分开始是这样的 4 你真的必须善于理解 GPT-3 的复杂性,并设计出真正好的提示 a 在我们推出后的一年半时间里,我们看到人们在这方面有很多困难,所以我们开发了一套新的模型,我们称它为 InstructGPT。这实际上就像前段时间一样,它成为我们 API 中的默认值,我们称其为 InstructGPT 的原因,是因为它只提供说明 b 所以我想说,提示设计现在已经不那么重要了。你可以告诉模型你想让它做什么,并提供一些例子,还有一点
37、关于格式可能会影响你提供示例的方式等等 c GPT-3 在这方面非常强大,但有时它确实有点问题,一些调整很重要。但我想说的是,与一年前相比,现在已经不那么重要了,我的希望是,它变得越来越不重要,而是变得更有互动性 你对模型还启动了微调的功能,这个想法是什么,它在什么地方有用?你对模型还启动了微调的功能,这个想法是什么,它在什么地方有用?1 GPT-3 令人惊讶的是通过零下(zero-shot)就得到了非常好的结果。你只需要提供一个例子,或没有例子,只是说,“嘿,把这个句子从德语翻译成英语”就可以了,或者你提供了几个(few-shot)示例,比如几对德语和英语实例 2 只需几个(few-shot
38、)示例,你就可以得到令人惊讶的好结果。但这实际上意味着准确性是非常依赖于具体任务的,对于一些任务,也许 30%的时间你得到的输出是可以接受的,而对于其他更简单的任务,你可能 70%的时间都能做到 3 当它不是每次都很好时,你必须非常聪明地在你的产品中暴露它。这就是为什么,比如它对很多文案公司都很有效,你可以只提供一些例子,你知道其中至少有一个是好的,这就是用户所需要的。但是通过微调,你能做的基本上你可以自定义你的模型,你可以为它提供更多你希望它执行的输入和输出示例 4 如果你想做翻译,或者如果你想总结文章,你可以提供几百篇已经做过人工编写总结的文章例子,你可以更新 GPT-3 来更好地完成这项
39、任务 5 你不能把所有这些例子都放在你的提示中,提示符的空间有限,但是通过微调,你把这些例子转化为神经网络的连接,转化为神经网络的权重。在某种程度上,你就像有了一个无限的提示,你可以提供尽可能多的例子 6 显然,示例越多,微调所需的时间就越长,成本也就越高。但微调基本上是一个概念,取一堆输入和输出的例子,把它们放入模型中,然后得到一个模型的新版本,该版本非常适合你提供例子的任务 a 事实证明,只需几百个例子,或者大约 100 个例子你就能显着提高准确性 b 我们有很多客户使用过它,就像 KeeperTax 一样,他们正在分析交易以找到这些税收注销之类的东西,他们所做的是提取相关的文本片段,进行
40、分类等等。例如,他们对模型进行微调,并通过微调模型得到了更好的结果。我们在客户身上一再看到这种情况 c 他们可以得到非常好的结果,这些结果通常对于原型来说已经足够好了,但是为了让其达到足够高的精度以将其投入生产通常超过 90%或 95%或 99%,久谦|服务进步的群体|12 使用他们拥有的数据集对模型进行微调,这样一直进行下去 d 这可以让他们比以前启用更多的应用程序。我们只是让这种微调变得很简单 我想对你来说,你们可以调整的参数是什么,因为你描述的方式,听起来好像没我想对你来说,你们可以调整的参数是什么,因为你描述的方式,听起来好像没有任何参数,参数在这里如何参与呢?有任何参数,参数在这里如
41、何参与呢?1 对于你关于参数的问题,我们试图在我们的 API 中使它变得非常简单。我们试着让默认值非常非常好 2 一般来说,你可以通过微调获得非常好的结果,而根本不需要过多地修改参数,但有些参数会有所不同。例如,你可以设置学习率,这是你在每个学习步骤中更新权重的程度 3 你可以设置你想要通过多少次数据的内容,事实证明,如果你把数据调整太多次,你就会对数据集进行过度拟合 4 这些 GPT-3 模型非常大,通常只需要对数据进行 2 到 5 次迭代就能得到非常好的结果,如果你走得更远,你有时会过度拟合。还有更高级的参数,但我有点喜欢玩一点你想训练它的时代数量和他们的学习率,这让你达到了 90%的目的
42、,如果你开始摆弄其他参数,它不会给你更多 这是考虑将参数留给其他人的想法吗,你能从摆弄参数中得到乐趣吗?这是考虑将参数留给其他人的想法吗,你能从摆弄参数中得到乐趣吗?1 说实话,如果这是完全自动的,我会很高兴,也就是说,我们确实有一些更注重研究的客户,他们真的喜欢摆弄,所以我认为我们很难删除它 a 但是,就像我说的,我们有两大阵营的用户:研究人员和开发者,开发者总是告诉我们:“嘿,我只想要一个按钮,我只想要最好的模型出来。”然后很多研究人员想要摆弄更多的参数,我想我们可以长期满足双方的需求 b Boris(Boris 是一个 ML 技术人员),我不知道你把自己归哪一类了,你做了一些惊人的、漂亮
43、的演示,你也喜欢调整参数,我很好奇你使用 GPT-3 模型的经验 c 我当然喜欢有一个好的默认值,因为最初你真的不知道你应该在它上面改变什么,假设你选择了错误的参数,结果什么都没用。可不是什么愉快的经历。所以我喜欢如果你不选择任何东西,它就已经很好了。然后,我真的很喜欢调整参数,看看“好吧,会有什么效果”并试着用直觉来调 2 除了 Peter 提到的参数之外,还有两个参数也让我很感兴趣,你可以决定微调哪个模型,有不同尺寸的模型。如果你使用一个更大的模型,也许你的 API 会慢一点,但是你的效果会更好。也许有时你不需要它,也许有时确实需要,所以我想看看我使用哪种模式的效果 3 我还喜欢看到“我可
44、以给出多少个训练样本”的效果,就像我只给出 20 个样本,而不是 100 或 200 个,因为这样你就能知道我的模型在我开发一个更大的数据集时会变得更好。我喜欢摆弄各种各样的参数,看看基于这些参数能做出什么样的预测 a 对,最后一条,其实非常重要,我认为这是我们一遍又一遍地给人们的最常见的建议之一 b 这就像从一小组例子开始,然后把它翻倍,看看你能得到多少改进。如果你将久谦|服务进步的群体|13 训练数据量翻倍,那么你就会看到错误率的线性改善 c 如果你有 10%的错误率,你把训练数据翻倍,你可能会得到 8%的错误率。然后再翻倍,错误率降至 6%等等 d 如果你能看到这种趋势,那么你就会突然有
45、一种感觉,“就标记更多的数据等等而言,我需要花多少钱才能得到我想要的结果”等等。这是一件非常强大的事情 训练这些模型的结果是否可重现?每次对它进行微调时,有多少可变性?如果你训练这些模型的结果是否可重现?每次对它进行微调时,有多少可变性?如果你对相同的数据进行两次不同的微调,你会得到相同的模型吗?对相同的数据进行两次不同的微调,你会得到相同的模型吗?1 原则上,你可以把它设置成非常可复制的。如果你在同一天训练,基本上你在训练时想要做的是,在每次训练迭代中,你有一批数据 2 比如一些例子,你实际上可以把 API 设置批量大小,每次更新需要多少个示例。我认为它默认是 32 或类似的东西,当你这样做
46、时,你还希望对数据进行随机排序 3 你希望对训练数据进行随机抽样。只要你在训练中保持这些随机化一致,你最终会得到相同的模型。这将是相当可复制的。唯一需要注意的是 4 在实践中,即使是推论,这也是正确的。我们有一个叫做温度(Temperature)的参数,你可以设置输出的可变性。温度越高,变异性就越大,即使你把值设为0 也不能保证你会得到完全确定的输出 a 在这些大型模型的 GPU 中,有足够多的噪音和一些奇怪的浮点运算等等,都很难保证完全确定性的决定 b 很多人问我们这个问题,答案总是这样,“很不幸,我们不能提供这个,但你可以得到一些公平的东西。”但是你应该让你的实验足够强大,这样你就不用太在
47、意决定论了。OpenAIAPI 背后的工程挑战 我认为,从操作上讲,让每个人都有自己的微调我认为,从操作上讲,让每个人都有自己的微调模型比每个人都使用符合相同模模型比每个人都使用符合相同模型的型的 API 在基础设施方面面临的挑战要大得多。允许这种情况发生是一项艰巨的任务在基础设施方面面临的挑战要大得多。允许这种情况发生是一项艰巨的任务吗?比如,当人们开始使用不同的模型时,你需要换入和换出不同的模型吗?吗?比如,当人们开始使用不同的模型时,你需要换入和换出不同的模型吗?1 刚开始的时候,我们做微调的方式基本上是在某种程度上。你几乎租了一组运行模型的 GPU,在某种程度上,对于一些最早期的微调客
48、户 2 我们基本上是按 GPU 小时收费的,比如每小时,他们使用模型的次数。甚至从一开始,我想在推出 API 后的六个月内,我们就有一些精选的客户,他们有微调过的模型和类似的东西,这就是它的工作方式 a 问题是,如果你想尝试一些新的东西,GPU 的时间是很昂贵的。你不会真的想要花钱去保留一个 GPU,哪怕只有不到一个小时,这一切都累积得非常非常快 b 我们只是设定了一个目标说“好吧,一旦你微调了你的模型,你应该立即能够使用那个模型,你只需要为推理时进入它的 token 付钱”,就像无论你在提示符里输入什么 c 要使这种体验真正出色,这无疑是一个巨大的工程挑战。你只需开始微调,当它完成时,得到一
49、个微调的模型名称 3 现在你可以在 API 中使用那个模型来立即得到一个结果,而且你不会按小时或其久谦|服务进步的群体|14 他方式收费,你只会以相同的方式为 API 收费。这真的很棘手,我们在 OpenAI有一个了不起的工程团队,他们真的想出了很多技巧来平衡这些模型的最终位置,并以正确的方式缓存它们等等,以创造一个很棒的体验 a 我很好奇你是对整个模型进行微调,还是只对部分模型进行微调,让它更有效率 b 我们用了很多技巧来实现这一点,我们一直在努力寻找新的方法。如果你想对整个 750 亿个参数模型进行微调,这是有挑战的。它可能会变得非常昂贵和困难等等,有一些技巧可以让它更快 你觉得你和所有使
50、用你觉得你和所有使用 GPT-3 进行自然语言任务的每个人之间的区别是模型本身的进行自然语言任务的每个人之间的区别是模型本身的质量和性能吗?还是其他原因?是关于集成,还是生产中的监控,或者类似的东西?质量和性能吗?还是其他原因?是关于集成,还是生产中的监控,或者类似的东西?1 当然,我们在构建 API 时所关注的关键事情是最重要的是模型的能力 2 其次,你需要有快速的推理能力。在我们创建 API 之前,对于语言模型,没有人关心推理。每个人都关心你能多快地训练他们,因为这才是最重要的 3 因此,你可以在一天结束时解决基准测试问题。我们做了大量的工程设计来让推理超级超级快。我还记得在最初的几个月里
51、,我们将 API 的第一个原型交付客户开始使用,我们将推理速度提高了 200 倍之类的 a 我们做了很多努力来让它超快。第三件事是围绕安全的事情。我们投资这些InstructGPT 模型的原因之一是,我们看到有时你可以得到出乎意料的模型输出。例如,你可能写了一个非常无辜的句子 b 但由于某些原因,它可能会变得非常黑暗,或者你可能会以不同的方式得到一些有偏见的输出。使用我们的推荐指令的模型,默认情况下,它们的行为更符合预期,但你也可以以更好的方式指定行为 4 事实证明,当安全和能力齐头并进时,当你能更好地控制它时,它就会变成一个更好的产品。这些肯定是我们一直关注的事情,我认为我们在这方面做得比现
52、有的其它替代方案要好得多 5 最后,我们非常关注的事情是让它使用起来非常简单,事实上,你不需要加载模型,你只需要调用一个微调模型,只需要一行 Python 来调用 API,这也是我们的核心,我们希望每个人都能轻松使用它 久谦|服务进步的群体|15 国产国产 ChatGPT 何时问世何时问世?访谈日期:访谈日期:2023/2/7 具体内容具体内容 事件事件 1 根据公开新闻报道,百度对标 ChatGPT 的 AI 产品中文名字叫做文心一言,英文名ERNIEBot,3 月完成测试,对公众开放 2 目前还在做上线前的冲刺,时间有可能提前。百度集团-SW 涨幅超 15%,此外其他百度系公司表现亮眼,应
53、用公司表现亮眼,行情正往两头演绎,优秀的大模型+基于大模型的创新应用场景 国内互联网大厂进度国内互联网大厂进度 1 百度:百度布局较早,有自主研发的深度学习平台,有文心大模型,在预训练大模型方面有不错的积累,在 AI 发展方面把握先机 a 百度的文心大模型具备多功能,可以进行文本生成,内容提取,摘要生成,观点归纳、图片绘画等。和 GPT 很像,一般情况下,AIGC 优先考虑 ToB,再考虑 ToC b 因为 ToB 的商业群体比较稳定,付费意愿也比较稳定。百度计划同时推出 ToB和 ToC 的产品,并先发布 ToC 的 demo 2 字节:已经开始布局,主要是 AI+内容,比如自动生成投稿和辅
54、助写作,在今日头条上利用 AIGC 生产内容,目前 AIGC 整体的生成质量的内容还是较好的,要好于普通的 UGC,但和 PGC 相比还有所欠缺。抖音方面也有应用,通过 AI 的模式来生成短视频,比如一些图文类的短视频的 3 阿里、京东等电商类平台:在智能客服领域有布局,其次是 AI+营销,例如阿里巴巴,可以结合商品,自动生成高质量文案描述商品,提高营销效率 4 腾讯:以广告为主,支持广告智能制作,以 AIGC 技术生成广告文案和视频,降低了制作成本,目前市场规模快速增长,未来 5 年内 AIGC 产生的图片的占比预计会达到 10-30%a 前期可作为 UGC 和 PGC 的辅助,帮助广告主设
55、计文案 b 到后期就是 AI 技术整体的发展,后期可能是有望代替人工的工作 百度百度 ToC 产品的进度如何,使用体验如何?产品的进度如何,使用体验如何?1 百度有文心大模型的基础,去年 ChatGPT 刚发布后,他们基于对话的语料,做了一个类似的新模型,是多轮对话的模型和百度搜索引擎相结合用户问一个问题 AI 会给一个答案,同时搜索引擎会基于这个问题做一些相关的补充,比如答案的来源和链接 2 如果和搜索引擎结合起来后,整体使用效果还是可以的,因为结合后,不涉及到久谦|服务进步的群体|16 特别多轮对话,一般我问一句,它回一句,就结束了。至于多轮对话容易遗忘的问题,可能需要在后续的优化过程中,
56、重点考虑怎么捕捉更远的信息,怎么捕捉用户长期讲话的意图 ChatGPT 会替代传统搜索引擎会替代传统搜索引擎吗吗?1 短期内不太可能取代传统的搜索引擎,ChatGPT 会给出一些看似有道理但实际是错误的回答,可信度不是很高 2 ChatGPT 对于新数据不太友好,未能建立和实时信息的连接,目前预训练模型如何保持实时更新,是一个大问题 3 ChatGPT 的训练成本很高,付费过多,可能用户放弃使用;但不付费,成本压力过大,长期可能在训练成本或者推理成本上都做了比较多的优化以后,再看对搜索引擎的替代 4 可能短期内还不能替代,但长期不好说。至少可以跟百度的模式一样,搞双引擎的模式 国产国产 Cha
57、tGPT 何时问世?除了百度外,国内还有其他公司可以推出类似的产品何时问世?除了百度外,国内还有其他公司可以推出类似的产品吗?国内其他大厂,比如腾讯、字节等,会想着在短时间内做出来类似吗?国内其他大厂,比如腾讯、字节等,会想着在短时间内做出来类似 ChatGPT 的产的产品吗,抢占先机,形成类似微软对谷歌的卡位?品吗,抢占先机,形成类似微软对谷歌的卡位?1 小公司机会比较小,这是一个技术积累的工作,需要有数据训练的基础和经验,需要资源和人力的投入。小厂很难做出来,因为成本太高了 a 小厂更适合去接入这些大厂的模型,成为大厂的客户,然后做这些模型的应用,比如 AI 绘画等,对接 C 端消费者 b
58、 国内的大厂比如字节、腾讯、阿里有机会。字节已经开始在做语言处理模型,目前在数据和算法方面的积累都不差 2 字节其实也要发大力发展搜索,包括培养用户的搜索心智。字节也希望推出新的产品,从而抢占先机,实现它在搜索领域的一个超车。目前字节还处于大模型的训练和调试状态,没有产品的具体规划 3 但如果能做出来,还是对字节搜索领域的地位有积极影响,我认为字节跟百度在搜索领域,会有很多的交叉的冲突,也一直在大力发展搜索领域,所以是有可能做出类似的产品 国内会引入国内会引入 ChatGPT 嘛(考虑到有一些内容指向性的问题)?如果嘛(考虑到有一些内容指向性的问题)?如果 Bing 引入了引入了ChatGPT
59、 对于中国搜素市场的影响?对于中国搜素市场的影响?1 ChatGPT 目前会有一些伦理层面的问题,目前国内的监管政策还不是很全面,相关的法律法规还没有健全,还有很多这种一些细节的东西,短期内我们的规章制度其实也没有覆盖到 2 总的来说,我认为 ChatGPT 的 ToB 端可能会引入,国内的小公司可以应用,目前ChatGPT 的 ToB 端因为成本、优化等问题还没有开放,如果 ChatGPT 的 ToB 端开放,国内的一些小型创业公司可能会接入,并去做下游应用端的产品 久谦|服务进步的群体|17 3 未来接入微软的 Bing 后,其实对搜索是会有一定的冲击的,首先我们考虑一下用户的猎奇心理,肯
60、定会有大量的用户愿意去用 4 能够产生大量 DAU,如果效果是比较好,这些用户是愿意留下来继续使用它的,久而久之其实是会改变到用户的搜索习惯 字节内部目前在类字节内部目前在类 ChatGPT 产品方面的规划?产品方面的规划?1 从我们看字节对搜索的重视程度,搜索现在也是一级部门,对搜索的重视程度很高,因为搜索在现在在抖音、今日头条的重要性上很高,本次也是集合了几个核心的部门,组成小团队来做模型 2 目前来说可能还没有产品的计划,虽然是比百度晚一些,但后续要看产品的效果和用户的体验,先发后发的影响不是很大,需要看后续的发展 谷歌最近在财报上说,他们的谷歌最近在财报上说,他们的 LaMDA 模型可
61、能在近期推出类似模型可能在近期推出类似 ChatGPT 的功能,的功能,如何看待谷歌在语言模型方面的积累?如何看待谷歌在语言模型方面的积累?1 谷歌的技术积累很不错,团队都非常优秀,模型积累很好 2 数据方面,谷歌天然就有很多搜索引擎的数据,算力方面也不用担心,很多技术都是谷歌推行的。相对来说,谷歌研发类似产品的可行性非常大,而且成功概率非常高。而且它的效果也是值得我们期待的。如果效果比 ChatGPT 好的话,那也算一种后发优势 如果未来出现很多的模型,这些模型都基于差不多的数据去训练出来的,又有很如果未来出现很多的模型,这些模型都基于差不多的数据去训练出来的,又有很多应用去基于这些模型去开
62、发不同领域的垂直应用。整个环节的价值量最大的地方会多应用去基于这些模型去开发不同领域的垂直应用。整个环节的价值量最大的地方会不会在公有云跟硬件厂商。因为最后有可能模型会趋于雷同,甚至很多应用程序会被不会在公有云跟硬件厂商。因为最后有可能模型会趋于雷同,甚至很多应用程序会被迅速的抄袭,迅速的雷同化?迅速的抄袭,迅速的雷同化?1 他们肯定是受益者,但这种说法有一个前提,算法是有上限的。但是实际来看,各家公司的算法上限不同,不同的公司,它掌握的能力不一样 2 算法还是有很大的提升空间,我认为不会在短期内趋于雷同。模型的发展的效果。可能是越来越往上的 3 发展的模式也有区别。可能会有一批大的公司搞基础
63、性的模型,比方类似于 GPT这种模型,其实 ChatGPT,它也是 GPT-3.5 的版本上,做了一些微调而做的产品。还有公司做应用层面/垂直赛道的小模型开发。未来是两种发展模式相结合 字节和百度在该方向的算力、数据和人员投入如何?字节和百度在该方向的算力、数据和人员投入如何?1 国内大厂的算力基础都不差。在模型方面,字节在推荐领域也已经有千亿参数的大模型,只是说在应用的领域不同。百度有文心大模型作为基础 2 数据方面,字节也有一些头条和抖音的搜索数据,量级上没有百度搜索的数据量大 3 从投入来看,其实两个公司的投入都非常大。百度把 AIGC 作为一个发展浪潮来追久谦|服务进步的群体|18 赶
64、的,而且搜索是它非常核心的业务场景,所以百度的投入是很大的,而字节,其实切入的稍微有点晚,没有百度那么快。字节把几个最重要的核心部门,联合起来成立专项团队。其实整体上来说投入也还可以 4 所以综合比较,在算力和数据上,字节跟百度的区别可能没有那么大。但在人力投入上,因为搜索是百度的核心业务,百度的整体的投入可能会比字节更大一些 现在现在 ChatGPT 没有对国内开放,国内厂商在中文的领域,相比海外厂商,在用户没有对国内开放,国内厂商在中文的领域,相比海外厂商,在用户体验上能形成一定的或者明显的优势?体验上能形成一定的或者明显的优势?1 我认为语言不是大的壁垒,我认为短期内,ChatGPT 没
65、有向我们大陆开放,我们国内其实是有机会这样做出来产品的,但是想要超越 ChatGPT 的可能性会非常低 2 因为像一些我们的头部大公司,目前来说也还没有推出一款产品,能够跟ChatGPT 的模型的效果能够 PK,所以可能短期来看不大能够超过它 3 但是短期来看,我们可以通过这样的一个时间窗口做逼近它的效果,是国内公司比较好的状态 腾讯和阿里在腾讯和阿里在 AIGC 方面的布局如何?方面的布局如何?1 腾讯和阿里的搜索业务弱一些,不是重点,例如阿里,主要聚焦于电商领域,所以他可能在 ChatGPT 上不会有很多布局,目前阿里主要的发力方向是利用 AIGC 去做 AI+营销,比如赋能商品的文案撰写
66、等,未来阿里可能会继续往这个方向布局 2 腾讯可能在广告、社交、游戏等领域应用 AIGC 技术。比方塑造更广义的互动叙事的品类,带来一些新的社交的玩法和商业模式的新的启发等等 3 总的来说,AIGC 是一波技术浪潮。国内的大厂的看法是要和现有的业务结合起来,实现自身业务更好地发展。而不是只关注 ChatGPT 这一个 AIGC 的细分赛道 可以大概理解成,腾讯和阿里更偏向应用端吗,未来腾讯和阿里的大模型会自研可以大概理解成,腾讯和阿里更偏向应用端吗,未来腾讯和阿里的大模型会自研吗?吗?1 我认为腾讯和阿里的大模型是会有自研的趋势的。像这种大公司,它对专利,包括一些专业的技术积累其实还是比较有讲
67、究的,所以我觉得长期来看,大厂大模型会自研 如果大模型投入使用,对于算力等如果大模型投入使用,对于算力等基础设施的需求会不会是指数级的提升?基础设施的需求会不会是指数级的提升?1 我认为是的,ChatGPT 刚发布的时候,就因为用户访问量过大,算力不足而出现问题。随着用户量级的大规模的上涨,算力的需求确实会呈现一个指数级的上涨 2 至少是非常正相关的,因此推理和训练的资源的开销肯定是非常大的。所以这一块也是优化的重点,就是怎么去让资源尽可能地节省,让整体的一个性能更好地提升 除了除了 GPU,芯片方面还有可以替代的产品吗?,芯片方面还有可以替代的产品吗?久谦|服务进步的群体|19 1 自研芯片
68、,但是目前整体来说目前还没有看到特别好的一个产品 2 采用分布式的 CPU,性能上差一些,但是成本便宜,很适合做推荐算法模型的公司,比如抖音、快手、Tiktok 等都是采用分布式的 CPU 做大模型的基础算力设施 如何去辨别海内外厂商大模型的优劣?如何去辨别海内外厂商大模型的优劣?1 如果我们要评价它的具体的效果,最直接的是人工测评,看下真实的感受和评分。专业角度来讲,我们可以用测试集,分别请求这些模型的 API,基于一些评价指标,去看这些模型的表现如何 2 模型的参数、训练数据可以作为参考的指标。它的模型的参数量级更大,理论上模型的效果应该会更好,但相对片面一些,还是要实际测试和感受后才知道
69、 应用场景的数据,在中国来讲是不是一种比较紧缺的资源。如果是要把模型训练应用场景的数据,在中国来讲是不是一种比较紧缺的资源。如果是要把模型训练好,可能非常依赖这些产业厂商的合作?好,可能非常依赖这些产业厂商的合作?1 特定领域的数据是比较稀缺的,比如医疗、司法等领域,所以可能会生成类似的商业模式 2 可能最后就会形成这种商业模式:大公司负责训练大的基础模型,其他的一些创业型的公司或者一些小公司,在大模型的基础上,加上他们自己特定领域的一些数据集,得到这种新的领域式的模型,来服务于他们自己的一些商业化的计划 3 这种模式下,大厂有钱赚,对于小厂来说,它既能保护到自己的数据的隐私,同时也能够形成这
70、样自己的领域类的商业化的路径 久谦|服务进步的群体|20 ChatGPT 中美差距究竟有多大中美差距究竟有多大 访谈日期:访谈日期:2023/2/5 具体内容具体内容 观点汇总观点汇总 1 一位百度资深人士:他“没有兴趣”谈论 ChatGPT,言语之间,五味杂陈。一位人工智能企业创始人:面对 ChatGPT 的惊艳表现,心痒痒也迷茫,失眠了。他坦承,从模型的规模到效果,差距还比较远 2 国内某厂商的大模型和 ChatGPT:ChatGPT 从回答的逻辑性和完整度上都远超国内大模型,国内大模型的答案带有明显的拼凑感,夹杂着不少主题之外的胡编内容。而且,在回复速度上,ChatGPT 也领先一截 3
71、 从事数字人研发的特看科技 CEO:目前全球还没有能跟 ChatGPT 抗衡的大模型,业界共识是差距在两年以上。国内先不谈弯道超车,趁早追赶反而是更重要的 4 虽然一些人工智能资深人士认为,在 ChatGPT 所涉及的技术上,中美是“平级”的,但华为诺亚方舟实验室语音语义首席科学家刘*,在黄大年茶思屋的讨论中坦承,中国在技术上还是有差距的 a 其中一个是基础模型本身的差距,虽然我们训练了很多万亿模型或者是几千亿的模型,但训练的充分程度,是远远不够的 b“我估计到现在为止,没有哪个模型能吃 GPT 那么多数据。”5 清华大学计算机科学与技术系长聘副教授黄*提到,在 GPT-3 之后,OpenAI
72、 所有的模型都没有开源,但它提供了 API 调用 a 在这个过程中,它干了一件事,就是建立起了真实的用户调用和模型迭代之间的飞轮,它非常重视真实世界数据的调用,以及这些数据对模型的迭代 b 当然,在此过程中,它也养活了美国一大帮创业公司,建立了一个生态 6“你看我们国内的大模型研究,是 A 公司训练了一个,B 公司也训练了一个,打个广告就完了,模型开源,你爱用不用。至少目前还没看到一家比较好的公司,把数据和模型的飞轮完整转起来。所以,我觉得这是我们赶超 ChatGPT 的难点。”一位业内人士坦言 业界人士都提到了算力问题。由于业界人士都提到了算力问题。由于 GPU 芯片等问题,在一定程度上,国
73、内算力已芯片等问题,在一定程度上,国内算力已被卡脖子了被卡脖子了 1 即使国内头部公司,从算力上跟谷歌等相比,差距也是比较明显的。有业内人士称:从数据质量来说,整个互联网的中文数据质量,相比于英文还是有明显差距。“我们可能要想办法,做中英文不同语言之间的数据互补。”2 几乎所有受访人士都提到了 OpenAI 这家人工智能组织,所体现的纯碎创新精神和长期主义 a“其实从原理和方法看,他们所做的东西业界都是了解的,倒没有说什么是美久谦|服务进步的群体|21 国做得了、我们做不了的。”b 但像 OpenAI 和 DeepMind,他们可能是业界唯二的两家机构,无论在创新性、投入、决心,还是在顶尖人才
74、储备上,都是一如既往坚持的 3“我们看到的是成功,但里面可能已经有很多失败的尝试。”有资深 AI 从业者认为,在看不到前景和没有明显效果的阶段,OpenAI 非常坚定地做了投入,相反国内倾向于在技术出现突破后,快速追随。“国内大家第一步想的是,我们现在怎么用起来,但在不能用的时候,人家就在长期投入。”4“这件事其实是值得我们学习的,我们真的需要有足够多的钱,有这么一帮热血的人才,能够在一个方向上这样持续积累发力,我觉得这是一个非常必要的条件。”黄民烈称。最近一段时间,业界也在讨论中国企业能否超越 5 围绕业务,尤其是国内的场景,是有超越机会的。在局部应用中开始超越,这也是业界的共识 久谦|服务
75、进步的群体|22 如何理解如何理解 ChatGPT 的强势出圈和国内发展的强势出圈和国内发展 访谈日期:访谈日期:2023/1/29 具体内容具体内容 ChatGPT 的运作机制、技术原理的运作机制、技术原理 1 ChatGPT 是一个基于语言模型 gpt 模型的一个聊天机器人,它是用我们人工智能的强化学习来进行训练的。它的突破性主要是在于它用了人类的反馈来去训练语言模型 a 通过增加人类的反馈来不断迭代人类的普通的标注,比如人类会对他所有的给出的答案做出标注,哪些答案他的回答是比较好的,就给这样的答案以排名,把这样的排名再给我们的语言模型去进一步学习 b 通过上万次的人类反馈的迭代,就是通过
76、不同的语言内容来去使语言模型去不断训练,直到语言模型回答的内容跟人类想要的内容是保持一致的。这样就形成了 ChatGPT。ChatGPT 它因为是基于 GPT 模型的一个语言模型。我们就要大概的先讲一下 GPT 模型的一个一个来由 2 GPT 模型是一个生成的预训练的 transformer 的模型。transformer 模型是深度学习语言模型的一个基础的框架,是在 2018 年 6 月的时候开始有第一个 gpt 模型 a 从 2018 年 6 月份 OpenAi 提出了第一个 gpt 模型,得出了关键结论就是我们说的 transformer 架构跟预训练模型的结合,就能够产生这种非常强大的
77、语言模型 b 可以实现强大的自然语言理解。也就是从 2018 年的 6 月份开始,这种强大的自然语言理解的模型的这个技术范式开始被确立起来。接着在 2019 年 2 月到2020 年 5 月分别 openAI 分别发布了 gpt2 和 GPT3 c 到 GPT3 的时候已经比 GPT2 大一百倍,它拥有大概 1,750 亿个参数。但是它跟原始的 GBT 模型并没有特别本质的不同,基本原理是大概一致的。但是它的性能比较是它发展的一个瓶颈,因为它的模型特别大 d 在 2020 年 5 月份提到了 GPT3 以后,其实一直以来它大规模的预训练模型已经基本上确立了,直到我们 2022 年 11 月底出
78、来了。ChatGPT 的模型。这一次进行了一个新的更新,特别是发布了它的对话模式的功能,可以放在网站上,让任何人来用对话的形式跟大模型进行交互 3 使得它可以做到回答问题,而也能承认错误,或者是质疑不正确的一些问题,或者是拒绝不恰当的请求等等。这样就形成了一个面向我们 c 端用戶去试用,非常好用的这么一个 ChatGPT 的一个机器人 a 他的工作原理就是他就是用机器学习的算法来分析和理解我们文本输入的一个含义,根据文本输入去生成相应的响应 b 这个模型它是在大量的文本数据上进行训练,并叠加了大量的我们的人类的一些标注的反馈,使得它能够去学习这种自然语言的模式和结构。他是可以模拟对话或者是回答
79、后续问题,承认错误等等 c openAi 为了去创建这么一种强化学习的模型,它一定要去设立一些奖励模型 d 奖励模型就是 openAi 去收集的比较多的数据,招募了很多人类的训练师。在训练的过程当中,人类训练师就扮演了我们用戶和人工智能助手去进行交互的久谦|服务进步的群体|23 这么一个色 4 通过人类训练师对于人工智能助手的交互的数据去标注回答问题好坏的排序,使得 ChatGPT 模型通过不断的跟人类训练师之间进行对话来去,通过对话来去生产数据生产答案。通过对答案的好坏程度的一个排序标注 a 使得这个模型就会根据学习的语料来去进一步的迭代他们。他的回答的一个策略进行数字迭代以后,它的回答的训
80、练的它的质量足以匹配人类的对话的风格 b 所以它的这个技术的创新点主要是在于两大方面,一大方面就是超大规模的预训练模型 transform 模型这么一个技术的一个技术范式,这是一个目前被学术界公认作为最前沿最优秀的一个技术的模式 c 第二大创新点就是在于这种标注训练方式。人类训练师通过不断的 ChatGPT 模型进行对话,去标注,去排序,来使这个模型可以更好的学习到什么样的回答是人类认为比较合理的 d 这两个创新点就使得模型在这一次发展当中有了一个里程碑式的跨越的进展,这是一个 ChatGPT 的运作机制 目前它的制约因素有几个方面目前它的制约因素有几个方面 1 首先是成本过高,有两个方面的成
81、本,一个方面是它的开发成本会比较高,另一方面是我们企业的使用成本会比较高 a 它的开发成本是 GPT 模型它的一个发展历程,从 GPT2 到 GPT3,它的算法模型上、技术上没有太大改变,但是它主要改变了这个模型大小。从 gpt2 的一个 1.17 亿的个参数量,到 gpt3 的一个 1,750 亿的这个参数量,是增加了 1,000倍的参数量 b 预训练的训练数据从我们一开始 gpt2 的 5 个 tb 的训练语料,增加到 GPT3,需要 45 个 tb 这样一个存储量的训练语料。GPT3 训练一次的费用大概是 460 万美元,这是他训练一次的费用 c 它整个 GPT3 的模型的训练的总成本是
82、大概 1,200 万美元。1,200 万美元是GBD3 的一个总训练的成本。所以开发的成本是它的一个主要的槛。它的开发成本非常高 2 第二个方面就是这个模型被训练好之后,对于任何的一个企业来说,它有一个使用的成本。使用成本主要是 ChatGPT 单轮的对话的平均费用大概是在 0.01 美元到0.2 美元之间,根据用戶的使用的并发数不同,成本也不同 a 其次是 ChatGPT 的技术局限性。技术的局限性主要,一个 ChatGPT,它只依赖于它见过的这些训练数据。它不会对一些实时的信息,比如新闻会网络上的一些实时信息来使得他的回答更加的精准 b 所以目前我们在网上能够使用的 ChatGPT 模型,
83、它使用的主要数据是 2021 年之前的,对于这个时间点之后的这个世界的信息,ChatGPT 他了解是非常有限的 c 所以在输出的准确性上也会有所降低。这个第一个局限性就是它不能够与时俱进,很难与时俱进 3 第二个局限性,他的认知也是建立在我们虚拟文本,没有跟我们实时的数据库或者是去信息的连接。比如他很难去回答一些股票今天比如 a 股,它的指数大概是多少这样的非常实时的问题 久谦|服务进步的群体|24 a 所以它会在这种实时性的问题上回答上会出现一些致命的错误,或者是非常不准确的答案 b 是目前这个 ChatGPT 直接使用来说会有的一些局限性。如果是配合国内上一些专业的查询软件去进行二次开发,
84、可能可以有效的解决这方面的一个问题 4 第三方面的局限性就是 ChatGPT 目前的模型训练,它的优化方向是围绕着我们人类的标注去设计优化的,所以有可能会过度的朝着人类认知的方向去优化,这样也会影响 chatGBT 回答的内容的风格 5 这可能是跟相关的人类训练师的一个偏好有关的,有些人类训练师可能是有一些个人的偏好来使得 ChatGPT 的训练可能会朝着那些人类训练师的偏好去有一些偏移,这也是其中的一个局限性 a 比如输入一个涉及 CEO 的提示,可能会得到一个这个人是白人男性的一个回复,目前因为很多人类训练是目前好像是假设这个人是白人男性,是 CEO 的一个概率会比较高 b 所以会产生一些
85、负面不准确的,甚至是有种族倾向,种族歧视倾向的一些内容出来,一些可能是政治敏感,或者是不恰当的一些答案出来 c 这是 GBD 的一些局限性和成本的一个比较高的一个因素,会制约它的目前的发展 未来的发展方向未来的发展方向 1 目前它的商业应用的场景是非常广泛的,只要它能够有效的克服以上提到那些制约因素,它在众多行业上都是可能会产生这种变革性的影响的,特别是在客戶服务、教育、家庭的陪护等等这些领域可能会率先落地 a 今年 2023 年可能是 ChatGPT 非常受关注的一年,也有可能是制约因素逐步被技术所迭代,后续克服的一年。ChatGPT 模型的出现对于这种文字模态的 AI 生成内容的应用也是有
86、非常重要的意义的 b 未来可能会跟这种图像图形的 AI 生成内容的模型相结合,可以使得文字表述到图片生成的这种 AI 创作辅助工具来进行更多应用。或者是能够接受这样使用成本的一些领域可能会率先的去使用 c 根据我目前的了解,目前很多业内的从业者对于 ChatGPT 还是保持一个观望的态度,一方面还是在持续的考量模型的一个回复的准确性 2 以及它在一些领域的适配程度。另一方面很多企业讲应用 ChatGPT 也是会受制于它目前的一个高成本的使用成本,所以在商业化上还是一个比较谨慎的观望态度 a 目前我觉我们觉得 ChatGPT 可能会构建一个新的技术生态,但他目前所学习的还是互联网上公开的知识,他
87、可能还不能解决一些具体行业、企业这些个性化的问题 b 所以还需要企业在这种相关的行业纵深行业细分垂直行业去进行二次的训练,这可能就涉及到很高的二次训练成本。所以可能是需要很多优秀的公司去不断的优化 c 能够提出一些更贴近我们客戶需求的和痛点的一些解决方案产品。比如我们作为这种虚拟人的公司,可以针对政府、企业、医疗、银行等等某个行业当中的企业去单独形成一些垂直化的解决方案 d 利用 ChatGPT 这些技术去进行专业私有化知识的迭代,使得它具备这种解决实际问题的这种能力。可能是 ChatGPT 后面的一个应用方向 久谦|服务进步的群体|25 目前国内相比于我们海外的差距到底有多少?是否有追赶的机
88、会?目前国内相比于我们海外的差距到底有多少?是否有追赶的机会?1 目前国内其实做这种 ChatGPT 类似的公司,也主要集中在大公司,或者是一些有国家政策资金支持的一些机构,学术机构,比如我们的百度,微软小冰 2 再包括阿里还有腾讯可能也在做。主要是这几个大的玩家可能会有成本去训练这么一个 ChatGPT 这样的超大模型,这样的玩家相比于海外的差距,目前还是有一定差距的 3 目前的差距主要集中在我们的预训练模型,它的回复能力确实自然程度上,还有包括回复的专业度上,以及内容的表述方面,相比于国外的 ChatGPT 模型相比还是有一定差距的 a 人主观去体验,还是感觉机器人的感觉会比较强,然后直接
89、体验 ChatGPT 会感觉回答的内容很自然。这是从主观体验上的一个差距 b 从参数量的差距应该是没有什么差距了,目前我们都是千亿规模参数量的这样一个大规模的模型,不管是国外的 ChatGPT 还是国内的百度,还是阿里提出的超大规模预训练模型 4 还是我们清华提出的超大规模的预训练模型,他们的参数量上的差距已经是接近差不多了。所以我们都国内外,国内和国外都具备训练这种超大规模模型参数量模型的能力 a 但是训练方法上可能还有一些技术,我们跟别人还是有一定差距的,所以后面可能主要在于训练方法,还有语料的标注上,可能是可以有更多的这样的语料 b 国外这种英语的语料或者是英语的训练的训练的方法可能跟国
90、内的中文的训练方法不太一样,所以导致我们现在训练的方法,这方面的技术上还是有一定的差距 c 但我认为是有追赶的机会的。只要我们在这个成本足够低,足够可以大规模商业化之前,可以把这些差距给抹平 5 我们在这个成本可以拉到可以降低到可以大规模使用的个时间点的时候,我们也是可以跟海外的这些竞争对手去 PK 的一个机会。目前使用成本还是比较高,所以导致还有一个可以追赶的时间可以让我们国内的这些公司去追赶 什么样的什么样的契机会推动我们国内的发展?主要的参与方是什么?契机会推动我们国内的发展?主要的参与方是什么?1 其实我个人觉得目前我们的一些垂直领域的应用,或者是首先是在一些能够接受如此高昂的使用成本
91、的一些领域,比如我们的金融是不是可以接受 2 或者是在一些政府有相应的预算的情况下,可以让应用可以先落地。落地以后就会产生大量的交互的数据,交互的文本就可以有大量的数据去迭代我们大规模的训练模型,使得它技术可以变得更强 a 同时我们的工程师也可以通过技术的手段去优化迭代它使用的成本,使得使用成本降得足够低以后我们可以大规模的 ToC 商业化 b 这样可能是我们比较好的一个契机。所以是否能够找到一个领域或者一个行业愿意接受如此高的使用成本,可以对他来说是收益高于使用成本的。如果它的收益高于使用成本,它就会大规模的铺开使用 3 当它的收益已经大于它的使用成本的这么一种场景。这样它就会可以大规模的去
92、使用起来,就会有足够多的这样的一个资金或者是训练语料,可以有效的迭代模久谦|服务进步的群体|26 型 a 目前主要的参与方还是几个大公司,百度、腾讯,阿里,还有微软小冰,还有科大讯飞可能也是一家比较大的一个参与方 b 这几家是可以有预训练模型能力的一些参与方。还有一些研究机构,比如清华的研究院,或者清华的相关的人工智能研究所,还有清华智源等等 c 还有一些国内新出现的一些创业公司,他可能会在一些非常垂直的方向去做一些非常垂直落地应用。有可能是创业公司先找到了一些应用使用价值 d 可以覆盖它的使用成本的这么一些垂直领域。可以在这些垂直领域先得到应用,先赚到第一桶金,后续可以逐步的复制到其他领域,
93、这也是非常有可能的 久谦|服务进步的群体|27 全面解读全面解读 ChatGPT 产业链机会产业链机会 访谈日期:访谈日期:2023/1/31 具体内容具体内容 为什么关注为什么关注 ChatGPT?1 2022 年 11 月 30 日,OpenAI 推出人工智能聊天工具 ChatGPT,一周后用户数突破100 万人,月访问量达 2,100 万人次。ChatGPT 的推出,在 IT 产业和资本市场层面均产生巨大的影响 2 在产业层面,搜索引擎巨头忌惮于 ChatGPT 对传统搜索业务的潜在威胁,均做出了积极的应对:谷歌公司要求其多个团队集中精力,解决 ChatGPT 对公司搜索引擎业务构成的威
94、胁;百度预计 3 月推出类似 ChatGPT 的人工智能聊天机器人。而微软计划将 ChatGPT 等工具整合进旗下包括 Bing、Office 在内的所有产品中 3 除此外,ChatGPT 由于其对文字工作者、方案策划师、程序员、客服人员等的工作内容具有替代性,正给产业生态带来深刻影响 4 在资本市场层面,根据华尔街日报消息,OpenAI 目前估值已达 290 亿美元,而BuzzFeed 因采用 ChatGPT 上岗写稿,两天股价涨 3 倍等等。产业与资本市场形成了共振 对对 ChatGPT 的产业观点的产业观点 1 ChatGPT 之所以成为爆款,除了其本身的产品力较强之外,一个比较核心的原
95、因是,在全球经济面临一定压力的背景下,企业降本增效需求尤其迫切,而ChatGPT 等新技术是解决上述需求的最重要路径 2 历史上相类似的,2008 年的全球金融危机,催化了云计算产业的快速发展并逐渐从海外发达国家延展到了国内。因此,在当前,包括 ChatGPT 在内的人工智能产业,由于其对人工的替代潜能可以有效的帮助企业降本增效,因此会反复发酵甚至加速 3 从中短期来看,ChatGPT 对包括搜索引擎巨头在内的产业生态,暂时还不会带来实质性的颠覆,因为目前 ChatGPT 不开源,商业模式不清晰,同时其运营过程又需持续产生高额成本,因此影响了其生态的快速膨胀,这给其他公司会留出应对的时间和空间
96、,也同时为其他的产业链参与者带来了机会 4 ChatGPT 虽然目前技术水平相对其他 AI 聊天工具更高,但仍未达到理想状态,其产品迭代及生态建立仍需一些时间,盈利兑现也需要时间 计算机板块相关标的计算机板块相关标的 1 重点关注科大讯飞,其他标的包括拓尔思、海康威视、云从科技、格林深瞳、海光信息、寒武纪、景嘉微、海天瑞声 2 人工智能细分领域围绕算法、算力、数据三个方向展开,ChatGPT 产业中算法最久谦|服务进步的群体|28 为重要,算力与数据其次 3 算法角度 a 科大讯飞、拓尔思(NLP)、海康威视(图像识别)、云从科技(图像识别)、格林深瞳(图像识别)b 其中,科大讯飞在文本识别、
97、语音识别、语义理解等领域优势明显 4 算力角度 a 海光信息(DCU)、寒武纪(AI 芯片)、景嘉微(GPU)5 数据角度 a 天瑞声(数据标注)b 不同行业也均有相关集成和平台类公司拥有大量的数据资源 对对 ChatGPT 的产业观点的产业观点 1 ChatGPT 在应用层面仍有很大市场空间。OpenAI 的 GPT 系列从 2018 年发展至今,技术迭代速度很快,若后续仍有新突破的产品推出,AIGC 市场商业应用会迎来爆发。从元宇宙角度来看,2022 年 11 月 1 日,VR 产业计划发布后,元宇宙概念掀起热潮 2 苹果 MR 设备若在今年二三季度发布,也会带来元宇宙热潮再次启动。在元宇
98、宙应用中,依靠人力进行内容供给远无法满足应用需求,未来 AIGC 将成为元宇宙应用内容生产主力 传媒板块相关标的传媒板块相关标的 1 中文在线、视觉中国、昆仑万维 a 中文在线在 AIGC 产业有较多布局,可基于不同场景填写关键词与辅助语句形成文字描述辅助人员进行创作 b 视觉中国旗下元视觉网站已推出 AI 作图相关应用,且目前销量可观。同时,其拥有大量图片版权,商业价值较高 c 昆仑万维相较前两个公司市值较大,较早进行 AIGC 布局,天工四大体系布局图片 AI、音乐 AI、文本 AI、编程 AI。且其海外 StarMusic 应用拥有大量用户群体,昆仑万维正探索运用 AI 技术创作原创音乐
99、降低版权费用支出 d 数据要素市场方面,运营商数据量可观,在数据要素市场中可参与较多环节,且配合云计算业务与 IDC 基础设施下沉,竞争力较强 2 光模块方面 a 中际旭创作为 800G 光模块龙头,今年作为国内最早放量标的,拿到最高份额与订单,确定性较强 b 股权激励为其业绩保驾护航,且估值水平较低,团队预测其 2024 年进入 40%增速 3 运营商方面 a 中国移动作为团队连续两个月金股将有机会受益于 ChatGPT 等 AI 新产品发展 久谦|服务进步的群体|29 海外海外 TMT 洪嘉骏对洪嘉骏对 ChatGPT 的产业观点的产业观点 1 ChatGPT 用户定位并非想要寻找最优答案
100、的专家型人群而是 70%-80%的大多数人群,且其商业模式不同于传统搜索引擎的具有多来源出处的搜索模式,因此其模式的潜在广告收入较少,仍具有较大挑战 2 对于谷歌等巨头来说,其在海量搜索次数与算力的基础上发展商业模式只是时间问题,但聊天机器人的产品广告模式及成本问题短期内仍无法拥有较好解决方案,仍需进行继续探索 3 团队认为 ChatGPT 在现阶段算力制约下更为可能走向 ToB 模式。例如,微软将其应用于 Office 等生产力工具场景中。长期来看,虽然 ChatGPT 会有更多商业模式与场景应用,但对于搜索行业格局并不会是颠覆式的,两者将与时俱进且并存 4 AI 计算在过去六七年间,英伟达
101、等 GPU 公司在场景应用上有较大突破,未来在ChatGPT 模型搭建与实际商业化应用方面均需要更新型 AI 降低成本。相关存储板块,商业化之后也会有更大渗透率,突破目前消费电子为主要驱动的周期性瓶颈期 5 对于网络运算、网络通信等方面,以及相关通信公司,ChatGPT 也将深入网络加速等方面,未来商业化后将看到投资机会 6 港股板块上,中文 ChatGPT、语音学习难度大很多,但是当趋势形成,国内龙头将会持续发展储备产品 海外海外 TMT 板块相关标的板块相关标的 1 百度、商汤、腾讯、字节跳动 a 百度最近提出筹备 ChatGPT 相关产品 b 算力方面,商汤本身在超算方面有较好基础 c
102、腾讯搜索业务发展较快 d 字节也在规划突破社交封锁与搜索业务,值得后续关注 ChatGPT 相对于其他竞品来说,主要的创新点和技术壁垒在哪里?相对于其他竞品来说,主要的创新点和技术壁垒在哪里?1 ChatGPT 利用强化学习从人类标注者反馈中学习,可进行问答、阅读理解、头脑风暴等。ChatGPT 关键能力来自于基座模型能力(InstructGPT)2 可真实调动数据并从用户标注中反馈学习。ChatGPT 模型结构与 InstructGPT 几乎相同,InstructGPT 基于 OpenAIGPT-3.5 模型强大的基座能力,其学习主要分为三个阶段:a 第一阶段为冷启动监督策略模型,一开始依靠
103、 GPT-3.5,GPT-3.5 虽然很优秀但不能理解人类不同指令中所蕴含的不同意图,故人类标注员会对测试用户提交的反馈中,对每个询问做出高质量回答,来使 GPT-3.5 模型初步具备理解人类意图的模型能力 b 第二阶段为训练回报模型。训练回报模型依然依靠人工标注数据来训练回报模型,对每各问题所对应的 K 个结果质量进行排序,再通过对比学习方法得到一个激励模型(RewardModel)c 第三阶段为使用强化学习策略来增强模型预训练能力。此阶段不需要人工标注久谦|服务进步的群体|30 数据,使用第二阶段模型打分更新预测结果,使用提问对应的随机指令,运用冷启动模型初始化 PPO 模型参数,进行随机
104、打分,此分数即回答的整体Reward,进而将此 Reward 回传,由此产生的策略梯度可以更新 PPO 模型参数,其创新点在于没有涉及多阶段模型训练任务,一般直接通过监督学习或强化学习。其将多个模型、训练方式累加到一起,通过多个模型作用于一个结果 如何展望如何展望 ChatGPT 商业模式,以及对产业链其他公司的影响?商业模式,以及对产业链其他公司的影响?1 伴随 ChatGPT 继续快速发展,ChatGPT 作为 NLP 的一个基础模型,NLP 领域包括信息抽取、机器翻译、小样本迁移学习等研究方向将会迎来较大发展。上游来看,数据标注、算力、数据清洗、数据采集等行业将面临蓬勃发展。下游来看,智
105、能客服、聊天机器人等应用领域将蓬勃发展 2 目前国内电商等行业智能客服多轮对话能力较差,伴随 ChatGPT 等开放式对话模型升级,智能客服会在人力成本方面有飞跃 3 在写作等创作领域会有较大突破。NovelAI(diffusion)等绘画 AI 可提高平均画作质量且降低了成本 4 ChatGPT 素材收集、润色改写、扩充摘要等服务将使创作效率得到提升,AI 辅助写作可能成为主流写作方式 5 虚拟现实领域也是较为重要的领域之一,得益于 AI 创造能力提升,人类虚拟世界丰富程度将极大提升,将吸引更多客户。在教育领域,ChatGPT 可作为专职教师提高获取知识效率 a 在搜索引擎行业,目前 Cha
106、tGPT 还无法替代搜索引擎功能。首先,其基于大规模模型,新知识接受能力不友好,更新模型的训练成本与经验成本很大。其次,若面向真实搜索引擎的大量用户请求,在线推理成本较高 b 搜索引擎与 ChatGPT 模型双结合方式可能会成为搜索引擎主流方向,国外部分厂商已经在逐渐将类似 ChatGPT 功能嵌入搜索引擎 国内国内 ChatGPT 产业链的发展现状?产业链的发展现状?1 国内向 ChatGPT 以及 AIGC 领域发展的公司已非常多。百度向 ChatGPT 领域发展动机十分明确,维护其搜索领域护城河,在下一代搜索引擎市场中抢先占据有利地位。百度 ChatGPT 业务开展得益于其大量搜索引擎业
107、务问答样本,样本量级足够。京东、阿里、拼多多等公司已经开始在智能客服方向上做出尝试 2 字节跳动也在逐渐入局 AIGC,并将生态场景在内部进行应用,原来今日头条中内容分层依靠于 UGC 等生产者,现在已逐步往 AIGC 方向迁移。国内一些创业型公司也已经开始崭露头角。聆心智能推出 AI 乌托邦,其开放式对话与 ChatGPT 较为类似 3 国内大多数公司正在向虚拟人、AIGC 等概念靠拢,目前没有 ChatGPT 替代品问世,还存在着一些技术发展瓶颈。原因在于四点:a 国内缺少基础模型,没有模型迭代积累。ChatGPT 依赖于 InstructGPT,InstructGPT 依赖于 GPT-3
108、.5.GPT-3 b 国内缺少真实数据。除百度有天然用户搜索问答训练样本外,对于其他公司较为缺少 久谦|服务进步的群体|31 c 国内缺少技术积累。ChatGPT 发展过程中对于数据处理、清洗、标注、模型训练、推理加速等方面均具有技术难点,且对结果均影响较大 d 且包括国内大厂在内,强化学习框架仍未出现大规模使用场景。国内创新性土壤还需发展。整体商业环境较为急躁,但投入与产出需要花费一些时间 随着随着 ChatGPT 的应用群体增加,是否会出于成本考虑对国内的流量使用进行限的应用群体增加,是否会出于成本考虑对国内的流量使用进行限制?制?1 目前 ChatGPT 处于 demo 阶段,是否会对流
109、量作出限制取决于 OpenAI 在此阶段预备投入,其是否愿意增加机器、增加服务部署 2 若国内流量已经完全影响到其在线服务,限制国内流量是有可能的 后续围绕后续围绕 ChatGPT、AI,产业还有哪些值得期待的重大变化?,产业还有哪些值得期待的重大变化?1 短期重要产业变化主要在三个方面。首先,短期内围绕 ChatGPT,搜索引擎领域会出现两者结合发展方向。其次,在智能客服领域,若 ChatGPT 可以实现客服功能,对人力成本降低会有突破 2 再次,在 NLP 应用领域,由于其本质上是序列到序列的语言模型,伴随 ChatGPT模型能力提升,领域技术上限提升,下游机器翻译等领域也会得到发展 基于
110、基于 ChatGPT 的智能客服,是否反而会增加企业成本?的智能客服,是否反而会增加企业成本?1 分情况而定。传统客服成本为人力成本,ChatGPT 成本包括在线策略成本、机械成本、离线训练成本、数据采集调度成本等方面。在成本方面,需要对客服对接客户问答数据量进行估算,对小规模公司来说 2 自研此类工具需要大规模数据训练、采集、清洗等资本花费。对于大规模日均产生用户交互较多的公司来说,长期来说,数据训练、采集、清洗等资本花费只是一次性的,花费更多集中在在线成本上,此时成本会低于人力成本,故新型的ToB 服务模式为中小型企业提供智能客服功能也将是未来发展的方向 3 在质量方面,ChatGPT 质
111、量不会低于人工客服,其足以支持代码 Debug 等精细专业化服务,效率比人工客服高 国内布局国内布局 ChatGPT 公司中,在信息基础设施选择方面,国产设备及云的占比情况公司中,在信息基础设施选择方面,国产设备及云的占比情况如何?如何?1 云计算设施方面,国内大厂例如百度、阿里、字节均使用自研云计算服务。对于中小型企业,阿里云市占率最高,阿里云、京东云排名较为靠前 2 芯片方面,目前大规模使用英伟达芯片,主要原因在于其性能、服务链路积累及其市占率优势。目前自然语言处理、计算机视觉等领域均会使用英伟达 GPU 芯片等高性能芯片 3 针对搜索、推荐等场景,很多公司不采用 GPU 而采用 CPU
112、形式,例如字节在推荐等场景更多使用 CPU 芯片进行分布式计算环境搭建,成本会有所降低。但对ChatGPT 来说,对大规模 GPU 芯片有所需求,国外大厂目前市占率非常高,国内久谦|服务进步的群体|32 自研有所推进但在此方面仍有所欠缺 久谦|服务进步的群体|33 ChatGPT 来龙去脉来龙去脉 访谈日期:访谈日期:2023/1/29 具体内容具体内容 从任务角度来说,从任务角度来说,ChatGPT 以问答类为主,对话领域的模型非常复杂,以问答类为主,对话领域的模型非常复杂,ChatGPT 技技术方案最大的优点就是单一模型,特点就是参数比较大,达术方案最大的优点就是单一模型,特点就是参数比较
113、大,达 1,750 亿的参数,代价就亿的参数,代价就是需要巨大的算力是需要巨大的算力 1 当今时代和过去不同的就在于以前是系统复杂导致人力消耗巨大,现在则是算力要求。以前重人力的时代下产品的“天花板”不高,ChatGPT 实现的效果在以前是无法达到的 2 ChatGPT 技术最初的源头是 Transformer 结构,这个结构最大的意义是可以承载更大的算力和数据,去训练一个更复杂的模型。GPT3 所采用的 GPT 路线,又叫单向注意力模型,只要算力足够就可以训练出参数巨大的模型,尺寸上不封顶,最高点尚未可知 GPT3 是是 20 年提出的模型,达到年提出的模型,达到 1,750 亿参数,这已经
114、是亿参数,这已经是 OpenAI 的产品演化了两的产品演化了两年后的产品年后的产品 1 2020 年和 2021 年很多公司在做千亿甚至万亿参数的模型,但都达不到 GPT3 的效果,很多公司并没有持续深耕该领域,而 OpenAI 在经过两年后又提出了 Gpt3.5,所以来看 2023 年即将发生的事情 2 接下来可能会有一些公司和团队对外宣称做出了类似 ChatGPT 的模型,参数甚至超过 ChatGPT,但不会有想进一步把模型转化为产品的想法。如果存在一些公司能够做出模型并且不断改进、持续升级的话,那么这些公司是值得关注的 3 ChatGPT 应用落地的一个很大的问题在于在任意场景落地都需要
115、对产品进行定制化。还有一点,ChatGPT 虽然“见多识广”,但是比某一项能力,未必能超越垂直类的产品,比如针对医疗数据训练出一个模型,用它来做问答,在医疗领域一定是比 ChatGPT 要好的 解决这些问题的方案主要在于解决具体场景定制化的需求解决这些问题的方案主要在于解决具体场景定制化的需求 1 一方面是知识的定制化,要让 ChatGPT 学会、精通某一领域的知识 2 另一方面就是技能的定制化,要对 ChatGPT 特有的技能如:推理、写作等进行专门强化。但是定制化的问题在于成本非常高,ChatGPT 的参数量很大,训练成本就会很高 3 类似 ChatGPT 这类模型的商业落地,应该先从中等
116、尺寸的模型开始做起,这些中等尺寸的模型可能就几十亿到几百亿的参数,落地成本没有那么高。中等尺寸的模型可能功能没有 ChatGPT 强大,但是在专业领域,往往也不需要全方面的能力 4 国内的发展格局分为两大类,一类是专门型的研究机构和团队,另一类就是大型久谦|服务进步的群体|34 公司。从公司角度来看,国内有百度、阿里、华为、腾讯还有浪潮等都在探索这个行业,他们都有超过千亿的大模型,但是他们没有将这些模型当做产品去做。虽然这些大厂商有丰富的资源,但是在现在的大环境下,整体都处于收紧的状态,资源基本都倾斜主营业务,不会在探索性的领域投入过多 从研发机构角度来看,只有北京智源和从研发机构角度来看,只
117、有北京智源和 IDEA 研究院研究院 1 智源开展时间较早,在 GPT3 出现后,智源做过千亿参数的模型 2 IDEA 研究院也做了一系列的几亿到几十亿的开源模型,已经形成的封神榜预训练大模型体系在中文 NLP 起到支撑性的作用,评估一个团队,要注意是否有在大算力上去做大模型的经验,大多数团队都只是具备在小规模算力上做小模型的经验 3 展望 NLP 和 AIGC 的未来发展,NLP 是经历范式革命非常严重的一个领域,从以前需要找关键词到现在 Transformer 结构的出现,技术在不断地改变,有一个猜想就是 NLP 领域未来可能会消失 4 像 ChatGPT 这样的模型出现,我们有特定需求的
118、时候只需要去调整 ChatGPT 去实现即可,未来 NLP 算法工程师是否还有存在的必要是一个值得思考的问题 久谦|服务进步的群体|35 ChatGPT 学习笔记学习笔记 访谈日期:访谈日期:2023/1/29 具体内容具体内容 公司发展到公司发展到 2000 年到年到 2011 年的阶段,核心的技术就是基于检索技术,开发了智年的阶段,核心的技术就是基于检索技术,开发了智能内容的管理能内容的管理 1 在 2007 年启动了核高机的非结构化数据系统的研究的专项 2 在 2011 年的时候,a 股市场上拓尔思公司作为第一家大数据公司上市,上市以后公司持续的在自然语言处理的技术上做研究,公司战略的定
119、位是语音智能,是核心技术的一个发展场景 a 自然语言处理应用在搜索引擎、智能客服,舆情分析还有内容处理方面,多年以来通过持续的打造,形成了每个板块深度的应用场景,同时打造了一批专属软件平台 b 持续以来业务收入的增长也是基于我们对各个场景应用的熟悉,知道自然语言处理、语音、智能应用的方向,为用户输出了大量的、有时效的整个应用效果 c 整个人工智能时代有三要素,算法、算力和数据。拓尔思公司作为人工智能和大数据公司,所有的人工智能应用都是来自于对各种算法模型的积累。首先需要有数据,所以在 a 股市场横向比较,我们是真正掌握了大量的数据资产的公司 d 2,000 多台服务器分布在全国的三个数据中心,
120、每天日增 1 亿条的开源的互联网的数据公司,已经积累了将近 1,300 亿条开源的数据资产 e 有了数据资产,我们才能够做各种各样的训练模型,才能够积累各种各样的算法,现在已经积累了 300 种以上的算法,并且对每个场景,像知识图谱的展现,知识库的建立档案 3 包括前期的数据的采集,还有数据的标引,诸多的关于数据要素的这些环节,都以完全知识产权的软件平台去持续的做这样的工作 a 搜索引擎是我们自然语言处理的一个核心应用的技术,公司是 30 年以来坚持在这方面的积累,在全国整个大量的企业级的搜索都在用 ELSG 的设计、spark这些开源软件的时候,我们公司完全捉到了自主可控,完全捉到了信创的银
121、窝,应用到政府、金融,包括媒体等诸多的行业 b 数字经济研究院目前主要的一个研究方向就是人机对话,像托马斯公司这几年以来在整个技术应用上面,比如围绕着像中国中医科学院的中医中文问答,中国标准化研究院的国家标准的问答 c 人民卫星出版社的小 a 机器人,时代经济出版社的审计问答、吉林政务的小机智能机器人,这些实际上都是跟智能问答相关,跟大家现在谈的热点都极其的相似。除此之外,我们围绕着知识图谱事件分析,包括机器人的自动写作,智能内容创作等方面,都有多个成功的案例 d 像 OpenAI 热点事件出来以后,我们的研究人员对于整个 OpenAI 的过去、现在和未来也持续性进行了研究 4 结合我们公司的
122、一些技术沉淀的事实和我们本身对场景应用研究,未来展望有了一些系统的梳理 久谦|服务进步的群体|36 ChatGPT 加快数字劳动力时代的发展加快数字劳动力时代的发展 1 新的智能新意时代,ChatGPT 的出现引领了数字劳动力的时代,带来了第四种用工模式 2 数字劳动力将是生产力的第五次革命,这种新的经济时代、用工模式将会快速的演变。三大传统的用工模式包括全职员工、外包员工、兼职员工,数字化劳动力是第四种用工模式,打破了人与机器的边界 a 依托人工智能技术,包括像 NLP 相关的一些技术,自主完成或者协助人类来完成各种企业的各种工作,比如前端对客人或者员工的文案工作等等,或者是中后台运营协同等
123、工作 b 像 Tab、BP 就能够帮助写文案内容或者代码,实际上它是一种数字化劳动力的一种。我觉得在这种传统劳动力跟数字劳动力的结合下,通过我们这种 NLP 相关的技术赋能 c 能够让传统劳动力爆发出更高效这种增长力水平。根据麦肯锡统计数,到2030 年,数字化劳动力的这种市场规模可以达到 1.73 万亿水平 d GPT 的火爆加速推动这个事件。劳动数字化全面转变的核心在于劳动力,它的大脑、认知能力跟分析能力决定了数字劳动力是否能够准确的理解人类的任务指令,是否能够高效的去准确的完成任务 3 GPT 能做到这一点是基于人类反馈的强化学习,有一个千亿规模的模拟训练,可以融合世界的知识与规矩,使认
124、知能力跟沟通能力接近人的水平 a ChatGPT 的火爆将增强大众对于这种对话式的 AI 的一个信心,我们会有更多的研究来加入行列,推动整个对话式的 AI 的发展 b 对话式 AI 大概分成四类,信息查询类、专家咨询类、助手类以及交流类 i 第一类是信息查询类,用户可以去查询企业的相关的一些信息,相当于数字化劳动能够替代一些枯燥重复性的劳动 ii 第二类是专家咨询类,这是比较重要的一点,相当于数字劳动力能够替代部分或者扩充这些资源稀缺的劳动力,需要我们大脑的赋能,专家系统可能是投顾类,或者是法律顾问类 iii 第三类是助手类,相当于数字化劳动力能够帮助人类去完成相应的一些任务,帮你订个机票,预
125、定个会议等等 iv 第四类是交流类,数字化劳动力能够满足人类情感交流的需求,可能是情感的陪伴,或者是闲聊场,或者是虚拟在元宇宙里的 4 四类对话式 AI 对标不同的应用场景 a 第一类信息查询应用的比较多,比如智能客服机器人,一些售前信息的查询,相当于降本增效 b 第二类专家咨询是 MLP,需要加上世界知识,行业知识,专家系统 i 为企业去打造个性化咨询,根据司法部数据显示,全国办理各类的法律事务的事件大概是 1,300 多件 ii 涉及到诉讼或者是非诉讼的大概 1,300 万件。按照中国的律师平均费率是大概一个小时是 2,788,每个案件平均服务时长十小时来算,整个法律的咨询的总体市场规模达
126、到 3,600 个亿 iii 如果是按照律师事务所这种维度来计算,像 21 年年底全国共有律师事务所3.65 万家,对法律服务技术的投入按每年 100 万来算,法律的服务的总体分了大概是 300 万 iv 相当于我们要把一些法律相关的知识形成企业的大脑,能够去对外赋能,久谦|服务进步的群体|37 其中就涉及到我们怎么去利用这些知识构建出复杂的知识体系里头来 c 第三个场景是助手类,比如智能车载助手,其中很重要的一点是智能创作,比如直播文案的生成,广告文案的生成,或者做一些剧本的创作。整个智能创作市场主要是分成数字资讯类、数字营销类和行政办公类 i 18 年公开数据显示,18 年各级的网信办审批
127、的互联网信息、新闻信息服务单位总共有 700 多家,在主要的一些门户资讯,比如像微信公众号,它的总量大概是 2,100 万,活跃账户有 350 万 ii 按每年 SaaS 化软件一年 3,000 块报价来算,总体规模大概在 120 个亿左右。数字营销类每年的全球广告支出蛮高,18 年在 e-master 数据显示,全球 18 年的全球广告支出高达 6,000 多亿美元,数字广告就占到了 2,800 亿美金 iii 我们希望能够在数字营销里提供一个数字营销的广告的助手。在行动办公领域,我们可以看到爱乐咨询的一个数据显示,PC 这种办公软件的用户活跃数在 5.3 亿的数字上下波动 iv 预计这个数
128、字在未来几年也不会有太大的变化,这个群体其实是智能创作的一个重点挖掘的对象,按照每个用户付费 100,总体规模可以达到 530个亿 5 基于对话式 AI 市场,拓尔思公司规划未来拓尔思的优势有以下几点 a 第一点,拓尔思有来自境内外的各行各样的数据市场,超过 1,200 个亿,已经具备千亿数据的数据索引等,这些是我们的一些核心资产,包括我们背后的这些模型,包括我背后的加工能力等等 b 第二点是技术的沉淀,我们坚持核心自主的研发,实现国产化,拥有 40+的发明专利,800 的软件着作权 6 技术沉淀也相当于 AI 的三大要素之一。最后是客户的沉淀,整个数据的产品和服务已经国内外超过 1 万家的企
129、业级的用户在广泛使用 a 像智能客服现在基本都是基于检索式的,基于我们数据库,我们将有一些基于深度模型,去库里检索答案,返回给用户。思想是基于一个大模型,有排量数据去训练一个模型出来,再加入人类反馈的数据,我们需要累计高质量的人类的反馈数据,这样我们就能够提供更优质的对话体验 b 还有第二点,我们需要行业深耕,像这类 DP,它是一个通用模型,缺乏对一些行业客户、行业知识的了解,我们对行业是非常了解的,我们未来会让对话式的 AI 这种人工智能技术去跟行业客户的业务流程去更深度的融合,包括从局部业务到全场景的覆盖,实现全业务的数字化、智能化 c 我们会持续的在行业中不断的累加场景,深耕场景,解决核
130、心业务的一个问题。从长远来看,拥有更好的数据,更好的行业的一些 know-how,更有利于去微调我们的一个大模型的,给客户带来更好的产品体验的 像像 ChatGPT,不懂的地方会一本正经胡编乱造,目前的技术发展路径是不是已经,不懂的地方会一本正经胡编乱造,目前的技术发展路径是不是已经开始往准确率这方面去走呢?开始往准确率这方面去走呢?1 目前整个智能客服是比较成熟的一个阶段,但是所采用的技术基本都是基于线索式,保证了所有的回复都是从库里拿出来回复给用户的。像 ChatGPT,它是基于生成式的这种方式去回答用户,比较难保证回复的可靠性 2 所以我们在后续的训练跟维护的过程,我们去增加一些这种规则
131、,或者是增加一些这种安全检测的一些模块进到系统里头,能够保证我在一些异常条件下去规避久谦|服务进步的群体|38 掉这些问题 3 现在 CC 已经能够让可靠性保证在一个比较小的结果里头,但是它还是会有这样一个问题存在 无论是信息查询、专家咨询、助手或者交流,从公司的视角以及整个产业发展趋无论是信息查询、专家咨询、助手或者交流,从公司的视角以及整个产业发展趋势来看,势来看,哪一块最先有可能形成商业化的落地?哪一块最先有可能形成商业化的落地?1 我觉得几个点都有可能。一个是这种专家咨询类的,它实际上是需要有一块比较好的相当于是企业大脑的角色,把这些行业的知识变成一个企业的大脑 a 变成一个模型的知识
132、。ChatGPT 证明了在一些大数量前提下,是一个比较好的表现的,这一块是在智能创作助手类的,一个是我们能够去高效地提升智能创作的水平 b 现在它的这种文本生成能够已经能够满足创作者的大部分的需求,相当于我能够去帮助创作者生成一个初级的版本,创作者在上面再去继续修改,能够有一个比较好的效率提升 c 在不管是直播文案的生成或者广告文案的生成,或者基本创作等等,还有在交流的,它已经像 GPT,拥有一个比较大的模型,拥有一个比较好的一种世界知识通用知识的前提下,能够回答各类相关的一些问题 2 如果我们是按照比如在元宇宙里,或者是在一些养老领域等行业里去定制一个这种相关行业的,可能也是会有一个比较好的
133、表现。所以我觉得大概可能是这几块 3 专家咨询类未来会在法律咨询的市场有一个比较亮眼的商业模式的落地 如果未来转向人工智能对话式的方式,是不是对于数据的采集其实是会有偏好性如果未来转向人工智能对话式的方式,是不是对于数据的采集其实是会有偏好性的,或者我们如何确保自己采集过来的数据是针对相关的行业,而并不是会跨到其他的,或者我们如何确保自己采集过来的数据是针对相关的行业,而并不是会跨到其他行业,我行业,我们怎么去确保未来这种算法以及数据的针对性是足够匹配到行业的一个情们怎么去确保未来这种算法以及数据的针对性是足够匹配到行业的一个情况?况?1 好,您提到的其实是一个模型上下文关联的一个能力。在这种
134、大模型的前提下,大模型是能够学习到相关的上下文的一个知识 2 比如我们拿法律的整个行业的数据进来,训练出一个大的模型的结构,再基于人类的一些反馈加入训练,最后出来的一个模型会在不同的条件下,识别到不同的上下文的知识的。在不同的领域里头它是带有不同的知识,都是能够识别到这一点的 在这个问题解决之后,现在我们最大的痛点是在哪里?拓尔思后续会在哪个行业在这个问题解决之后,现在我们最大的痛点是在哪里?拓尔思后续会在哪个行业率先落出相关的商业模式,并能产生实际的收益?率先落出相关的商业模式,并能产生实际的收益?1 这一块我简单的回答一下。接下来首先就是语义智能,它本身是一个经验型的,这种技术的积累在这一
135、块首先还是来自于你所熟悉的行业。我们强调的最多的人工智能的场景的应用,要选择一个比较好的主题 2 在选择主题以后,你自己作为公司在深度的积累知识,最后结合语义智能,围绕着主体场景,理解可能就越深。后面通过训练数据,还有源源不断的能积累的进来,训练的整个的模型 久谦|服务进步的群体|39 3 算法会积累的越来越丰富所以我们觉得经验值是非常重要。举个例子,拓尔思在媒体行业,譬如垂直领域的 120 多家媒体,有 40 多家是我们的客户,一半以上的审计的融媒体中心也是我们的客户 a 我们这几年以来在整体的打包服务中,有一个拓尔思的妙笔。小四的智能写作实际上就是一个合成,但是需要我们了解整个的编辑记者,
136、在他们应用材场景中间,对于他们的新闻要素,新闻稿件的形成的整个的细节 b 我们先不断在丰富的在积累。原来一个编辑记者要花 30 分钟才搞定的一个稿件,我们可能快速的一秒钟就能够生成一个初稿,最后让他进行新加工 c 另外,融媒体中心成立完以后,他们出稿子的频率越来越快,任务越来越多,越来越大,这种情况下,怎么能够快速高效的去完成他们的这种劳动工作?还有一块,譬如刚才您讲到专家咨询,我们现在正在跟国家知识产权局深度打造我们的专业的咨询服务,这就是个很专业的活了 4 因为整个国家知识产权局现在有 2 万多专利评审人员,80%的时间都在拓尔思的三大平台上进行工作,这就是我们长期积累的知识 a 国家专利
137、局有全国最大的最全的专利库,我们公司称之为数据的这些文本信息,都是一篇一篇的专利原作,对原作要进行语义智能的这种分区,要进行各种各样的标语,这些事情我们都做了 b 接下来在申请专利的过程中间,我们的专利申请人员对于整个专利申请的流程,整个专利检索的专业的知识,我们能够打造专业的技术服。回头来说,我们实际上强调的还是对行业深入了解和熟悉的程度 c 它的背后有一系列这种知识库的间接。我们拓尔思有一个自己的知识图谱的研究院,在开源情报这方面多年以来持续实现了我们一定比例的收获,并且还有很好的增长趋势 d 基于我们对整个的开源情报的这些分析,各种各样的数据的采集加工,我们不断再迭代,也形成了我们的自己
138、的知识图谱的各种各样的算法 未来是不是会有可能在每个行业都诞生出一个龙头,类似于搜索引擎龙头,而不未来是不是会有可能在每个行业都诞生出一个龙头,类似于搜索引擎龙头,而不会像现在通过谷歌我们对各行各业所有人一起去进行搜索?未来的趋势到底应该是以会像现在通过谷歌我们对各行各业所有人一起去进行搜索?未来的趋势到底应该是以垂直行业为主,还是有一个大一统的搜索平台为主?垂直行业为主,还是有一个大一统的搜索平台为主?1 从目前应用事件上来讲,我非常认同你的说法,这也是我们研究院一直在沟通的。因为刚才我们都提到了一个共同的问题,就是现在我们关注的女性事件,大家背后说她胡说八道。实际上你会发现它现在整个积累的
139、时间和计算的时间,尽管跟我们国内的公司比已经有了一个数量级的差异,但是它不能够穷尽一切 2 理论上来讲,它能够穷尽一切,以后它就真正能够替代人了。现在我们在探讨应用的同时,反过头来反思我们国内有哪些应用场景,从这两方来讲 3 我们认为每一个垂直的专业板块空间都是非常大的,也就是拓尔思未来的发展。在整个人工智能和大数据的中间软件,我们已经达到了比较强大的自主可控的软件平台的积累。但是对于每一个垂直行业的这种深度的应用,在知识积累方面,我们也不是什么行业都去干 a 但是我刚才跟您举例的,譬如知识服务用在专利检索,用在整个专利行业,未来一个百亿级的规模,大家会需要有更多的这种服务的时候,我们就把更多
140、的给打造好,围绕着金融,围绕着媒体,围绕着这几个深度的行业去做就好 b 我们还有一个可以拓展的行业,结合虚拟人和两周机器人走 久谦|服务进步的群体|40 c 悟到更多新的应用,我们也在拓展我们的新的市场。譬如在两座机器人,围绕着养老院场景,下的精力是最多的,一旦走进来,我们可能就能够比别人积累更多的支持 久谦|服务进步的群体|41 2023 电子产业展望电子产业展望 访谈日期:访谈日期:2023/2/7 具体内容具体内容 整体形势整体形势 1 目前获利趋势来看目前在下修循环,1.2 月持续下修,应该会维持到 2 月份,截至1 月底对费半的企业获利预估已经到-15%的预估水准,基本上 2 月份修
141、正完应该会落入短期的底部,3.4 月份有机会进入上修或持平的阶段,若 3.4 月份反映整体经济不好的情况恐落入 doubledeep 的情况 2 股价方面,目前已经领先基本面反弹,反映下半年的复甦,是否能持续向上就要看 3.4 月份的情况才比较清楚,截至目前为止能见度还不高 3 库存方面,IC 公司依然很高,台积电到今年年初才开始才有产能利用率显着下滑的情形,预计今年 Q1.Q2 库存金额会出现显着修正,短期不太需要注意天数而是金额 4 因为业绩不好天数就会上升,主要观察 Q3.Q4 金额是否有修正,业绩若带动天数就会下降,下游部分,库存已经修正一阵子了,详细数字要到 2.3 月份才会公布 美
142、国零售销售数据美国零售销售数据 1 目前看到美国零售销售数据有走缓 MoM 开始下滑,YoY 还有+5%10%左右,以现在为止的预估维持在小幅成长的状况 2 目前还没有看到下半年有 slowdown 的迹象,其中电子产品从去年就不好(YoY-10%左右)但看起来有稳定的状况,走缓的速度下降 中国消费市场中国消费市场 1 去年整年都不好,基本上数据都在 0 以下,12 月解封,过完年开始正常,预估会是缓步的回升,中国人民超额储蓄去年增加了不少 2 中国人民消费信心不足,后续可以观察是否疫情正常化后转换为消费力道将成为助益 估值方面估值方面 1 是近期需要担心的部分,费半自去年十月份已经反弹约 5
143、0%,但企业获利是衰退的 2 目前 P/E 接近历史峰值,段线上的嘎空行情大概已经 Price-in,后续要看基本面是否回升,以 P/B 来说比较没有那麽激烈 筹码面部分筹码面部分 久谦|服务进步的群体|42 1 牛熊指标已回到 4 以上,HEDGEFUND 陆陆续续回到市场,其在主导市场波动较为剧烈,而 LONGFUND 的部位还是处在观望的角度,短期要有资金行情不容易,需要 LONGFUND 回归市场 2 目前没有看到金融危机的迹象,看美国整体信贷利差已自去年高峰下降,而欧洲状况而言也是如此,美国公债的流动性指数去年 10 月份状况很糟,已经有所改善但目前还是偏高,会对于美国整体的财政运作
144、,若未改善,就不用担心美国会有更鹰派的做法 产业上较看好产业上较看好 1 中国解封概念、互联网、中国智慧型手机 2 台积电耗材、以及已经落底很久的记忆体或面板 较不看好较不看好 1 半导体设备、云端运算等砍资本支出相关股票 2 NEWCPU/GPUinto2021.INTEL 上半年在 DESKTOP 较没有新产品,比较像是更新,原本预计的产品有 Meteorlake 是与台积电有深度合作的产品但是有递延,而Notebook 上是有在 ROADMAP 的计划上,要观察是否能做的到,还是会递延 AMD 1 目前在 ZEN4,明年才有机会出 ZEN5,ZEN5 会採用 3 奈米 2 GPU 今年还
145、是看 NVIDIA 有没有新产品,近期推的 4,070TI 其实就是之前的408,012G,价格上有下调 100 美金,CP 值有限,应不会有大的换机潮,感觉起来是 GPU 的小年 a HPC&Server1.Intel 今年的重头戏在 SapphireRapids(SPR)的量产,明年看EmeraidRapids 的量产,今年下半年还有 BSH 及 SierraForest 后者是和 ARM 做竞争,应该不会太好 b AMD 今年看 Genoa 的改版及 Bergamo(Zen4C)有提高核心数至 168 核心,ZEN5 要看 2024 年 c INTEL 产品的规格上看到 BSHAP 平台
146、的功耗达到 500W,2 个 SOCKET,AP 则可做到 8 个 SOCKET,观察到 PCIe 部分,目前已经增加到 8090 条,再搭上南桥晶片就没什麽意义,下一代可能就会取消掉 3 INTELSPR 的 DiePackages 有 XCC 和 MCC,MCC 使用较传统的架构,为单颗大核心,不像 AMD 是使用许多小核心,到 Granite 也还是以单颗大核心的架构 a AMD 产品规格上今年最大的卖点在 ZEN4 做到 96 核心,ZEN 搞不好可以做到192 颗核心,AMD 市佔能持续提高与 INTEL 拉开差距的关键 b AMD 的架构看到 CCD+IOD,最多可以放到 8 颗
147、CCD,设计的成本及弹性就比INTEL 还要好 c 在 INTEL 取消掉南桥晶片后下一架构会走到 Self-boot,CPU 自己可以开机,未来 SERVER 在简单化的趋势下要自己可以开机,而相关趋动的部分将移到 BMC上面 久谦|服务进步的群体|43 DataCenter 1 走向 DC-SCM 的膜块设计,将 BMC 和 RoT 与服务器拆开,为来客制化产品就可以放在 BMC 上,架构相对简单,且报废时可以单独销毁安全膜块,和主板的连结会用 FPGA,近期有些 LONGFUND 就是在看信骅的 2,700 及 ASIC 去取代 FPGA 等等讯息,但可能要到 2025 才会量产 a C
148、XL3.0 让 CPU 及 GPU 的记忆体可以互通,记忆体会是未来限制频宽的因素之一,今年的 SPR 及 ZEN 採用 CXL1.1,明年可能会使用 CXL2.0,而去年通过CXL3.0 则是要等 20262027 年了 b ARM-baesdServer1.IDC 预估明年 ARM 的市佔就会达到 10%,主要在各家公司开始使用 Amphere 的 solution 带动各家公司的 support,ARM 的是佔率应该会持续上升 c 产品主要有 V 系列及 N 系列,V 系列主要顾客有 AWS、Nvidia、Google,N 系列主要顾客有 Nokia、Marvell 等网通厂 2 AI
149、Chip update a 以 GPU 市佔率最大的还是 Nvidia,推出 H100 取代 A100,而今年比较值得注意的是 i AMAZON 自己的 Trainium,据说自家的 AIServer 可能有一半以上用自己的晶片 ii AMD 的 Mi300 是市场上第一颗 SoIC+CoWos 的晶片把 CPU 跟 GPU 做整合,年底量产,主要客户有微软等因此对 Nvidia 有掉市佔的威胁 b 未来 AI 设计的瓶颈在于记忆体,GPU 的演算力好几倍的增加,而记忆体的频宽并未跟上,第一个方法是增加记忆体使用量,第二个是增加 CATCHMEMORY a 回头看到先前 INTEL 也有类似的
150、产品 PonteVecchio,自 2021 年就提了,但尚未量产,算力约当于目前 Nvidia 的 H100 b ChatGPT 短期影响不大,每个月要烧 300 万美金,差不多是 1,500 片 A100,NVIDIA 一年约产出 670 万片,对一开始来说不会有很大的量,目前还言之过早,目前还是要看终端应用所带来的发展 3 Autonomous Driving Chips a 目前来说车自系统开始走向 Domian 架构,会比较偏向整合成一块,像是中央控制在传送给各个地方,目前为边缘运算的方式 b 以目前车子晶片公司来做比较的话,TESLA 以外的主流就是 Mobileye,目前多主流车
151、厂在 LV2 上几乎都使用 EyeQ4,EyeQ5 往上向 L3 的 Designin 就比较少一些,而 TESLA 先前 HW2.0/2.5 使用 NVDA 晶片,但功耗太高,HW3.0 就採用FSD 晶片,今年会推 HW4.0 在三星投产 c Nvidia 虽然及实有晶片可以使用,算力高但是功耗非常高,仅中国的造车新势力比较着急使用的车企使用,因此一线车厂未来 35 年应该是会使用高通,算力约在 360 左右,功耗 65W,现在若联发科要重组该部门可能也较难打入一线车厂 CHATGPT 的看法,对的看法,对 GOOGLE 的威胁?的威胁?1 威胁一定有但比较难以量化,微软一定是主要的受惠者
152、,对微软来说,CHATGPT要开始收费也会带来额外的收入,以及未来 CRITICALMARKET 上的优化,或IQ8090 的语音机器人服务等等,再过几年也许就会更有系统及逻辑性的回答,久谦|服务进步的群体|44 对 SENIOR 行业蛮有帮助的 2 也有可能取代 JUNIOR 的工作,相关的 ROADMAP 可以参考 2016 年 NVIDIA 影像辨识等相关的发展,对市场影响还需要时间发酵 3 伺服器今年销售预其表现保守,未来 35 年 ChatGPT 会不会带来影改变单就AISERVER 一年约一百多万台远低于目前一年伺服器有 1,600 万台左右,基本上AISERVER 能影响整体 S
153、ERVER 的市场非常小 4 信骅及新唐在 BMC 技术上的差异规格上看起来都差不多,新堂做了很多年,市场上扣掉 HPDELLGOOGLE,其他基本上是信骅 100%的市佔,很难说出两者的差异,技术上的本质应该差不多 关于关于 ADAS 市场,辉达的耗电问题严重,是否会被市场淘汰?市场,辉达的耗电问题严重,是否会被市场淘汰?1 未来如果功耗问题有解决还是有机会 2 但一般来说车厂签约基本上市 35 年,所以短期内辉达可能还是比较弱势 RISK-V 未来的发展?未来的发展?1 ARM 直接跟客户接触会不会抢到 MTK、QCOM 的市佔率 RISK-V 先前比较多给 IoT的应用,而 ARM 近期
154、也开始想直接接触手机终端客户,有听到三星及 OPPO 等公司有在接洽 2 近期也有听到 GOOGLE 有在开发 RISK-V 的手机相关应用,ARM 接触终端客户当然会影响 载板是否还值得关注?载板是否还值得关注?1 载板七成市场在 PC 其他在 GPU 2 而今年 PC 不好又市 GPU 的小年,多家厂商先前也有扩产,短期内可能要回温布市那么容易 SERVERTDP 功耗提升,水冷及液冷散热是否会加速提升?功耗提升,水冷及液冷散热是否会加速提升?Graniterapidap/sp 在在Intel 中有可能未来出货会遇到哪些瓶颈?中有可能未来出货会遇到哪些瓶颈?1 水冷是目前趋势,但目前有漏水
155、的问题要去解决,浸润是的话冷却液目前的成本很高,冷却液也是挥发性的可能会中毒,还要带技术成熟才会被大幅採用 2 对于 intel 的 roadmap 不用太乐观因为已经有好几次的 delay 久谦|服务进步的群体|45 AIGC 路演纪要路演纪要 访谈日期:访谈日期:2023/1/30 具体内容具体内容 计算机传统计算机传统 AI 落地困难,最大的问题在于小模型,对于不同场景不同细分的运落地困难,最大的问题在于小模型,对于不同场景不同细分的运用,需要人为进行大量的二次校准调参。耗费的人力太大,又太过于琐碎,形成高昂用,需要人为进行大量的二次校准调参。耗费的人力太大,又太过于琐碎,形成高昂的成本
156、的成本 1 CHATGPT 大模型针对这个问题把参数量加到足够大之后(GPT3 参数量达到 1,750亿个)发现模型样本量和参数量足够大了,在很多大的泛化的场景里,不需要做人为太多的调试,就可以得到非常好的效果 a 技术基于 2017 年的 Transformer 模型,可以与整个句子或段落的其他语句形成关联,捕捉全局信息 b 另用 transformer 和大模型比较多的领域是自动驾驶。用的比较多的就是bevtransformer,最早是特斯拉在 AIZ 里面引入,后面的国内的毫末这些公司也相继的引进了,仍然用传统的残差去提取图像的特征,同时大模型在数据标注领域也是提升了效率 2 中国 AI
157、 非常的领先,更多的还是在 CV,但是在 NLP 领域,尤其是在语义的理解领域,确实跟 openai、Google 存在比较大的差距。传统的机器视觉 a 例如海康、大华,选取的路线还是小模型,压缩成本,提升模型的复用率。另外一类是用大模型,实现不同场景之间的复现,未来两种技术的区分度会更大 b 在大模型算法领域做得比较好的公司,只能是头部的互联网公司和 AI 公司,因为训练成本、研发成本都是非常高的 国内大模型的发展情况,在语言领域确实跟国内大模型的发展情况,在语言领域确实跟 CHATGPT 有差距,很多互联网公司都有差距,很多互联网公司都有布局,包括像百度文心大模型,里面也提供了跨模态的工具
158、包;华为的盘古云在工有布局,包括像百度文心大模型,里面也提供了跨模态的工具包;华为的盘古云在工业领域,比如气象、矿山、声音生成,都有应用业领域,比如气象、矿山、声音生成,都有应用 1 A 股公司,商汤科技,有自己的 AIGC 的大数据的中心,可以提供大量的算力基础,也有自己的 AI 大装置,并且自研了训练框架。云从科技,之前做的是全栈AI,所以在 NLP 领域也有一些项目,之前也披露了他在这个视觉、语音 nop 领域都有类似 GPT 的预训练模型加反馈调优的技术路线 a 科大讯飞,在语音是国内领先,其他比如拓尔斯,也都值得关注 b 传媒 web3 的生产力工具,强调创作者经济,就是每人都能够借
159、助一些工具自由的去创作出足够多的内容,aigc 正好满足了这样的需求 c 在内容领域的应用更多是在内容的分发环节,最典型的就是算法推荐,Facebook 信息流广告,国内的短视频、电商的千人千面的推荐 d 目前应用最多的还是文本音频、图片这几个领域,原因是相对简单,游戏视频复杂度比较高,相关应用比较少一些 e aigc 影响内容行业来讲,分为两阶段,第一是作为辅助的工具,对信息挖掘、素材调用、复课编辑比较机械的环节形成有效替代,解放创作者的生产力,把更多的精力放在创意环节 久谦|服务进步的群体|46 f 第二个是基于 AI 直接生成内容,会对现有的内容产品产生比较强的颠覆。目前主要还是在第一阶
160、段,作为助手工具 2 这一轮与之前 AIGC 炒作不同,因为微软做了很大的投资,意味着巨头入场,之前A 股主题投资,尤其是移动互联网领域,在 19 年之前重点是 3G4G,大家看趋势是腾讯、字节跳动的布局 19 年大家就已经开始讨论下一代互联网的形态,原因就是移动互联网的渗透率到年大家就已经开始讨论下一代互联网的形态,原因就是移动互联网的渗透率到了比较高了比较高的位置,大家更期待一些颠覆性的创新的位置,大家更期待一些颠覆性的创新 1 比如谷歌的云游戏的能不能给 5g 的应用带来一些新的一些尝试,在 20-22 年的时候,大家看的是以 Facebook 为代表的对于 ARVR 的布局,23 年大
161、家重点关注苹果的 MR、微软通过 AI 做一些新的探索,所以巨头入场是很重要的事情 2 第二就是 openAI 跟微软合作,可以跟微软现有的产品结合,提升产品本身的效率,和对用户的吸引力 3 传媒相关标的,文本、音频、图像落地更快,文本相关是中文在线、掌阅科技,图片相关是视觉中国、汉仪股份 久谦|服务进步的群体|47 AI 或是新年预期差最大的计算机投资主线或是新年预期差最大的计算机投资主线 访谈日期:访谈日期:2023/1/29 具体内容具体内容 ChatGPT 名字什么意思,本身有什么技术突破?名字什么意思,本身有什么技术突破?1 CHAT 的意思是聊天,GPT 是 GENERATIVEP
162、RE-TRAINEDTRANSFORMER 的英文缩写,TRANSFORMER 实际上是一种用于自然语言理解的神经网络模型,该模型的意义在于打破了过去自然语言理解模型需要时序计算的逻辑 2 使得多个 AI 原本比较独立的感知智能(语音与图像识别)与认知智能(NLP 语义理解)基础技术模型开始界限模糊走向融合 3 CHATGPT 的“出圈”之前该模型已经从 GPT、GPT2 迭代至 GPT3,CHATGPT 正是基于 GPT3.5 模型,由 OPENAI 在 2022 年 11 月 30 日推出的一个人工智能聊天机器人程序 4 CHATGPT 跟以往 AI 应用有什么不同让大家如此震惊?核心在于
163、两点:通用与逼真 5 通用性在于它从回答你日常刁钻调戏问题到撰写粤港澳大湾区 2035 区域现代化战略规划,从代写美国国会议员讲稿到帮码农写代码,几乎无所不知无所不能 6 逼真在于其回答的质量经常到使人无法分辨它是不是真人,在某些领域可以认为通过了“图灵测试”,它已经通过美国医师执照和沃顿工商管理硕士的考试,也能让老师不知情下打出全班论文最高分 ChatGPT 有什么重大意义与启示?有什么重大意义与启示?1 AI 时代资本定价标杆性事件 a 2023 年 1 月 10 日,彭博社报道,微软正在讨论向热门 AI 机器人程序 ChatGPT的开发者 OpenAI 投资多达 100 亿美元(678
164、亿人民币)的相关计划 b“美版今日头条”BuzzFeed 宣布和 OpenAI 合作,未来将使用 ChatGPT 帮助创作内容,此条消息一出,BuzzFeed 股价截至收盘已经涨了 119.88%2 第二,或高于搜索引擎的战略入口价值 3 微软已经将未知版本的 OPENAI 文本生成 GPT 模型整合到 WORD 的自动完成功能里,并将进一步整合到 WORD、POWERPOINT、OUTLOOK 等 OFFICE 套件以及TEAMS 聊天程序以及安全软件之中 4 第三,从国家战略考虑绝不容落后的 AI“军备竞赛”5 CHATGPT 所代表的通用性知识入口如果错过了战略窗口期,数据算法迭代所累积
165、的经验将给以 OPENAI 为代表的 AI 公司带来结构性的技术壁垒与代差,这种代差将形成巨大的追赶门槛 6 试想一个所有人获取知识信息的高于搜索引擎的入口被国外占据,我们将会多么被动 久谦|服务进步的群体|48 ChatGPT 的的 A 股相关标的有哪些?股相关标的有哪些?1 最接近的 NLP 相关企业:科大讯飞、拓尔思、汉王科技、神思电子 2 算力与数据:寒武纪,海天瑞声 3 微软小冰 AI 助理相关软件外包:博彦科技 久谦|服务进步的群体|49 全球科技创新核心全球科技创新核心 AI 发展发展 访谈日期:访谈日期:2023/1/29 具体内容具体内容 AI 发展发展 1 软件:两个派系,
166、分为数据派(有更多的数据来训练更大的模型)和知识派(加入人的知识,通过知识来建立规则,向专家系统发展)。随着 DEEPLEARNING 的发展,即 2016 年开始,数据派占优,大量数据会支撑模型优化,在计算机视觉上有突破性进展 2 2016 年的代表 ALPHAGO 带动资本浪潮,在 ALPHAGO 时代,围棋上的成功并不能带来很大现实应用,而 CHATGPT 重要的推进是,其现实应用更多 3 技术:使用的模型与 2 年前发布的 GPT3 模型底层数据和模型规模一致,CHATGPT的突破性进展在于引入了人的知识,而非扩大了数据,即人类反馈的强化学习。简单来说,以前监督学习的大数据训练也需要人
甲子光年:中国AI产业地图研究[57页].pdf
仲量联行&瑞安房地产:2022瑞安“城中村”发展实践研究报告(47页).pdf
网商银行:数字银行可信纵深防御白皮书(2022)(71页).pdf
中国移动研究院:面向6G的智能交互技术白皮书(2022年)(28页).pdf
中国移动研究院:绿色网络6G白皮书(2022)(21页).pdf
中国移动研究院:价值驱动6G发展白皮书(2022)(34页).pdf
中国移动研究院:全息通信技术白皮书(2022年)(30页).pdf
前瞻产业研究院:城市产业画像系列:2022年南京市产业全景分析报告(101页).pdf
快手电商:2023年快手年货节作战宝典(48页).pdf
imit白皮书:5G智慧医疗进展(2021)(21页).pdf
华为云&Forrester:云原生白皮书-拥抱云原生优先战略(2020)(30页).pdf
爱数:汽车制造业数据备份与恢复方案(26页).pdf
上海建工集团股份有限公司2018年度履行社会责任的报告(22页).PDF
上海建工集团股份有限公司2019年度履行社会责任的报告(26页).PDF
上海建工集团股份有限公司2020年社会责任报告(50页).PDF
上海建工集团股份有限公司2017年度履行社会责任的报告(7页).PDF
浙江华策影视股份有限公司2010年年度报告(141页).PDF
浙江华策影视股份有限公司2013年年度报告(160页).PDF
上海建工集团股份有限公司2019年年度报告(203页).PDF
浙江华策影视股份有限公司2015年年度报告(181页).PDF
浙江华策影视股份有限公司2018年年度报告(188页).PDF
浙江华策影视股份有限公司2021年度社会责任报告(11页).PDF
浙江华策影视股份有限公司2011年年度报告(154页).PDF
浙江华策影视股份有限公司2016年年度报告(194页).PDF
中科院:2021研究前沿(135页).pdf
云安全联盟:零信任落地案例集(135页).pdf
CCPIT:中国展览经济发展报告2021(135页).pdf
2022科技、传媒和电信行业预测(135页).pdf
2022年全球科技趋势报告(英文版)(135页).pdf
Vice:2023年全球青年文化指引(英文版)(135页).pdf
中国建设银行:2019年社会责任报告(135页).pdf
谷歌&2020智慧数码城市报告-全城 AI(135页).pdf
MarketLine:沃尔沃集团并购、联盟与投资分析报告(英文版)(135页).pdf
2019年世界发展报告-工作性质的变革(135页).pdf
蜜雪冰城招股说明书-连锁茶饮第一股(724页).pdf
线上健身第一股-keep招股说明书(463页).pdf
麦肯锡:2023中国消费者报告:韧性时代(33页).pdf
罗振宇2023“时间的朋友”跨年演讲完整PDF.pdf
QuestMobile:2022新中产人群洞察报告(37页).pdf
QuestMobile:2022年中国短视频直播电商发展洞察报告(30页).pdf
町芒:2022现制茶饮行业研究报告(47页).pdf
小红书:2023年度生活趋势报告(34页).pdf
QuestMobile:2021新中产人群洞察报告(30页).pdf
锐仕方达&薪智:2022年薪酬白皮书(105页).pdf