《【AIGC分论坛】--大模型加持下的无代码应用开发与实践--腾讯揭老师.pdf》由会员分享,可在线阅读,更多相关《【AIGC分论坛】--大模型加持下的无代码应用开发与实践--腾讯揭老师.pdf(28页珍藏版)》请在三个皮匠报告上搜索。
1、CAICT中国信通院|中国通信标准化协会5.1低代码无代码202号Low Code & No Code产业大会IndustryConference重塑数字化引擎,畅享现代化篇章AI大模型加持下低代码应用实践与畅想CAICT云CAIC#page#站动低代码无代码产业大会AIGC的三种形态,从用途的角度区分重塑数字化引端到端内容生成(经典AIGContent)AI生成最终产品,它们可以直接被最终消费者使用。例如文本、图片、音频和视频,它们都是可以合最终用户的。中间产物生成(AIGCode)AI生成的中间产品,它们往往需要进一步的加工和使用。例如生成的代码片段和完整的复杂代码,它们通常被用作开发更复
2、杂系统或应用的基础。任务与动作生成(AIGaCtion),以完成更复杂的任务。例如自然语言交互,AI生成的具体动作或任务,它们常常作为粘合层,连接不同系统和应用,复杂任务执行等。CAICT云CAICT云#page#站动低代码无代码产业大会AIGXContent.lmage重型数字化引票代化简鸡Astabillity.ai#page#站动低代码无代码产业大会AIGXContent.Text重塑数字化引ChatGPT的工作原理是什么?3口4ChatGPT的工作原理主要基于一种被称为Transformer的深度学习模型架构,特别是其中的变体-GPT(GenerativePretrainedTrans
3、former)GPT模型是一种自注意力模型(self-atentionmodel),也被称为transformer模型。这种核型的主要特点是其能够考虑输入文本中的所有单词,并在生成新的文本时考虑这些单词之间的关系。这使得GPT模型在理解语境,处理长距离依赖关系等方面表现出优异的性能。该模型是以一种被称为“自回归“的方式训练的,这意味着模型在学习时会试图预测给定的一系列单词后面会出现什么单词。在训练时,模型会被大量的文本数据“喂养”,如维基百科、书籍、网页等,从而学习到语言的各种模式和结构。在生成文本时,例如在聊天应用中,模型会接收到一些初始的文本输入(如聊天的历史记录),然后生成接下来可能出现
4、的文本。这是通过计算所有可能的下一个单词的概率,然后选择概率最高的单词进行生成的。CAICT然而,值得注意的是,尽管模型能够生成连贯并通常在语法上正确的句子,但它并不真正理解语言。它并不知道世界的具体事物,而是仅仅模仿它在训练数据中看到的模式。因此,它可能无法提供准确的信息,或者在某些情况下可能会生成不怡当或有误导性的回答。至2021年为止,OpenA已经发布了几个版本的GPT模型,包括GPT-1、GPT-2和GPT-3。这些模型在大小和能力上都有所不同,但基本的工作原理是相同的。#page#站动低代码无代码业大会AIGX- Content.Audio-MusicN漠河舞厅元水星记A工升蒸好汉
5、歌她说青花瓷活记#page#站动低代码无代码产业大会AIGX- Content.video重塑数字化引TlafonsmpkigtougteidfNeto York City lofi上CAICT云大#page#站动低代码无代码产业大会AIGX-Code,开启十倍程序员的时代重数字化引代化篇章TS Sont.sqlgoBarsimport datetimeparse_expenses(expenses_string):defmmparse the list of expenses and return the list of triples(date,value, currency)Ignore
6、 lines starting with#,Parse the date using datetime.Example expenses_string:2016-01-02-34.01USD2016-01-032.59DKK162016-01-03-2.72EUR11101日12expenses=B好巧巧功阳妇站forline in expenses_string.splitlines():ifline.startswith(”#):continuedate,value,currency=line.split()expensesappend(datetime.datetime.strptime