当前位置:首页 > 报告详情

SNIA-SDC23-Williams-InSRAM-Compute-For-GenAI-LLM_0.pdf

上传人: 2*** 编号:148883 2023-12-08 53页 4.25MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要讨论了在虚拟会议上,GSI技术公司展示了将计算集成到SRAM中的新范式,以实现低功耗的大规模语言模型(LLMs)。会议涵盖了Transformer模型的基本原理,以及其在生成式AI中的最新进展。文章指出,Transformer模型在2017年提出后,已经取得了显著的发展,如OpenAI的ChatGPT4、Llama 2等模型。这些模型的参数规模巨大,训练过程需要大量的计算资源。文章提出,通过将计算集成到SRAM中,可以有效缓解 Von-Neumann 架构的瓶颈问题,提高计算效率。GSI技术公司的 Associative Processor 就是这种新架构的实例。此外,文章还讨论了不同模型的性能数据,如ChatGPT3的96层、96个“注意力头”和1750亿个参数。最后,文章呼吁读者尝试GSI技术的 Associative Computing,并提供了一个联系邮箱。
"低功耗LLM如何改变未来计算?" 下一个计算革命?" 如何重塑AI未来?"
客服
商务合作
小程序
服务号
折叠