1、基于分布式云计算节点搭建超低延迟边缘网络应用Akamai Generalized Edge Computing(Gecko)for Low-Latency Web Applications吴琼Akamai 解决方案工程师 资深运维专家起点:一切都始于一个想法1998 年年2022 年年4AKAMAI HISTORYEdge PoPs-CDN|Serverless EdgeCDNServerless computing1,200+Networks1,000TBPS of capacity4,000+Edge PoPs全球数以千计分布最广的边缘节点5AKAMAI HISTORYEdge PoPs-
2、CDN|Serverless|WAF|App&API Protection|DDoS10+TBPS of defense capacityWAFAPIDDoS1,200+Edge PoPs5+24/7 SOCC Locations130Countries将安全防护扩展到边缘Akamai Connected Cloud+AlternativeClouds快速简单价格透明且富有竞争力多云有好与客户本地部署之间的“非竞争关系”Cloud Hyperscalers平台功能全面突出企业级优势(规 模性、稳定性)需要专用工具全功能全功能,规模化规模化简单简单,价格价格“亲民亲民”,可访问可访问为开发者构建
3、为开发者构建,为企业为企业规模化规模化7AKAMAI HISTORYEdge PoPs-CDN|Serverless|WAF|App&API Protection|DDoSCore Compute RegionsRegionsFull stack compute&storage20+Core compute regionsBuilt forDistributed workloads15+Countries连接Akamai的全球骨干网的云计算平台为什么提出边缘云计算节点的构想?动机云原生应用Cloud ACloud BCloud CCDN/Edge用户终端“大集中”式的计算资源部署在主要业务覆盖
4、地区仅有轻量化的计算需求可以被移至边缘大量的“交互”流量运维任务随着“多云”而变得日益复杂挑战分发/缓存内容路径优化CDN当今主流的部署方式云计算中心处理复杂且的海量计算任务具有丰富的云计算服务 CDN边缘广泛分布,往往近具备KV数据库和轻量化FaaS处理能力150ms平均连接延时20ms平均连接延时无法逾越的“距离”边缘云计算节点的实现方式设计Cloud AAkamaiCloud BCDN/Edge用户终端大规模分布计算资源可以根据需求在不同位置、层次进行部署超低延迟优化云资源使用成本Edge-Native 应用优势云原生应用Akamai Edge-Native 的计算连续体云计算站点运行一
5、个名为VBIN的软件包,也称为“主机引擎”,这是一个软件应用程序,它在主机上管理虚拟机。Akamai网络运行ALSI,或Akamai Linux Server Install,能够部署到并管理全球超过400,000台主机。Guest IP的分配器会从数据库中的表中选择一个空闲本地原生IP分配给需要分配IP的Gecko VM。运行环境实现方式Secret管理,包括主机上的运行时秘密保护以及秘密的中央配置、分发和轮换,都由Akamai的KMI来处理。在Gecko主机上的KMI秘密只对root可用,并挂载到ramfs文件系统,这意味着只要主机的RAM子系统有电,它们就存在。密钥管理MLISH是一套客
6、户可以用来连接到他们的虚拟机控制台的带外访问方法。MLISH由3个产品组成:LISH over SSH 显示映射(Graphical LISH)LISH over Web(HTTP)为了突出Gecko站点的访问性能优势,对于MLISH的访问架构,需要进行最小化的站点部署。而不是调度Akamai云平台核心站点的访问功能。我们将原有基于Perl的调度中心代码用GoLang重构了。用户界面技术价值的驱动因素对于开发者来说,使用超大型云商的解决方案或第三方平台集成边缘计算能力更为困难,因为这需要他们管理网络、编排和自动化,尤其是跨不同的技术提供商平台应用的所有者越来越希望能够在他们的网络边缘,提供云计