《性能测试PTS3.0 可观测加持的下一代性能压测服务.pdf》由会员分享,可在线阅读,更多相关《性能测试PTS3.0 可观测加持的下一代性能压测服务.pdf(36页珍藏版)》请在三个皮匠报告上搜索。
1、性能测试PTS3.0可观测加持的下一代性能压测服务肖长军阿里云技术专家性能测试不只有发压,还存在以下问题1.压测影响的范围难以评估2.压测数据相关指标割裂3.压测不满足预期难分析4.压测后系统容量难评估当前性能测试常面临的问题数据构造压测指标中间件监控数据库监控应用监控性能分析发起压测场景配置系统监控容量分析异常分析容器监控压测影响评估性能压测可观测,从压测到数据分析压测链路可观测精准快速构建压测链路拓扑压测前全局了解压测影响范围性能瓶颈可观测聚合压测请求各指标和链路事件实现链路剖析,给出性能问题原因性能指标可观测打通压测链路所涉及到的监控指标自动生成压测及各实例水位大盘系统容量可观测打通压测
2、性能指标与各服务实例资源水位梯度压测验证及评估整体容量PTS 3.0:可观测加持的下一代性能压测服务压测准备ARMS-应用列表压测配置性能基线管理脚本调试ARMS-数据库调用ARMS-接口调用Prometheus-容器Prometheus-IaaSARMS-链路拓扑压测执行压测引擎打标ARMS-调用链压测引擎日志采集Streaming 统一处理压测 Grafana 大盘压测报告ARMS-调用链分析ARMS-智能洞察性能基线对比施压机监控大盘容量评估验证全景快照请求采样日志压测引擎:PTS、JMeter数据开放:Prometheus、Grafana、Logs生成式 AI云原生大模型业务上云压测场
3、景微服务、中间件性能测试网关性能测试大促活动数据库性能测试规格选型常态化压测容器性能测试压测可观测化Observable Performance Testing压测智能化Intelligent Performance Testing全面拥抱开源Embrace open sourcePTS 3.0:下一代性能测试服务平台特性接入简单,无需额外配置应用接入 ARMS 后,进行压测脚本调试即可建立链路关系拓扑图;链路拓扑范围边界清晰准确只显示压测任务请求链路所涉及的应用或服务;链路拓扑组件自动识别包含应用以及所调用的中间件或者云服务;压测链路可视化,提前感知压测范围*截图数据来自模拟数据,仅做功能效
4、果示意业务总量大盘,对核心业务指标监控,包含场景请求量、业务转换率等应用监控大盘,覆盖请求链路所涉及的应用监控指标概览,以应用为维度包含各应用实例数、请求数、错误数、RT 等指标ECS 实例监控大盘,包含各实例 CPU、内存使用率,网络带宽等指标接入层 SLB 大盘,包含 VIP、实例数,连接数、丢包数等指标容器服务监控大盘,覆盖 APIServer、Node、Pod 等核心实例组件监控,覆盖 QPS、成功率、Pod 数,资源使用率等指标压测性能大盘,包含压测 TPS、RT、成功率、异常请求数、总请求数、90/95/99 RT 等数据库实例监控大盘,包含实例 CPU、内存、连接数、TPS 等指
5、标压测数据大盘,链路各项指标全监控*截图数据来自模拟数据,仅做功能效果示意性能瓶颈可观测,快速定位问题根因在性能测试过程中,点击智能洞察,查看异常事件进入异常事件详情,查看异常次数、范围和异常堆栈信息进入调用链详情,查看异常分析报告。分析报告中指出:异常时刻连接池最大使用率为100.00%(最大活跃连接数/最大可用连接数)。直接给出性能瓶颈点:建议调大连接池配置。*截图数据来自模拟数据,仅做功能效果示意在资源未成为瓶颈时,并发量、TPS、CPU趋势呈线性关系。当资源利用饱和时,随业务并发量增长,TPS趋势保持平稳状态,CPU开始飙升 当资源利用饱和且并发量突破极限容量点时,TPS趋势及CPU都
6、出现波动,此时服务开始出现不可用的现象自动识别链路组件,推荐较优资源水位阈值逐步加压,到达资源阈值,计算预期流量所需资源实例数继续加压,达到资源极限,计算在此资源实例数下支持的最大并发量系统容量可观测,自动化容量规划与验证*截图数据来自模拟数据,仅做功能效果示意创建压测任务生成式AI请输入您的问题请选择需要压测的应用或提供需要压测的URLmall-product-server1.mall-product-server2.mall-gateway3.mall-user-server 请选择需要压测的接口/components/api/v1/mall/product 1./components/a