使用 GPU 加速 XGBOOST 在 SPARK 集群上的分布式训练.pdf

编号:29490 PDF 40页 24.95MB 下载积分:VIP专享
下载报告请您先登录!

使用 GPU 加速 XGBOOST 在 SPARK 集群上的分布式训练.pdf

1、NVIDIA使用GPU加速XGBOOST在SPARK集群上的分布式训练Jiaming Yuan BobbyWang 会#page#AGENDAJiaming Yuan介绍XGBoost高性能算法的实现BobbyWang介绍在Spark3.0+集群上利用GPU对XGBoost进行加速人#page#BACKGROUND人#page#XGBOOST梯度提升树模型训练支持regression,classification,ranking,survival以及用户自定义模型大量实际应用w#page#XGBOOST梯度提升随机森林Ranking树Regressiontree1tree2Classifica

2、tion20Survival60+091室)=2+0.9=2.9)=-1-0.9=-1.9Comingw#page#为什么需要高性能GPU运算Bias-variance tradeoff使用更多的树和较小的learningrate有助于降低bias和variance使用随机森林可以通过树的深度和数量降低bias和variance,但随机森林可能需要训练更深的树增大数据量有助于降低bias和variance。Thebackboneofmachinelearning无论通过哪一种方案来降低bias和variance,强大的计算能力都是必须的。而NVIDIAGPU则为XGBoost提供了所需要的计算

3、能力。Source:https./ SHAPw#page#XGBOOST技术栈SparkScalaCuDFXGBoostThrustCubCUDA LibrariesNCCLCUDAw#page#TRAINING#page#向上拓展梯度提升不是一个stochastic算法,在确保准确度的前提下难以直接通过batches进行训练完整的数据集难以加载进入内存aws#page#方案外存训练基于梯度采样分布式训练通过高效采样,在通过增加计算节点太慢!每一个树节保证准确度的前提提升训练性能以及数点都要遍历所有的据加载量下提升数据加载量数据块向上拓展结合外存训练#page#分布式训练GBT模型训练基于类M

4、PI框架(allreduce),需要较高的节点间通信性能。分布式框架(Spark,Dask)通常对数据进行分块处理。而GBT并非stochastic算法,训练前需要先把数据块进行合并,增加内存占用量ETL占用了pipeline的大部分时间。Sn4#page#通信高效的通信TCP套接字很慢!XGBOOST通过NCCL实现GPU间进程通信。(directP2P)根据节点/集群上的可用硬件,将为XGBoost提供最佳的通信性能数据训练Partition 0DMatrix0Partition 1梯度直方图Patition2训练DMatrix 1Partition 3#page#内存占用需要在训练开始前

5、把Spark的数据块进行合并。GPUHistogram算法XGBoost is memory hungryChunk 1Chunk Onom nomnom一数据复制ConcatenatedCSR matrix数据复制Compressed histogram index#page#优化我们对每一个数据块进行sketch,通过sketchmerge对summary进行合并,从而避开了数据的复制After320 batchesChunkoChunk 1100000 rows per batch32 millions rows in totalSketchSketchSummarySummary单节点

6、内存占用45421MBDMatrix:Summary18617MBQuantileDMatrixCompressed histogram indexaius#page#新增inplaceprediction实现。5038450040883500088825000208nnomnom1500区1000058004542118817awug#page#GPU TREE SHAP#page#GPU TREE SHAPMachine learning model explanation using SHAP.XGBoost原生支持SHAPvalue计算,虽然treeshap中featurecontri

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(使用 GPU 加速 XGBOOST 在 SPARK 集群上的分布式训练.pdf)为本站 (X-iao) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
客服
商务合作
小程序
服务号
折叠