跳到内容

    使用按需gpu加速Spark/RAPIDS集群运行复杂工作负载

    Apache Spark是处理大型数据集的实际标准, 越来越多地用于拟合和评分复杂的机器学习模型. gpu加速的工作节点可以大大加快模型训练阶段,同时降低成本(通常是数量级). 尽管数据科学家通常可以通过Scala使用Spark, Python, 和R, 供应和维护Spark集群的复杂性可能相当大.

    直营平台将介绍一个基于Domino数据科学平台的集成解决方案, 英伟达NGC容器, 以及Apache Spark的RAPIDS加速器, 这使得数据科学家能够轻松地为Spark/RAPIDS集群提供任意数量的gpu加速工作人员, 并通过他们喜欢的集成开发环境访问它.

    发言人: Nikolay Manchev - Domino数据实验室EMEA首席数据科学家

     

    得到视频