pyspark mllib
和pyspark ml
包之间有什么区别?
https://spark.apache.org/docs/latest/api/python/pyspark.mllib.html
https://spark.apache.org/docs/latest/api/python/pyspark.ml.html
pyspark mllib
似乎是针对数据框架级别的目标算法,而pyspark ml
则不同。
我发现一个区别是pyspark ml
实现了pyspark.ml.tuning.CrossValidator
,而pyspark mllib
没有。
我的理解是,如果在Apache Spark框架上实现算法,应该使用mllib
,但似乎存在分歧?
似乎没有在这两个框架之间进行互操作性,除非转换类型,因为它们各自包含不同的包结构。