如何转换这种类型的数据
使用Scala将其转换为Spark RDD,以便我们可以获得:
我认为我们可以将输入拆分为一系列行,并再次在每行上使用“,”进行拆分,然后将其添加到一个Map中,例如每行的第一个元素作为键,每个交替元素作为值。
但需要帮助在Scala中实现此操作。
"Row-Key-001, K1, 10, A2, 20, K3, 30, B4, 42, K5, 19, C20, 20"
"Row-Key-002, X1, 20, Y6, 10, Z15, 35, X16, 42"
"Row-Key-003, L4, 30, M10, 5, N12, 38, O14, 41, P13, 8"
使用Scala将其转换为Spark RDD,以便我们可以获得:
Row-Key-001, K1
Row-Key-001, A2
Row-Key-001, K3
Row-Key-001, B4
Row-Key-001, K5
Row-Key-001, C20
Row-Key-002, X1
Row-Key-002, Y6
Row-Key-002, Z15
Row-Key-002, X16
Row-Key-003, L4
Row-Key-003, M10
Row-Key-003, N12
Row-Key-003, O14
Row-Key-003, P13
我认为我们可以将输入拆分为一系列行,并再次在每行上使用“,”进行拆分,然后将其添加到一个Map中,例如每行的第一个元素作为键,每个交替元素作为值。
但需要帮助在Scala中实现此操作。
.grouped(n)
! - Xavier Guihot