Pyspark DataFrame - 基于列名而非字符串值使用LIKE函数

3

我想在一个列上使用like函数,并将其与另一个列配对使用。是否可以在like函数中使用Column

示例代码:

df['col1'].like(concat('%',df2['col2'], '%'))

错误日志:

py4j.Py4JException:方法like([class org.apache.spark.sql.Column])不存在 在py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:318)中 在py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:326)中 在py4j.Gateway.invoke(Gateway.java:274)中 在py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)中 在py4j.commands.CallCommand.execute(CallCommand.java:79)中 在py4j.GatewayConnection.run(GatewayConnection.java:214)中 在java.lang.Thread.run(Thread.java:748)中

注意:本文为IT技术相关翻译,涉及专业词汇,如有不理解的地方,请参考相关资料或寻求专业人士帮助。
1个回答

5

您可以使用SQL表达式来实现。由于某种原因,python API不直接支持它。例如:

from pyspark.sql.functions import expr

data = [
    ("aaaa", "aa"),
    ("bbbb", "cc")
]

df = sc.parallelize(data).toDF(["value", "pattern"])
df = df.withColumn("match", expr("value like concat('%', pattern, '%')"))
df.show()

输出结果如下:

+-----+-------+-----+
|value|pattern|match|
+-----+-------+-----+
| aaaa|     aa| true|
| bbbb|     cc|false|
+-----+-------+-----+

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接