PySpark-переименование нескольких столбцов с помощью withColumnRenamed
Я хочу изменить имена двух столбцов с помощью функции spark withColumnRenamed. Конечно, я могу написать:
data = sqlContext.createDataFrame([(1,2), (3,4)], ['x1', 'x2'])
data = (data
.withColumnRenamed('x1','x3')
.withColumnRenamed('x2', 'x4'))
но я хочу сделать это за один шаг (имея список/кортеж новых имен). К сожалению, ни это:
data = data.withColumnRenamed(['x1', 'x2'], ['x3', 'x4'])
ни этот:
data = data.withColumnRenamed(('x1', 'x2'), ('x3', 'x4'))
работает. Можно ли сделать это таким образом?
2 ответов
невозможно использовать withColumnRenamed
. Вы можете использовать метод, потому что он принимает в качестве аргумента список с именами столбцов:
data.toDF(['x3', 'x4'])
также можно переименовать с помощью simple select
:
from pyspark.sql.functions import col
mapping = dict(zip(['x1', 'x2'], ['x3', 'x4']))
data.select([col(c).alias(mapping.get(c, c)) for c in data.columns])
Я также не мог найти простое решение pyspark, поэтому просто построил свой собственный, похожий на pandas'df.rename(columns={'old_name_1':'new_name_1', 'old_name_2':'new_name_2'})
.
def rename_columns(df, columns):
if isinstance(columns, dict):
for old_name, new_name in columns.items():
df = df.withColumnRenamed(old_name, new_name)
return df
else:
raise ValueError("'columns' should be a dict, like {'old_name_1':'new_name_1', 'old_name_2':'new_name_2'}")
таким образом, ваше решение будет выглядеть как data = rename_columns(data, {'x1': 'x3', 'x2': 'x4'})
Это экономит мне несколько строк кода, надеюсь, что это поможет вам тоже.