Як змінити назви стовпців кадру даних у pyspark?


201

Я надходжу з фону панд, і я звик читати дані з файлів CSV у кадр даних, а потім просто змінювати імена стовпців на щось корисне за допомогою простої команди:

df.columns = new_column_name_list

Однак те ж не працює у фреймах даних pyspark, створених за допомогою sqlContext. Єдине рішення, з якого я міг би зробити це легко, це наступне:

df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
  k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)

Це в основному визначає змінну двічі і виводить схему спочатку, потім перейменуючи імена стовпців, а потім завантажуючи фрейм даних знову оновленою схемою.

Чи є кращий і ефективніший спосіб зробити це, як ми робимо в пандах?

Моя іскрова версія - 1.5.0

Відповіді:


334

Є багато способів зробити це:

  • Варіант 1. Використання selectExpr .

    data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)], 
                                      ["Name", "askdaosdka"])
    data.show()
    data.printSchema()
    
    # Output
    #+-------+----------+
    #|   Name|askdaosdka|
    #+-------+----------+
    #|Alberto|         2|
    #| Dakota|         2|
    #+-------+----------+
    
    #root
    # |-- Name: string (nullable = true)
    # |-- askdaosdka: long (nullable = true)
    
    df = data.selectExpr("Name as name", "askdaosdka as age")
    df.show()
    df.printSchema()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
    #root
    # |-- name: string (nullable = true)
    # |-- age: long (nullable = true)
    
  • Варіант 2. Використовуючи withColumnRenamed , зауважте, що цей метод дозволяє "перезаписати" той самий стовпець. Для Python3 замініть xrangeна range.

    from functools import reduce
    
    oldColumns = data.schema.names
    newColumns = ["name", "age"]
    
    df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data)
    df.printSchema()
    df.show()
    
  • Варіант 3. використовуючи псевдонім , у Scala ви також можете використовувати як .

    from pyspark.sql.functions import col
    
    data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age"))
    data.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
  • Варіант 4. Використання sqlContext.sql , що дозволяє використовувати SQL-запити для DataFramesзареєстрованих у вигляді таблиць.

    sqlContext.registerDataFrameAsTable(data, "myTable")
    df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable")
    
    df2.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    

1
Я зробив це з forциклом + withColumnRenamed, але ваш reduceваріант дуже приємний :)
Феліпе Джерард

1
Отже, оскільки в Spark нічого не робиться, поки не буде викликано дію в DF, це просто менш елегантний код ... Зрештою, отриманий DF точно такий же!
Феліпе Джерард

2
@FelipeGerard Перевірте цю публікацію , якщо у вас є багато стовпців, можуть статися погані речі.
Альберто Бонсанто

1
@AlbertoBonsanto Як вибрати стовпець як псевдонім, якщо є більше 100 стовпців, що є найкращим варіантом

3
@NuValue, спершу слід запуститиfrom functools import reduce
joaofbsm

170
df = df.withColumnRenamed("colName", "newColName")
       .withColumnRenamed("colName2", "newColName2")

Перевага використання цього способу: із довгим списком стовпців ви хочете змінити лише кілька назв стовпців. Це може бути дуже зручно в цих сценаріях. Дуже корисно при з'єднанні таблиць із дублюючими назвами стовпців.


чи є варіант цього рішення, який залишає всі інші стовпці незмінними? з цим методом та іншими залишилися лише явно названі стовпці (усі інші видалено)
Quetzalcoatl

1
+1 для мене добре працював, просто редагував вказаний стовпчик, залишаючи інші незмінними, а стовпці не видалялися.
mnis.p

2
@Quetzalcoatl Ця команда, як видається, змінює лише вказаний стовпець, зберігаючи всі інші стовпці. Отже, чудова команда перейменувати лише одне з потенційно багатьох імен стовпців
user989762

@ user989762: погоджено; моє початкове розуміння було неправильним на цьому ...!
Quetzalcoatl

62

Якщо ви хочете змінити всі назви стовпців, спробуйте df.toDF(*cols)


5
це рішення є найбільш близьким до df.column = new_column_name_list на ОП, як за тим, наскільки це стисло та як його виконання.
Кетцалькоатль

Я думаю, що це слід обрати як найкращу відповідь
HanaKaze

Для мене я отримував імена заголовків із даних даних панди, тому я щойно використавdf = df.toDF(*my_pandas_df.columns)
Nic Scozzaro

Ця відповідь мене бентежить. Чи не повинно бути відображення зі старих назв стовпців до нових імен? Чи працює це, маючи colsнові імена стовпців і просто припускаючи порядок імен у, colsвідповідає порядку стовпців фрейму даних?
rbatt

47

У випадку, якщо ви хочете застосувати просте перетворення до всіх назв стовпців, цей код виконує завдання: (я замінюю всі пробіли на підкреслення)

new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))

df = df.toDF(*new_column_name_list)

Дякуємо @ user8117731 за toDfхитрість.


14

Якщо ви хочете перейменувати один стовпець, а решту збережіть таким, яким він є:

from pyspark.sql.functions import col
new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])

14

df.withColumnRenamed('age', 'age2')


1
Відповідь Панкай Кумара і відповідь Альберто Bonsanto в (які з 2016 і 2015, відповідно) вже пропонують використовувати withColumnRenamed.
Ендрю Майєрс

Дякую, так, але є кілька різних синтаксисів, можливо, ми повинні зібрати їх у більш формальну відповідь? data.withColumnRenamed (oldColumns [idx], newColumns [idx]) vs data.withColumnRenamed (ім'я стовпця, нове ім'я стовпця) Я думаю, це залежить від того, яку версію pyspark ви використовуєте
Sahan Jayasumana

1
Це не інший синтаксис. Єдина відмінність - ви не зберігали імена стовпців у масиві.
Ед Бордін

13

це такий підхід, який я використав:

створити сеанс Pyspark:

import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('changeColNames').getOrCreate()

створити кадр даних:

df = spark.createDataFrame(data = [('Bob', 5.62,'juice'),  ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])

переглянути df із назвами стовпців:

df.show()
+----+------+-----+
|Name|Amount| Item|
+----+------+-----+
| Bob|  5.62|juice|
| Sue|  0.85| milk|
+----+------+-----+

створити список з новими назвами стовпців:

newcolnames = ['NameNew','AmountNew','ItemNew']

змінити назви стовпців df:

for c,n in zip(df.columns,newcolnames):
    df=df.withColumnRenamed(c,n)

переглянути df з новими назвами стовпців:

df.show()
+-------+---------+-------+
|NameNew|AmountNew|ItemNew|
+-------+---------+-------+
|    Bob|     5.62|  juice|
|    Sue|     0.85|   milk|
+-------+---------+-------+

9

Я зробив просту у використанні функцію для перейменування декількох стовпців для фрейму даних Pyspark, на випадок, коли хтось хоче його використовувати:

def renameCols(df, old_columns, new_columns):
    for old_col,new_col in zip(old_columns,new_columns):
        df = df.withColumnRenamed(old_col,new_col)
    return df

old_columns = ['old_name1','old_name2']
new_columns = ['new_name1', 'new_name2']
df_renamed = renameCols(df, old_columns, new_columns)

Будьте уважні, обидва списки повинні бути однакової довжини.


1
Приємна робота на цьому. Трохи надмірності на те, що мені потрібно було. І ви можете просто передати df, тому що це old_columnsбуло б те саме df.columns.
Дарт

7

Ще один спосіб перейменувати лише один стовпець (використовуючи import pyspark.sql.functions as F):

df = df.select( '*', F.col('count').alias('new_count') ).drop('count')

3

Я використовую цей:

from pyspark.sql.functions import col
df.select(['vin',col('timeStamp').alias('Date')]).show()

2
Хоча цей фрагмент коду може вирішити питання, зокрема пояснення дійсно допомагає покращити якість вашої публікації. Пам'ятайте, що ви відповідаєте на запитання читачів у майбутньому, і ці люди можуть не знати причини вашої пропозиції щодо коду.
Ізма

1

Ви можете використовувати наступну функцію для перейменування всіх стовпців вашого фрейму даних.

def df_col_rename(X, to_rename, replace_with):
    """
    :param X: spark dataframe
    :param to_rename: list of original names
    :param replace_with: list of new names
    :return: dataframe with updated names
    """
    import pyspark.sql.functions as F
    mapping = dict(zip(to_rename, replace_with))
    X = X.select([F.col(c).alias(mapping.get(c, c)) for c in to_rename])
    return X

Якщо вам потрібно оновити лише декілька імен стовпців, ви можете використовувати те саме ім’я стовпця у списку substitu_with

Для перейменування всіх стовпців

df_col_rename(X,['a', 'b', 'c'], ['x', 'y', 'z'])

Для перейменування деяких стовпців

df_col_rename(X,['a', 'b', 'c'], ['a', 'y', 'z'])

0

Для перейменування однієї колонки ви все ще можете використовувати toDF (). Наприклад,

df1.selectExpr("SALARY*2").toDF("REVISED_SALARY").show()

0

Ми можемо використовувати різні підходи для перейменування імені стовпця.

Спочатку дозвольте створити просту DataFrame.

df = spark.createDataFrame([("x", 1), ("y", 2)], 
                                  ["col_1", "col_2"])

Тепер спробуємо перейменувати col_1 на col_3. PFB кілька підходів зробити те саме.

# Approach - 1 : using withColumnRenamed function.
df.withColumnRenamed("col_1", "col_3").show()

# Approach - 2 : using alias function.
df.select(df["col_1"].alias("col3"), "col_2").show()

# Approach - 3 : using selectExpr function.
df.selectExpr("col_1 as col_3", "col_2").show()

# Rename all columns
# Approach - 4 : using toDF function. Here you need to pass the list of all columns present in DataFrame.
df.toDF("col_3", "col_2").show()

Ось вихід.

+-----+-----+
|col_3|col_2|
+-----+-----+
|    x|    1|
|    y|    2|
+-----+-----+

Я сподіваюся, що це допомагає.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.