PySpark читает и записывает файлы CSV в DataFrame.
PySpark читает и записывает файлы CSV в DataFrame.
В этой статье Юн Дуоцзюнь Воляи все узнают, как Воля. CSV документ, несколько CSV документиместныйдокумент В середине годаизвседокументчитатьприезжать PySpark DataFrame середина,Используйте несколько параметров, чтобы изменить строку по умолчанию для многократного использования. Не сохраняйте параметры. CSV документнапиши ответ DataFrame。

PySpark существовать DataFrameReader предоставлено наcsv("path")Воля CSV документчитать в PySpark DataFrame и сохрани или напиши CSV документиз ФункцияdataframeObj.write.csv("path"),существовать В этой статье Юн Дуоцзюнь Воляи все узнают, как Воля.местный Оглавлениесерединаизодинокийдокумент, несколькодокумент、вседокументчитать в DataFrame, примените некоторые преобразования и, наконец, используйте PySpark Примером может быть DataFrame напиши ответ CSV документ。

PySpark Поддерживает чтение с использованием вертикальной черты, запятой, табуляции, пробела или любого другого символа-разделителя документа. CSV документ。

Уведомление: готов к использованию из коробки PySpark Поддержка будет CSV、JSON и Болеедокумент Форматиздокументчитатьприезжать PySpark DataFrame середина.

Оглавление

  • Прочитать несколько CSV документ
  • читать Оглавлениесерединаизвсе CSV документ
  • читать CSV документчасиз Параметры
    • разделитель
    • логическая схема
    • заголовок
    • цитаты
    • nullValues
    • Формат даты (формат даты)
  • использовать Указано пользователемизмодельчитать CSV документ
  • Применить преобразование DataFrame
  • Воля DataFrame писать CSV документ
    • использовать Параметры
    • режим сохранения

Считать CSV-файл в DataFrame

Уседатафрамеридер из csv("path") или format("csv").load("path"),Может ли Воля CSV-документ читаться в PySpark DataFrame?, эти методы воля принимают чтение документа в качестве параметра. Когда использовать format("csv") методчас,Также можно указать источник данных по его полному имени.,Но для встроенных источников,может простоиспользоватьониизкороткое имя(csvjsonparquetjdbctext ждать).

Видеть GitHub начальствоизданныенаборzipcodes.csv。

Портал: https://github.com/spark-examples/pyspark-examples/blob/master/resources/zipcodes.csv)

Язык кода:javascript
копировать
spark = SparkSession.builder().master("local[1]")
          .appName("SparkByExamples.com")
          .getOrCreate()
df = spark.read.csv("/tmp/resources/zipcodes.csv")
df.printSchema()

использовать полное изданное имя источника, вы также можете сделать следующее.

Язык кода:javascript
копировать
df = spark.read.format("csv")
                  .load("/tmp/resources/zipcodes.csv")
# или
df = spark.read.format("org.apache.spark.sql.csv")
                  .load("/tmp/resources/zipcodes.csv")
df.printSchema()

этот Примером может бедныечитатьto DataFrame Список"_c0"середина,для первого столбцаи"_c1"второй столбец,И так далее. По умолчанию,Все эти типы столбцов рассматриваются как строки.

Язык кода:javascript
копировать
root
 |-- _c0: string (nullable = true)
 |-- _c1: string (nullable = true)
 |-- _c2: string (nullable = true)

1.1 Использование записей заголовков в качестве имен столбцов

Если входной документ имеет имя столбца из заголовка, вам необходимо указать заголовок Параметры использовать явно, не упоминая об этом. option("header", True),API Думайте о заголовках как о записях данных.

вам нужноиспользоватьoption("header", True)Явнодля"header"ПараметрыобозначениедляTrue,Если не установлено,тогда по умолчанию Воля "header" Название как запись данных.

Язык кода:javascript
копировать
df2 = spark.read.option("header",True) \
     .csv("/tmp/resources/zipcodes.csv")

# df2 = spark.read.csv("/tmp/resources/zipcodes.csv",header=True)

Как упоминалось ранее, PySpark По умолчанию Волявсе столбцы читать для строки (StringType). Я Волясуществовать назад, чтобы узнать, как от записи заголовка читать. schema (inferschema) и на основеданныепроизводнаяinferschemaСписоктип。

1.2 Чтение нескольких файлов CSV

использоватьread.csv()Метод в порядке Прочитать несколько csv документ,Просто передайте все имена документов через запятую для путей.,Например:

Язык кода:javascript
копировать
df = spark.read.csv("path1,path2,path3")

1.3 читать Оглавлениесерединаизвсе CSV документ

Только Воля Оглавлениеделатьдляcsv()методизпуть, пройденный кметод,Мы можем воля Оглавление из всех CSV-документов прочитать в DataFrame середина.

Язык кода:javascript
копировать
df = spark.read.csv("Folder path")

2. Параметры чтения файлов CSV

PySpark Обеспечивает разнообразную обработку данных CSV-документаSETИз параметров. Ниже приведены некоторые из наиболее важных параметров, объясненные на примерах.

Ссылки можно использовать option(self, key, value) Приходитьиспользовать Несколько Параметры。Долженметод Есть альтернативаметод:options(self, **options),Эффект тот же.

2.1 Delimiter

Параметры delimiter используется для указания CSV документировать разделитель столбцов. По умолчанию это запятая(,) характер。Можетиспользоватьэтот Параметры Воляего настройкидлялюбойхарактер,НапримерТруба (|), вкладка (\t), пробел. Все это должно быть основано на реальности. CSV dataSET документиз конкретной настройки формы.

Язык кода:javascript
копировать
df3 = spark.read.options(delimiter=',') \
  .csv("C:/PyDataStudio/zipcodes.csv")

2.2 InferSchema

Это значение параметра по умолчанию установлено для False,Настройки True , Spark автоматически определит тип столбца на основе данных.

Язык кода:javascript
копировать
df4 = spark.read.options(inferSchema='True',
                         delimiter=',') \
                .csv("PyDataStudio/zipcodes.csv")

или,также Можетчтобы передать ссылкуoption()метод Приходитьписатьэто。

Язык кода:javascript
копировать
df4 = spark.read.option("inferSchema",True) \
                .option("delimiter",",") \
                .csv("PyDataStudio/zipcodes.csv")

2.3 Header

Используйте этот параметр CSV Первая строка документа — для. По умолчанию это значение параметра False , и все типы столбцов считаются строками.

Язык кода:javascript
копировать
df5 = spark.read.options(header='True', 
                         inferSchema='True', 
                         delimiter=',') \
    .csv("PyDataStudio/zipcodes.csv")

2.4 Quotes

использовать, когда есть столбец с разделителем, используемым для разделения столбцов quotes Параметрыобозначениекавычкихарактер,По умолчанию это'',А разделитель Воля внутри кавычек игнорируется. Но эти параметры,Можно установить любой символ.

2.5 NullValues

использовать nullValues Параметры,Вы можете указать пустое значение в строке в формате CSV. Например,если Воля"1900-01-01"существовать DataFrame Установите значение null столбец «Дата».

2.6 DateFormat

Параметры dateFormat для настройки входа DateType и TimestampType Столбец в формате из параметров. Поддержать всех java.text.SimpleDateFormat Формат.

Уведомление: В дополнение к вышеуказанным параметрам PySpark CSV API также поддерживает множество других параметров.,Вы можете проверить официальную документацию PySpark.

3. Чтение файлов CSV, используя пользовательскую схему.

еслизнать заранеедокументиз Архитектураи Не хочуиспользоватьinferSchemaПараметры Приходитьобозначение Списокимяитип,пожалуйстаиспользоватьобозначениеиз Настроить СписокимяschemaииспользоватьschemaПараметрытип。

Язык кода:javascript
копировать
schema = StructType() \
      .add("RecordNumber",IntegerType(),True) \
      .add("Zipcode",IntegerType(),True) \
      .add("ZipCodeType",StringType(),True) \
      .add("City",StringType(),True) \
      .add("State",StringType(),True) \
      .add("LocationType",StringType(),True) \
      .add("Lat",DoubleType(),True) \
      .add("Long",DoubleType(),True) \
      .add("Xaxis",IntegerType(),True) \
      .add("Yaxis",DoubleType(),True) \
      .add("Zaxis",DoubleType(),True) \
      .add("WorldRegion",StringType(),True) \
      .add("Country",StringType(),True) \
      .add("LocationText",StringType(),True) \
      .add("Location",StringType(),True) \
      .add("Decommisioned",BooleanType(),True) \
      .add("TaxReturnsFiled",StringType(),True) \
      .add("EstimatedPopulation",IntegerType(),True) \
      .add("TotalWages",IntegerType(),True) \
      .add("Notes",StringType(),True)
      
df_with_schema = spark.read.format("csv") \
      .option("header", True) \
      .schema(schema) \
      .load("/PyDataStudio/zipcodes.csv")

4. Примените преобразование DataFrame.

от CSV документсоздавать DataFrame После этого вы можете подать заявку DataFrame поддерживатьизвсе Конвертироватьи Держатьделать。

5. Запишите DataFrame в файл CSV.

использоватьPySpark DataFrameWriter объектизwrite()метод Воля PySpark DataFrame писать CSV документ。

Язык кода:javascript
копировать
df.write.option("header",True) \
 .csv("/PyDataStudio/spark_output/zipcodes")

5.1 Options

существоватьписать CSV В документе вы можете использовать несколько параметров. Например, установите header для True Воля DataFrame Имена столбцов используются в качестве заголовков для записи вывода и использования. delimiterсуществовать CSV Указанный разделитель в выходном документе.

Язык кода:javascript
копировать
df2.write.options(header='True',
                  delimiter=',') \
         .csv("/PyDataStudio/spark_output/zipcodes")

Другие доступные параметры quote, escape, nullValue, dateFormat, quoteMode。специфический Можетпросмотреть официальную документацию。

5.2 Режим сохранения

PySpark DataFrameWriter Есть еще один mode() Метод для указания режима сохранения.

  • overwrite– Шаблон используется для перезаписи существующего документа.
  • append– Воляданные добавлены к существующему документу.
  • ignore– Игнорировать пишет, когда документ уже существует.
  • error– Это параметр по умолчанию, который возвращает ошибку, если документ уже существует.
Язык кода:javascript
копировать
df2.write.mode('overwrite') \
         .csv("/PyDataStudio/spark_output/zipcodes")
# Вы также можете написать так
df2.write.format("csv") \
         .mode('overwrite') \
         .save("/PyDataStudio/spark_output/zipcodes")

6. Полный пример чтения CSV с помощью PySpark.

Язык кода:javascript
копировать
import pyspark
from pyspark.sql import SparkSession
from pyspark.sql.types import StructType,StructField, StringType, IntegerType 
from pyspark.sql.types import ArrayType, DoubleType, BooleanType
from pyspark.sql.functions import col,array_contains

spark = SparkSession.builder.appName('SparkByExamples.com').getOrCreate()

df = spark.read.csv("/PyDataStudio/zipcodes.csv")

df.printSchema()

df2 = spark.read.option("header",True) \
     .csv("/PyDataStudio/zipcodes.csv")
df2.printSchema()
   
df3 = spark.read.options(header='True', delimiter=',') \
  .csv("/PyDataStudio/zipcodes.csv")
df3.printSchema()

schema = StructType() \
      .add("RecordNumber",IntegerType(),True) \
      .add("Zipcode",IntegerType(),True) \
      .add("ZipCodeType",StringType(),True) \
      .add("City",StringType(),True) \
      .add("State",StringType(),True) \
      .add("LocationType",StringType(),True) \
      .add("Lat",DoubleType(),True) \
      .add("Long",DoubleType(),True) \
      .add("Xaxis",IntegerType(),True) \
      .add("Yaxis",DoubleType(),True) \
      .add("Zaxis",DoubleType(),True) \
      .add("WorldRegion",StringType(),True) \
      .add("Country",StringType(),True) \
      .add("LocationText",StringType(),True) \
      .add("Location",StringType(),True) \
      .add("Decommisioned",BooleanType(),True) \
      .add("TaxReturnsFiled",StringType(),True) \
      .add("EstimatedPopulation",IntegerType(),True) \
      .add("TotalWages",IntegerType(),True) \
      .add("Notes",StringType(),True)
      
df_with_schema = spark.read.format("csv") \
      .option("header", True) \
      .schema(schema) \
      .load("/PyDataStudio/zipcodes.csv")
df_with_schema.printSchema()

df2.write.option("header",True) \
         .csv("/PyDataStudio/spark_output/zipcodes123")
boy illustration
Неразрушающее увеличение изображений одним щелчком мыши, чтобы сделать их более четкими артефактами искусственного интеллекта, включая руководства по установке и использованию.
boy illustration
Копикодер: этот инструмент отлично работает с Cursor, Bolt и V0! Предоставьте более качественные подсказки для разработки интерфейса (создание навигационного веб-сайта с использованием искусственного интеллекта).
boy illustration
Новый бесплатный RooCline превосходит Cline v3.1? ! Быстрее, умнее и лучше вилка Cline! (Независимое программирование AI, порог 0)
boy illustration
Разработав более 10 проектов с помощью Cursor, я собрал 10 примеров и 60 подсказок.
boy illustration
Я потратил 72 часа на изучение курсорных агентов, и вот неоспоримые факты, которыми я должен поделиться!
boy illustration
Идеальная интеграция Cursor и DeepSeek API
boy illustration
DeepSeek V3 снижает затраты на обучение больших моделей
boy illustration
Артефакт, увеличивающий количество очков: на основе улучшения характеристик препятствия малым целям Yolov8 (SEAM, MultiSEAM).
boy illustration
DeepSeek V3 раскручивался уже три дня. Сегодня я попробовал самопровозглашенную модель «ChatGPT».
boy illustration
Open Devin — инженер-программист искусственного интеллекта с открытым исходным кодом, который меньше программирует и больше создает.
boy illustration
Эксклюзивное оригинальное улучшение YOLOv8: собственная разработка SPPF | SPPF сочетается с воспринимаемой большой сверткой ядра UniRepLK, а свертка с большим ядром + без расширения улучшает восприимчивое поле
boy illustration
Популярное и подробное объяснение DeepSeek-V3: от его появления до преимуществ и сравнения с GPT-4o.
boy illustration
9 основных словесных инструкций по доработке академических работ с помощью ChatGPT, эффективных и практичных, которые стоит собрать
boy illustration
Вызовите deepseek в vscode для реализации программирования с помощью искусственного интеллекта.
boy illustration
Познакомьтесь с принципами сверточных нейронных сетей (CNN) в одной статье (суперподробно)
boy illustration
50,3 тыс. звезд! Immich: автономное решение для резервного копирования фотографий и видео, которое экономит деньги и избавляет от беспокойства.
boy illustration
Cloud Native|Практика: установка Dashbaord для K8s, графика неплохая
boy illustration
Краткий обзор статьи — использование синтетических данных при обучении больших моделей и оптимизации производительности
boy illustration
MiniPerplx: новая поисковая система искусственного интеллекта с открытым исходным кодом, спонсируемая xAI и Vercel.
boy illustration
Конструкция сервиса Synology Drive сочетает проникновение в интрасеть и синхронизацию папок заметок Obsidian в облаке.
boy illustration
Центр конфигурации————Накос
boy illustration
Начинаем с нуля при разработке в облаке Copilot: начать разработку с минимальным использованием кода стало проще
boy illustration
[Серия Docker] Docker создает мультиплатформенные образы: практика архитектуры Arm64
boy illustration
Обновление новых возможностей coze | Я использовал coze для создания апплета помощника по исправлению домашних заданий по математике
boy illustration
Советы по развертыванию Nginx: практическое создание статических веб-сайтов на облачных серверах
boy illustration
Feiniu fnos использует Docker для развертывания личного блокнота Notepad
boy illustration
Сверточная нейронная сеть VGG реализует классификацию изображений Cifar10 — практический опыт Pytorch
boy illustration
Начало работы с EdgeonePages — новым недорогим решением для хостинга веб-сайтов
boy illustration
[Зона легкого облачного игрового сервера] Управление игровыми архивами
boy illustration
Развертывание SpringCloud-проекта на базе Docker и Docker-Compose