Установка и использование PySpark под Windows
Установка и использование PySpark под Windows

1. установка jdk

  • Требуется версия jdk1.8.

Конфигурация переменной среды после загрузки JDK

Добавлена ​​системная переменная JAVA_HOME.

Путь новый

Проверьте, прошла ли установка успешно: javac -version (обратите внимание, что javac — это не Java)

2. установка искры

Официальный сайт скачатьhttp://spark.apache.org/downloads.html,Если окно параметров не загружается, вы можете попытаться открыть URL-адрес на своем мобильном телефоне, чтобы получить ссылку для загрузки, а затем загрузить ее.

Разархивируйте его напрямую, будьте осторожны, чтобы в пути не было пробелов.

Конфигурация переменной среды

Конфигурация пути

Чтобы проверить установку, введите spark-shell в cmd.

Если появится сообщение «Добро пожаловать в Spark», установка прошла успешно. Если Hadoop не установлен, появится указанная выше ошибка, но она не повлияет на установку Spark.

3. установка Hadoop

Официальный сайт скачатьhttps://hadoop.apache.org/releases.html

После распаковки настройте соответствующую среду.

Добавлен HADOOP_HOME в системную переменную.

Конфигурация пути

4. Установка Winutils

В среде Windows вам необходимо установить что-нибудь для замены bin-файла в Hadoop.

Скачать адрес:https://github.com/steveloughran/winutils

Я использовал версию, похожую на Hadoop, и тест прошел нормально.

Непосредственно копировать и заменять

Тест еще раз: искровая оболочка

5. Использование pyspark

Язык кода:javascript
копировать
# Установка пакета
pip install pyspark -i https://pypi.doubanio.com/simple/

тестовое использование pyspark

Язык кода:javascript
копировать
from pyspark import SparkConf
from pyspark.sql import SparkSession
import traceback


appname = "test"  # Название задачи
master = "local"  # Настройка автономного режима''''
local: Все вычисления выполняются в одном потоке без каких-либо параллельных вычислений. Обычно мы используем этот режим для выполнения некоторого тестового кода на локальном компьютере или для практики.
local[K]: Укажите, сколько потоков использовать для выполнения вычислений. Например, local[4] запускает 4 рабочих потока. Обычно наш процессор имеет несколько ядер, поэтому мы указываем несколько потоков, чтобы максимально использовать вычислительную мощность процессора.
local[*]: Этот режим напрямую помогает вам установить количество потоков в соответствии с максимальным количеством ядер ЦП.
'''
spark_driver_host = "10.0.0.248"


try:
    # conf = SparkConf().setAppName(appname).setMaster(master).set("spark.driver.host", spark_driver_host) # кластер
    conf = SparkConf().setAppName(appname).setMaster(master)  # местный
    spark = SparkSession.builder.config(conf=conf).getOrCreate()
    sc = spark.sparkContext
    words = sc.parallelize(
        ["scala",
         "java",
         "hadoop",
         "spark",
         "akka",
         "spark vs hadoop",
         "pyspark",
         "pyspark and spark"
         ])
    counts = words.count()
    print("Number of elements in RDD is %i" % counts)
    sc.stop()
    print('Расчет успешен!')
except:
    sc.stop()
    traceback.print_exc()  # Возврат сообщения об ошибке
    print('Ошибка соединения!')

Если возникает ошибка:

py4j.protocol.Py4JError: org.apache.spark.api.python.PythonUtils.isEncryptionEnabled does not exist in the JVM

Подключениеsparkувеличить передsparkпоиск(Поместите его прямо в начало кода)

Язык кода:javascript
копировать
import findspark
findspark.init()

Результаты испытаний:

Язык кода:javascript
копировать
F:\Anaconda3\python.exe D:/PycharmProjects/demo_pyspark.py
        
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).20/08/27 16:17:44 WARN Utils: Service 'SparkUI' could not bind on port 4040. Attempting port 4041.
Number of elements in RDD is 8
Расчет успешен!


Process finished with exit code 0

Примечание. Каталог не может существовать, когда pyspark сохраняет файл! ! В противном случае будет сообщено об ошибке, что каталог уже существует. Не забудьте удалить все папки!

boy illustration
Неразрушающее увеличение изображений одним щелчком мыши, чтобы сделать их более четкими артефактами искусственного интеллекта, включая руководства по установке и использованию.
boy illustration
Копикодер: этот инструмент отлично работает с Cursor, Bolt и V0! Предоставьте более качественные подсказки для разработки интерфейса (создание навигационного веб-сайта с использованием искусственного интеллекта).
boy illustration
Новый бесплатный RooCline превосходит Cline v3.1? ! Быстрее, умнее и лучше вилка Cline! (Независимое программирование AI, порог 0)
boy illustration
Разработав более 10 проектов с помощью Cursor, я собрал 10 примеров и 60 подсказок.
boy illustration
Я потратил 72 часа на изучение курсорных агентов, и вот неоспоримые факты, которыми я должен поделиться!
boy illustration
Идеальная интеграция Cursor и DeepSeek API
boy illustration
DeepSeek V3 снижает затраты на обучение больших моделей
boy illustration
Артефакт, увеличивающий количество очков: на основе улучшения характеристик препятствия малым целям Yolov8 (SEAM, MultiSEAM).
boy illustration
DeepSeek V3 раскручивался уже три дня. Сегодня я попробовал самопровозглашенную модель «ChatGPT».
boy illustration
Open Devin — инженер-программист искусственного интеллекта с открытым исходным кодом, который меньше программирует и больше создает.
boy illustration
Эксклюзивное оригинальное улучшение YOLOv8: собственная разработка SPPF | SPPF сочетается с воспринимаемой большой сверткой ядра UniRepLK, а свертка с большим ядром + без расширения улучшает восприимчивое поле
boy illustration
Популярное и подробное объяснение DeepSeek-V3: от его появления до преимуществ и сравнения с GPT-4o.
boy illustration
9 основных словесных инструкций по доработке академических работ с помощью ChatGPT, эффективных и практичных, которые стоит собрать
boy illustration
Вызовите deepseek в vscode для реализации программирования с помощью искусственного интеллекта.
boy illustration
Познакомьтесь с принципами сверточных нейронных сетей (CNN) в одной статье (суперподробно)
boy illustration
50,3 тыс. звезд! Immich: автономное решение для резервного копирования фотографий и видео, которое экономит деньги и избавляет от беспокойства.
boy illustration
Cloud Native|Практика: установка Dashbaord для K8s, графика неплохая
boy illustration
Краткий обзор статьи — использование синтетических данных при обучении больших моделей и оптимизации производительности
boy illustration
MiniPerplx: новая поисковая система искусственного интеллекта с открытым исходным кодом, спонсируемая xAI и Vercel.
boy illustration
Конструкция сервиса Synology Drive сочетает проникновение в интрасеть и синхронизацию папок заметок Obsidian в облаке.
boy illustration
Центр конфигурации————Накос
boy illustration
Начинаем с нуля при разработке в облаке Copilot: начать разработку с минимальным использованием кода стало проще
boy illustration
[Серия Docker] Docker создает мультиплатформенные образы: практика архитектуры Arm64
boy illustration
Обновление новых возможностей coze | Я использовал coze для создания апплета помощника по исправлению домашних заданий по математике
boy illustration
Советы по развертыванию Nginx: практическое создание статических веб-сайтов на облачных серверах
boy illustration
Feiniu fnos использует Docker для развертывания личного блокнота Notepad
boy illustration
Сверточная нейронная сеть VGG реализует классификацию изображений Cifar10 — практический опыт Pytorch
boy illustration
Начало работы с EdgeonePages — новым недорогим решением для хостинга веб-сайтов
boy illustration
[Зона легкого облачного игрового сервера] Управление игровыми архивами
boy illustration
Развертывание SpringCloud-проекта на базе Docker и Docker-Compose