Настройка среды разработки Spark под Linux
Настройка среды разработки Spark под Linux

Общая информация о версии среды разработки следующая:

1、Linux:CentOS 6.8

2. Версия Java: jdk-8u172-linux-x64.tar.gz.

3、HadoopВерсия:hadoop-3.1.0.tar.gz

4. версия Scala: scala-2.12.6.tgz

5. Версия Python: Python-3.6.5.tgz.

6. искровая версия: spark-2.3.0-bin-hadoop2.7.tgz

7. Версия Zookeeper: Zookeeper-3.4.10.tar.gz.

8. версия улья:

9. версия Кафки:

10、серверкластер:192.168.0.110(master),192.168.0.111(slave1),192.168.0.112(slave2)

1. Установка Java

1. Загрузите установочный пакет jdk в каталог /usr/local/lib и распакуйте его.

2. Скопируйте разархивированную папку на два других компьютера.

3、СантайсерверИзменить отдельноbigdataПеременные пользовательской среды

4. Сделайте конфигурацию эффективной и проверьте

2. Установка Hadoop

1. Создайте каталог bigdata в домашнем каталоге пользователя bigdata, загрузите установочный пакет Hadoop и распакуйте его.

2. Войдите в каталог файла конфигурации Hadoop и измените конфигурацию Hadoop.

3. Измените core-site.xml и добавьте содержимое в красное поле.

4. Измените hdfs-site.xml и создайте соответствующий каталог.

5. Измените файл Yarn-site.xml.

6. Модифицировать рабочие (старая версия - слейвы)

7. Измените Hadoop-env.sh и добавьте JAVA_HOME.

8. Распространите Hadoop, настроенный на ведущем устройстве, на каждое подчиненное устройство.

9. Просто настройте переменные среды под пользователем bigdata на ведущем устройстве.

10. Сделайте переменные среды эффективными и проверьте

11. При первом запуске hdfs необходимо сначала отформатировать hdfs [hdfs namenode -format], а затем запустить hdfs [start-dfs.sh]

12. Вы можете посетить http://192.168.0.110:9870 [192.168.0.110 — IP-адрес главного устройства, а порт старой версии Hadoop — 50070], чтобы проверить, прошло ли развертывание успешно, если вам это нужно; остановите hdfs, используйте [stop-dfs.sh]

13. Вы также можете ввести имя jps, чтобы проверить, есть ли следующие процессы

14. Начать пряжу [start-yarn.sh]

15. Посетите http://192.168.0.110:8088/cluster, чтобы проверить, нормально ли работает пряжа, и прекратите использование пряжи [stop-yarn.sh]

16. Вы также можете ввести имя jps, чтобы проверить, есть ли следующие процессы

Подводить итоги,hadoopкластерУстановка завершена!

3. Установка скалы

1. Переключитесь на пользователя root, загрузите scala и загрузите его в каталог /usr/local/lib, а затем разархивируйте.

2. Раздайте распакованные файлы на ведомый1 и ведомый2.

 scp -r scala-2.12.6 root@slave1:/usr/local/lib

 scp -r scala-2.12.6 root@slave2:/usr/local/lib

3、соответственносуществовать СантайсерверИзменитьbigdataПеременные пользовательской среды

4. Убедитесь, что переменные среды действительны.

5. Запустите команду scala, чтобы проверить успешность установки, и нажмите ctrl+z для выхода.

4. Установка питона

1、существоватькластербеги дальшеpyspark,Сначала вам необходимо установить пакеты программного обеспечения, связанные с zlibиgcc.

yum -y install gcc*

2. Загрузите установочный пакет Python, загрузите его, а затем разархивируйте.

3. Введите /usr/local/lib/, измените Modules/Setup.dist [старая версия — Setup], найдите красную строку и удалите комментарий.

4. Выполните ./configure

5、make

6、make install

7. Проверьте исходную версию системы Python и переименуйте ее.

8. Измените /usr/bin/yum.

9. Восстановите программное соединение Python.

7. Выполните команду Python, чтобы проверить, правильно ли она установлена.

5. Установка искры

1. Загрузите и загрузите установочный файл Spark в каталог bigdata домашнего каталога пользователя bigdata, а затем разархивируйте его.

2. Настройка подчиненных устройств

3. Настройте spark-env.sh

4. Распределите настроенную искру на ведомое устройство 1 и ведомое устройство 2.

scp -r ~/bigdata/spark-2.3.0-bin-hadoop2.7 bigdata@slave1:~/bigdata

scp -r ~/bigdata/spark-2.3.0-bin-hadoop2.7 bigdata@slave2:~/bigdata

5. Настройте переменные среды на главном устройстве.

source ~/.bash_profile

6. Запустите искру

7. Подтвердите запуск искры [командой jps или посетите http://192.168.0.110:8080].

8. Проверьте искровой код [ctrl+z для выхода]

6. Установка зоокипера

1. Загрузите и загрузите файл Zookeeper, а затем разархивируйте его.

2. Измените файл конфигурации.

3. Создайте каталог для конфигурации файла конфигурации.

4. Распределите настроенный Zookeeper на ведомый1 и ведомый2.

5、соответственносуществовать3башнясервериз~/bigdata/zookeeper/dataДобавить новые файлы в каталогmyidи изменить

Содержимое myid на мастере: 0

Содержимое myid на подчиненном устройстве1: 1

Содержимое myid на подчиненном устройстве2: 2

6、Приходите отдельно3башнясерверНачать узел вzkСлужить

7. Проверьте статус ZooKeeper на каждом сервере.

7. Установка улья

1. Установите MySQL

Установка: yum install -y mysql-server

Старт: запуск службы mysqld

Измените пароль пользователя root: mysqladmin -u пароль root 'root'

Создайте куст базы данных и авторизуйте:

2. Загрузите и загрузите установочный пакет hive, а затем разархивируйте его.

3. Войдите в каталог конфигурации [/home/bigdata/bigdata/apache-hive-2.3.3-bin/conf] и измените файл конфигурации hive-site.xml.

4. Отредактируйте hive-env.sh.

5. Загрузите драйвер jdbc mysql mysql-connector-java-5.1.44-bin.jar и загрузите его в /home/bigdata/bigdata/apache-hive-2.3.3-bin/lib.

6. Настройте переменные среды мастера.

source ~/.bash_profile

7. Создайте каталог, настроенный в hive-site.xml, и авторизуйте его.

8. Укажите тип базы данных куста и инициализируйте его.

9. Проверьте, успешно ли установлена ​​база данных hive mysql [есть ли таблицы в базе данных hive]

10. Перед запуском hive сначала убедитесь, что служба хранилища метаданных запущена: сначала создайте журналы каталога журнала работы куста, а затем запустите HIVE.

проверять:

Запустить УЛЕЙ

8. Установка кафки

1. Загрузите Kafka и загрузите ее, затем распакуйте.

2. Создайте каталог журнала и измените файл конфигурации.

mkdir /home/bigdata/bigdata/kafka-logs-new

3. Распространить Kafka на раб1 и раб2.

4. Измените файлы server.properties на ведомом устройстве 1 и ведомом устройстве 2 соответственно.

slave1:broker.id=1

 slave2:broker.id=2

5. Запустите сервер-брокер на трех серверах соответственно.

nohup bin/kafka-server-start.sh config/server.properties>~/bigdata/kafka_2.12-1.1.0/logs/server.log 2>&1 &

6. Создать тему на мастере

7. Посмотреть тему

8. Запустите продюсер для отправки сообщений.

9. Заставьте потребителя получать сообщения

10. Эффект следующий

boy illustration
Неразрушающее увеличение изображений одним щелчком мыши, чтобы сделать их более четкими артефактами искусственного интеллекта, включая руководства по установке и использованию.
boy illustration
Копикодер: этот инструмент отлично работает с Cursor, Bolt и V0! Предоставьте более качественные подсказки для разработки интерфейса (создание навигационного веб-сайта с использованием искусственного интеллекта).
boy illustration
Новый бесплатный RooCline превосходит Cline v3.1? ! Быстрее, умнее и лучше вилка Cline! (Независимое программирование AI, порог 0)
boy illustration
Разработав более 10 проектов с помощью Cursor, я собрал 10 примеров и 60 подсказок.
boy illustration
Я потратил 72 часа на изучение курсорных агентов, и вот неоспоримые факты, которыми я должен поделиться!
boy illustration
Идеальная интеграция Cursor и DeepSeek API
boy illustration
DeepSeek V3 снижает затраты на обучение больших моделей
boy illustration
Артефакт, увеличивающий количество очков: на основе улучшения характеристик препятствия малым целям Yolov8 (SEAM, MultiSEAM).
boy illustration
DeepSeek V3 раскручивался уже три дня. Сегодня я попробовал самопровозглашенную модель «ChatGPT».
boy illustration
Open Devin — инженер-программист искусственного интеллекта с открытым исходным кодом, который меньше программирует и больше создает.
boy illustration
Эксклюзивное оригинальное улучшение YOLOv8: собственная разработка SPPF | SPPF сочетается с воспринимаемой большой сверткой ядра UniRepLK, а свертка с большим ядром + без расширения улучшает восприимчивое поле
boy illustration
Популярное и подробное объяснение DeepSeek-V3: от его появления до преимуществ и сравнения с GPT-4o.
boy illustration
9 основных словесных инструкций по доработке академических работ с помощью ChatGPT, эффективных и практичных, которые стоит собрать
boy illustration
Вызовите deepseek в vscode для реализации программирования с помощью искусственного интеллекта.
boy illustration
Познакомьтесь с принципами сверточных нейронных сетей (CNN) в одной статье (суперподробно)
boy illustration
50,3 тыс. звезд! Immich: автономное решение для резервного копирования фотографий и видео, которое экономит деньги и избавляет от беспокойства.
boy illustration
Cloud Native|Практика: установка Dashbaord для K8s, графика неплохая
boy illustration
Краткий обзор статьи — использование синтетических данных при обучении больших моделей и оптимизации производительности
boy illustration
MiniPerplx: новая поисковая система искусственного интеллекта с открытым исходным кодом, спонсируемая xAI и Vercel.
boy illustration
Конструкция сервиса Synology Drive сочетает проникновение в интрасеть и синхронизацию папок заметок Obsidian в облаке.
boy illustration
Центр конфигурации————Накос
boy illustration
Начинаем с нуля при разработке в облаке Copilot: начать разработку с минимальным использованием кода стало проще
boy illustration
[Серия Docker] Docker создает мультиплатформенные образы: практика архитектуры Arm64
boy illustration
Обновление новых возможностей coze | Я использовал coze для создания апплета помощника по исправлению домашних заданий по математике
boy illustration
Советы по развертыванию Nginx: практическое создание статических веб-сайтов на облачных серверах
boy illustration
Feiniu fnos использует Docker для развертывания личного блокнота Notepad
boy illustration
Сверточная нейронная сеть VGG реализует классификацию изображений Cifar10 — практический опыт Pytorch
boy illustration
Начало работы с EdgeonePages — новым недорогим решением для хостинга веб-сайтов
boy illustration
[Зона легкого облачного игрового сервера] Управление игровыми архивами
boy illustration
Развертывание SpringCloud-проекта на базе Docker и Docker-Compose