Основные принципы Apache Spark, сценарии приложений и интеграция в Spring Boot
Основные принципы Apache Spark, сценарии приложений и интеграция в Spring Boot

Apache Spark — это платформа обработки больших данных с открытым исходным кодом, разработанная AMPLab в Калифорнийском университете в Беркли в 2009 году и внесенная в Фонд программного обеспечения Apache в 2010 году. Spark получил высокую оценку в области обработки больших данных за свою высокую производительность, простоту использования и широкий спектр сценариев применения. Он может эффективно обрабатывать крупномасштабные наборы данных и поддерживает пакетную обработку, интерактивные запросы, потоковую обработку и машинную обработку. обучение и другие вычислительные парадигмы.

Основные технические принципы

1.Resilient Distributed Datasets (RDDs):

— RDD — это базовая абстракция Spark, которая представляет собой неизменяемую, логически секционированную и распределенную коллекцию данных по кластеру. RDD позволяет разработчикам манипулировать данными в высокопараллельном режиме и является отказоустойчивым. Когда в наборе данных происходит сбой раздела, Spark может автоматически пересчитать потерянные разделы данных на основе информации о происхождении RDD.

2. Механизм выполнения DAG:

— Spark представляет вычислительные задачи путем построения DAG (направленного ациклического графа). Каждый RDD и его операция преобразования являются узлом графа, а ребра представляют зависимости между операциями. DAGScheduler отвечает за разделение DAG на этапы. Каждый этап состоит из набора задач, которые могут выполняться параллельно. TaskScheduler отвечает за распределение этих задач для выполнения Executor на каждом рабочем узле в кластере.

3. Оптимизация вычислений памяти:

- Spark полностью использует память для повышения эффективности вычислений. Он может кэшировать данные в памяти, что значительно снижает зависимость от дискового ввода-вывода, и особенно хорошо работает в итеративных вычислениях и сценариях интерактивных запросов. Когда памяти недостаточно, Spark также переполняет данные на диск и использует технологию оптимизации двоичного представления и кодирования под названием Tungsten для дальнейшего улучшения использования памяти и процессора.

4. Spark Core и библиотеки расширений:

- Spark Core обеспечивает базовое планирование распределенных задач и функции работы с RDD. На этой основе Spark также разработал ряд библиотек расширений:

- Spark SQL: используется для обработки структурированных данных, представляет API DataFrame и Dataset, поддерживает SQL-запросы и программирование API DataFrame.

- Spark Streaming: реализует потоковую обработку в реальном времени и поддерживает два режима: микропакетную обработку и структурированную потоковую передачу.

- MLlib: предоставляет библиотеку алгоритмов машинного обучения для поддержки разработки различных задач машинного обучения.

- GraphX: среда графовых вычислений для обработки графовых данных и выполнения графовых алгоритмов.

- Структурированная потоковая передача: модуль обработки структурированных потоков предоставляет унифицированный API для обработки неограниченных потоков данных и имеет возможности обработки практически в реальном времени.

5. Интеграция с экосистемой Hadoop:

- Spark хорошо интегрируется с экосистемой Hadoop, поддерживает чтение и запись HDFS, доступ к таблицам Hive и совместим с Hadoop MapReduce. Он также может работать на YARN и использовать YARN для управления ресурсами и планирования.

Spark значительно повышает скорость и удобство обработки больших данных благодаря инновационным моделям обработки данных, эффективным вычислениям в памяти и комплексным библиотекам расширений. Он упрощает разработку и реализацию задач распределенных вычислений, сохраняя при этом высокую степень параллелизма.

Сценарии применения Spark

Apache Spark имеет широкий спектр сценариев применения для обработки и анализа больших данных: 1. Очистка данных и ETL (Извлечение-Преобразование-Загрузка): - Spark может выполнять крупномасштабную очистку и предварительную обработку данных. Благодаря своим мощным возможностям преобразования данных он может фильтровать, сопоставлять, агрегировать и выполнять другие операции с исходными данными, а затем загружать их в хранилище данных или другие целевые системы. 2. Пакетная обработка: - Пакетная обработка и анализ исторических данных, такие как статистический анализ, формирование отчетов, регулярный расчет и т. д. Spark значительно повышает скорость выполнения задач пакетной обработки благодаря эффективному механизму выполнения DAG и технологии вычислений в памяти. 3. Обработка потока в реальном времени: - Модуль Spark Streaming можно использовать для обработки данных в режиме реального времени или почти в реальном времени, например, для мониторинга социальных сетей, сбора данных с датчиков, анализа потока кликов и других сценариев. Он может непрерывно получать потоки данных в реальном времени и выполнять оконные операции, подсчет событий, агрегацию скользящего окна и т. д. 4. Интерактивный анализ данных и бизнес-аналитика: - Spark SQL и Spark DataFrame предоставляют пользователям SQL-подобный интерфейс, позволяющий аналитикам данных быстро выполнять специальные запросы и интерактивный анализ данных для удовлетворения потребности в быстром реагировании на сложные запросы. 5. Машинное обучение и искусственный интеллект: - MLlib — это встроенная библиотека машинного обучения Spark, которая поддерживает реализацию распределенных алгоритмов машинного обучения, таких как совместная фильтрация, регрессия, классификация, кластеризация, глубокое обучение и т. д. Предприятия могут использовать Spark для создания приложений искусственного интеллекта, таких как системы рекомендаций, модели прогнозирования и модели контроля рисков. 6. Расчет графика: - GraphX, как часть Spark, может обрабатывать крупномасштабные графические данные, такие как анализ социальных сетей, обнаружение мошенничества, поиск пути, обнаружение сообщества и т. д. 7. Хранилище данных и запрос больших данных: - В сочетании со Spark SQL и такими службами, как Hive Metastore, Spark можно использовать для создания решений для хранилищ больших данных для выполнения эффективных запросов к большим объемам данных. 8. Обработка данных Интернета вещей (IoT): - Данные в реальном времени или квазиреальном времени, генерируемые большим количеством устройств, могут обрабатываться и анализироваться в реальном времени с помощью Spark для извлечения ценной информации для обслуживания оборудования, анализа поведения или оптимизации бизнеса. 9. Контроль финансовых рисков и борьба с мошенничеством: - Финансовые учреждения могут использовать Spark для обработки данных о транзакциях, выявления аномального торгового поведения в режиме реального времени, а также проведения оценки рисков и раннего предупреждения. 10. Система персонализированных рекомендаций: - В таких областях, как электронная коммерция, аудио- и видеосайты, Spark можно использовать для обработки данных о поведении пользователей, обучения моделей персонализированных рекомендаций и предоставления услуг персонализированных рекомендаций в режиме реального или квазиреального времени. Благодаря своей гибкости и мощным возможностям обработки Spark может охватывать практически все важные сценарии современных приложений для работы с большими данными: от традиционного создания отчетов BI до построения конвейера данных в реальном времени и разработки сложных приложений искусственного интеллекта.

Spring Boot интегрирует Spark

Основная цель интеграции Spring Boot и Apache Spark — удобное использование Spark для обработки больших данных в приложениях Spring Boot.

Техническое решение:

1. Добавьте зависимости

В проекте Spring Boot сначала необходимо добавить Spark и связанные зависимости в файл сборки (pom.xml Maven или build.gradle Gradle). Например, для Maven вам необходимо включить следующие зависимости:

<dependencies>

<!-- Spark Core -->

<dependency>

<groupId>org.apache.spark</groupId>

<artifactId>spark-core_2.12</artifactId>

<version>3.2.1</version> <!-- Используйте последнюю версию Spark -->

</dependency>

<!-- Spark SQL -->

<dependency>

<groupId>org.apache.spark</groupId>

<artifactId>spark-sql_2.12</artifactId>

<version>3.2.1</version>

</dependency>

<!-- Если вам нужно запустить в локальном режиме -->

<dependency>

<groupId>org.apache.hadoop</groupId>

<artifactId>hadoop-client</artifactId>

<version>3.3.1</version> <!-- Настройка в соответствии с версией Hadoop -->

</dependency>

<!-- Spring Зависимости, связанные с загрузкой -->

<!-- ... -->

</dependencies>

```

2. Инициализируйте SparkSession.

В приложениях Spring Boot обычно создается bean-компонент SparkConfiguer для инициализации SparkSession. Это позволяет инициализировать Spark вместе с контейнером Spring и подготовить его к использованию.

import org.apache.spark.sql.SparkSession;

import org.springframework.context.annotation.Bean;

import org.springframework.context.annotation.Configuration;

@Configuration

public class SparkConfig {

@Bean

public SparkSession sparkSession() {

SparkSession spark = SparkSession.builder()

.appName("SpringBootSparkIntegration")

.master("local[*]") // Запуск в локальном режиме, "*" означает использование всех ядер ЦП

.getOrCreate();

return spark;

}

}

3. Используйте Spark для обработки данных

Теперь вы можете внедрить SparkSession везде, где это необходимо, и написать код приложения Spark.

import org.springframework.beans.factory.annotation.Autowired;

import org.apache.spark.sql.Dataset;

import org.apache.spark.sql.Row;

import org.apache.spark.sql.SparkSession;

@Service

public class SparkService {

private final SparkSession spark;

@Autowired

public SparkService(SparkSession spark) {

this.spark = spark;

}

public void processData() {

Dataset<Row> df = spark.read().format("csv").option("header", "true").load("path/to/data.csv");

// Обработка данных, например сортировка и получение 10 лучших записей с наибольшей частотой

Dataset<Row> topWords = df.groupBy("word").count().orderBy("count", DESC).limit(10);

topWords.show();

}

}

4. Настройте удаленный или кластерный режим.

Чтобы запускать приложения Spark в среде кластера, вам необходимо изменить конфигурацию `.master()`, чтобы она указывала на менеджер кластера, например `yarn` или `spark://...`. Также убедитесь, что переменные среды или системные свойства, связанные с Spark и Hadoop, настроены правильно.

Что следует отметить:

— Приведенный выше пример применим к Spark SQL. Если вам нужно использовать исходное ядро ​​Spark для операций RDD, вы также можете внедрить SparkContext.

— Для больших приложений вы можете использовать сценарий Spark-submit для отправки задач. В этом случае вам необходимо адаптировать метод упаковки приложения Spring Boot, чтобы оно могло нормально работать в среде кластера Spark.

boy illustration
Неразрушающее увеличение изображений одним щелчком мыши, чтобы сделать их более четкими артефактами искусственного интеллекта, включая руководства по установке и использованию.
boy illustration
Копикодер: этот инструмент отлично работает с Cursor, Bolt и V0! Предоставьте более качественные подсказки для разработки интерфейса (создание навигационного веб-сайта с использованием искусственного интеллекта).
boy illustration
Новый бесплатный RooCline превосходит Cline v3.1? ! Быстрее, умнее и лучше вилка Cline! (Независимое программирование AI, порог 0)
boy illustration
Разработав более 10 проектов с помощью Cursor, я собрал 10 примеров и 60 подсказок.
boy illustration
Я потратил 72 часа на изучение курсорных агентов, и вот неоспоримые факты, которыми я должен поделиться!
boy illustration
Идеальная интеграция Cursor и DeepSeek API
boy illustration
DeepSeek V3 снижает затраты на обучение больших моделей
boy illustration
Артефакт, увеличивающий количество очков: на основе улучшения характеристик препятствия малым целям Yolov8 (SEAM, MultiSEAM).
boy illustration
DeepSeek V3 раскручивался уже три дня. Сегодня я попробовал самопровозглашенную модель «ChatGPT».
boy illustration
Open Devin — инженер-программист искусственного интеллекта с открытым исходным кодом, который меньше программирует и больше создает.
boy illustration
Эксклюзивное оригинальное улучшение YOLOv8: собственная разработка SPPF | SPPF сочетается с воспринимаемой большой сверткой ядра UniRepLK, а свертка с большим ядром + без расширения улучшает восприимчивое поле
boy illustration
Популярное и подробное объяснение DeepSeek-V3: от его появления до преимуществ и сравнения с GPT-4o.
boy illustration
9 основных словесных инструкций по доработке академических работ с помощью ChatGPT, эффективных и практичных, которые стоит собрать
boy illustration
Вызовите deepseek в vscode для реализации программирования с помощью искусственного интеллекта.
boy illustration
Познакомьтесь с принципами сверточных нейронных сетей (CNN) в одной статье (суперподробно)
boy illustration
50,3 тыс. звезд! Immich: автономное решение для резервного копирования фотографий и видео, которое экономит деньги и избавляет от беспокойства.
boy illustration
Cloud Native|Практика: установка Dashbaord для K8s, графика неплохая
boy illustration
Краткий обзор статьи — использование синтетических данных при обучении больших моделей и оптимизации производительности
boy illustration
MiniPerplx: новая поисковая система искусственного интеллекта с открытым исходным кодом, спонсируемая xAI и Vercel.
boy illustration
Конструкция сервиса Synology Drive сочетает проникновение в интрасеть и синхронизацию папок заметок Obsidian в облаке.
boy illustration
Центр конфигурации————Накос
boy illustration
Начинаем с нуля при разработке в облаке Copilot: начать разработку с минимальным использованием кода стало проще
boy illustration
[Серия Docker] Docker создает мультиплатформенные образы: практика архитектуры Arm64
boy illustration
Обновление новых возможностей coze | Я использовал coze для создания апплета помощника по исправлению домашних заданий по математике
boy illustration
Советы по развертыванию Nginx: практическое создание статических веб-сайтов на облачных серверах
boy illustration
Feiniu fnos использует Docker для развертывания личного блокнота Notepad
boy illustration
Сверточная нейронная сеть VGG реализует классификацию изображений Cifar10 — практический опыт Pytorch
boy illustration
Начало работы с EdgeonePages — новым недорогим решением для хостинга веб-сайтов
boy illustration
[Зона легкого облачного игрового сервера] Управление игровыми архивами
boy illustration
Развертывание SpringCloud-проекта на базе Docker и Docker-Compose