Анализ и визуализация потока данных Spark в режиме реального времени: Практическое руководство [Серия больших данных Shangjin Xiaocaizhu]
Анализ и визуализация потока данных Spark в режиме реального времени: Практическое руководство [Серия больших данных Shangjin Xiaocaizhu]

Маленький мотивированный новичок, специализирующийся на разработке программного обеспечения в Шэньянском технологическом университете. Он любит программировать и постоянно выдает полезную информацию.

В этой статье рассказывается, как использовать стек технологий Apache Spark для выполнения анализа потока данных в реальном времени и отображения результатов анализа в реальном времени с помощью технологии визуализации. Мы будем использовать Spark Streaming для обработки потоков данных в сочетании с общими библиотеками обработки и визуализации данных, чтобы обеспечить анализ потока данных и их визуальное отображение в реальном времени. Эта статья включает три основных этапа: обработку потока данных, расчет в реальном времени и визуальное отображение, а также предоставляет соответствующие примеры кода и технические подробности.

1. Введение

С наступлением эры больших данных анализ и визуализация данных в реальном времени становятся все более важными. Предприятиям и организациям необходимо понимать изменения в данных и своевременно реагировать на них, чтобы принимать точные решения. Используя Spark Streaming и технологию визуализации, мы можем обрабатывать и анализировать потоки данных в режиме реального времени, а также интуитивно отображать результаты с помощью визуальных диаграмм, информационных панелей и т. д.

2. Обработка потока данных

Обработка потока данных — это основной этап анализа данных в реальном времени, который включает в себя прием, обработку и преобразование данных. В этой статье мы будем использовать Spark Streaming для потоковой передачи данных. Ниже приведен пример кода, который использует Spark Streaming для обработки потоков данных в реальном времени.

Язык кода:javascript
копировать
from pyspark.streaming import StreamingContext
​
# Создать Искру Контекст потоковой передача, обработка данных каждую 1 секунду
spark_context = SparkContext(appName="RealTimeDataAnalysis")
streaming_context = StreamingContext(spark_context,1)
​
# перениматьданныепоток
data_stream = streaming_context.socketTextStream("localhost", 9999)
​
# Обработка и преобразование данных
processed_data = data_stream.flatMap(lambda line: line.split(" ")) \
                           .map(lambda word: (word, 1)) \
                           .reduceByKey(lambda x, y: x + y)
​
# Вывод результатов в консоль
processed_data.pprint()
​
# Начать потоковую передачу контекста
streaming_context.start()
streaming_context.awaitTermination()

3. Расчет в реальном времени

После завершения обработки потока данных мы можем выполнить расчет и анализ обработанных данных в режиме реального времени. Эти расчеты могут включать расчет статистических показателей, агрегацию данных, сопоставление с образцом и т. д. Ниже приведен пример кода, использующий Spark для вычислений в реальном времени.

Язык кода:javascript
копировать
from pyspark.sql import SparkSession
​
# Создать Искруразговор
spark = SparkSession.builder.appName("RealTimeComputation").getOrCreate()
​
# Создать DataFrame для расчета в реальном времени
processed_data.foreachRDD(lambda rdd: spark.createDataFrame(rdd).registerTempTable("realtime_data"))
​
# расчет в реальном Пример: подсчитайте первые N слов с наибольшей частотой.
top_n_words = spark.sql("SELECT _1 AS word, _2 AS count FROM realtime_data ORDER BY count DESC LIMIT 10")
top_n_words.show()

4. Визуальный дисплей

Результаты анализа данных должны быть представлены в интуитивно понятной и простой для понимания форме, поэтому визуализация является решающим шагом. В этой статье мы будем использовать распространенные библиотеки визуализации (такие как Matplotlib, Plotly и т. д.) для отображения результатов анализа в реальном времени в виде диаграмм, информационных панелей и т. д. Вот пример кода для визуализации данных в реальном времени с использованием Matplotlib:

Язык кода:javascript
копировать
import matplotlib.pyplot as plt
​
# Данные в режиме реального времени. Пример предварительного просмотра: гистограмма частоты слов.
def visualize_realtime_data(word_counts):
    words = [x[0] for x in word_counts]
    counts = [x[1] for x in word_counts]
​
    plt.bar(words, counts)
    plt.xlabel("Words")
    plt.ylabel("Counts")
    plt.title("Real-time Word Frequency")
    plt.xticks(rotation=45)
    plt.show()
​
# Обработка потока данных в реальном времени
processed_data.foreachRDD(lambda rdd: visualize_realtime_data(rdd.collect()))

5.Технические детали

В реальной практике этой статьи мы будем использовать следующие технологии и библиотеки для реализации анализа и визуализации потока данных в реальном времени на основе Spark.

  • Apache Spark: Apache Spark — быстрый и универсальный большой Платформа обработки данных, которая обеспечивает мощные возможности распределенной обработки и анализа данных. Мы будем использовать Искру Модуль потоковой передачи для Обработки потока данных в реальном времени,и Искра Модуль SQL выполняет вычисления и анализ в реальном времени.
  • PySpark: PySpark — это Python для Spark. API, который предоставляет интерактивную среду программирования и возможности обработки данных с помощью Spark. Мы напишем обработку и расчет потока данных с использованием PySpark. в реальном Код времени.
  • Spark Streaming: Spark Стриминг обеспечивает Spark для Обработки. потока данных в реальном временимодуль。Он способен принимать и обрабатывать в режиме реального времениданныепоток,и обеспечить высокую надежность и отказоустойчивость. Мы будем использовать Искру Потоковая передача получает и обрабатывает потоки данных.
  • Spark SQL: Spark SQL — это модуль, предоставляемый Spark для обработки структурированных данных. Он поддерживает SQL-запросы и DataFrame. API, который может облегчить расчеты и анализ в реальном времени. Мы будем использовать Искру SQL для расчета в реальном временииданныеанализировать。
  • Библиотека превью: в этой статье,Мы будем использовать общую библиотеку предварительной обработки для отображения результатов анализа в режиме реального времени в виде диаграмм, информационных панелей и т. д. Например,Мы можем использовать Matplotlib, Plotly, Seaborn и другие библиотеки для рисования различных диаграмм.

Этапы реализации

Шаг 1. Создайте контекст Spark Streaming. Сначала нам нужно создать контекст Spark Streaming, указать имя приложения и временной интервал для микропакетной обработки. Например, мы можем использовать следующий код для создания контекста Spark Streaming, который обрабатывает данные каждую секунду:

Язык кода:javascript
копировать
from pyspark.streaming import StreamingContext
​
# Создать Искру Контекст потоковой передача, обработка данных каждую 1 секунду
spark_context = SparkContext(appName="RealTimeDataAnalysis")
streaming_context = StreamingContext(spark_context, 1)
​

Шаг 2. Получение и обработка потока данных. Далее нам необходимо определить источник потока данных, а также обработать и преобразовать данные. В этой статье мы будем использовать метод socketTextStream() для получения потока данных из локального сокета и обработки данных с помощью таких методов, как FlatMap(), Map() и ReducByKey(). Вот пример кода:

Язык кода:javascript
копировать
# перениматьданныепоток
data_stream = streaming_context.socketTextStream("localhost", 9999)
​
# Обработка и преобразование данных
processed_data = data_stream.flatMap(lambda line: line.split(" ")) \
                           .map(lambda word: (word, 1)) \
                           .reduceByKey(lambda x, y: x + y)
​

Шаг 3: Расчет и анализ в реальном времени. После завершения обработки потока данных мы можем выполнить расчет и анализ обработанных данных в реальном времени. Используя Spark SQL, мы можем создавать DataFrames и выполнять различные SQL-запросы и операции. Вот пример кода:

Язык кода:javascript
копировать
from pyspark.sql import SparkSession
​
# Создать Искруразговор
spark = SparkSession.builder.appName("RealTimeComputation").getOrCreate()
​
# Создать DataFrame для расчета в реальном времени
processed_data.foreachRDD(lambda rdd: spark.createDataFrame(rdd).registerTempTable("realtime_data"))
​
# расчет в реальном Пример: подсчитайте первые N слов с наибольшей частотой.
top_n_words = spark.sql("SELECT _1 AS word, _2 AS count FROM realtime_data ORDER BY count DESC LIMIT 10")
top_n_words.show()
​

Шаг 4. Визуальное отображение Наконец, нам нужно использовать библиотеку визуализации для отображения результатов анализа в реальном времени в виде диаграмм, информационных панелей и т. д. В этой статье мы можем использовать Matplotlib для создания различных диаграмм. Вот пример кода:

Язык кода:javascript
копировать
import matplotlib.pyplot as plt
​
# Данные в режиме реального времени. Пример предварительного просмотра: гистограмма частоты слов.
def visualize_realtime_data(word_counts):
    words = [x[0] for x in word_counts]
    counts = [x[1] for x in word_counts]
​
    plt.bar(words, counts)
    plt.xlabel("Words")
    plt.ylabel("Counts")
    plt.title("Real-time Word Frequency")
    plt.xticks(rotation=45)
    plt.show()
​
# Обработка потока данных в реальном времени
processed_data.foreachRDD(lambda rdd: visualize_realtime_data(rdd.collect()))
​

6. Развертывание и расширение

В реальной практике анализа и визуализации потоков данных в реальном времени развертывание и расширение являются очень важными звеньями. Вот некоторые соображения по развертыванию и масштабированию:

  • Конфигурация кластера. Убедитесь, что ваш кластер Spark имеет достаточно вычислительных ресурсов и памяти для обработки крупномасштабных потоков данных. В зависимости от объема данных и требований к нагрузке,Настройка параметров конфигурации кластера Spark,Например, память исполнителя, количество ядер, параллелизм и т. д.
  • Восстановление после сбоя: настройка Spark Streamingкаталог контрольных точек,Чтобы гарантировать, что в случае сбоя вы сможете восстановиться с точки сбоя и продолжить обработку потока данных. также,Рассмотрите возможность использования режима высокой доступности Spark.,Например, ZooKeeper используется для реализации аварийного переключения главного узла.
  • Подключение к источнику данных: в зависимости от типа вашего источника данных,Выберите подходящий источник входного сигнала. В дополнение к методу socketTextStream(),Spark Потоковая передача также поддерживает Kafka, Flume, HDFS и другие источники. Обеспечивает правильную настройку параметров подключения источников данных и точную обработку входных данных различных форматов.
  • Выбор инструмента предварительного просмотра: в зависимости от ваших потребностей в предварительном просмотре и типа результатов, которые вы хотите отобразить.,Выберите правильный инструмент или библиотеку предварительной обработки. Кроме Матплотлиба,Существуют и другие инструменты, такие как Plotly, Seaborn, Bokeh и т. д., которые можно использовать для создания интерактивных и динамических эффектов предварительного просмотра.
  • Соображения масштабируемости. Если вам нужно обрабатывать более крупные потоки данных или добавить больше логики обработки данных, рассмотрите возможность использования Spark. Потоковая передача интегрируется с другими технологиями, такими как Apache. Kafka для сохранения и распределения потоков данных, Apache Flink используется для сложной обработки событий и т. д.

7. Заключение

В этой статье рассказывается, как использовать стек технологий Apache Spark для анализа и визуализации потоков данных в реальном времени. Используя Spark Streaming для обработки потоков данных, Spark SQL для вычислений в реальном времени и общие библиотеки визуализации для визуального отображения, мы можем получать и анализировать данные в реальном времени и представлять результаты в интуитивно понятном виде.

Благодаря практическим примерам в этой статье читатели смогут узнать, как использовать Spark для анализа и визуализации потоков данных в реальном времени в области больших данных, а также вносить соответствующие технические корректировки и расширения в соответствии с конкретными потребностями и сценариями. Анализ и визуализация данных в режиме реального времени имеют широкие перспективы применения и могут помочь предприятиям и организациям лучше понимать и использовать данные, а также принимать более обоснованные решения.

boy illustration
Неразрушающее увеличение изображений одним щелчком мыши, чтобы сделать их более четкими артефактами искусственного интеллекта, включая руководства по установке и использованию.
boy illustration
Копикодер: этот инструмент отлично работает с Cursor, Bolt и V0! Предоставьте более качественные подсказки для разработки интерфейса (создание навигационного веб-сайта с использованием искусственного интеллекта).
boy illustration
Новый бесплатный RooCline превосходит Cline v3.1? ! Быстрее, умнее и лучше вилка Cline! (Независимое программирование AI, порог 0)
boy illustration
Разработав более 10 проектов с помощью Cursor, я собрал 10 примеров и 60 подсказок.
boy illustration
Я потратил 72 часа на изучение курсорных агентов, и вот неоспоримые факты, которыми я должен поделиться!
boy illustration
Идеальная интеграция Cursor и DeepSeek API
boy illustration
DeepSeek V3 снижает затраты на обучение больших моделей
boy illustration
Артефакт, увеличивающий количество очков: на основе улучшения характеристик препятствия малым целям Yolov8 (SEAM, MultiSEAM).
boy illustration
DeepSeek V3 раскручивался уже три дня. Сегодня я попробовал самопровозглашенную модель «ChatGPT».
boy illustration
Open Devin — инженер-программист искусственного интеллекта с открытым исходным кодом, который меньше программирует и больше создает.
boy illustration
Эксклюзивное оригинальное улучшение YOLOv8: собственная разработка SPPF | SPPF сочетается с воспринимаемой большой сверткой ядра UniRepLK, а свертка с большим ядром + без расширения улучшает восприимчивое поле
boy illustration
Популярное и подробное объяснение DeepSeek-V3: от его появления до преимуществ и сравнения с GPT-4o.
boy illustration
9 основных словесных инструкций по доработке академических работ с помощью ChatGPT, эффективных и практичных, которые стоит собрать
boy illustration
Вызовите deepseek в vscode для реализации программирования с помощью искусственного интеллекта.
boy illustration
Познакомьтесь с принципами сверточных нейронных сетей (CNN) в одной статье (суперподробно)
boy illustration
50,3 тыс. звезд! Immich: автономное решение для резервного копирования фотографий и видео, которое экономит деньги и избавляет от беспокойства.
boy illustration
Cloud Native|Практика: установка Dashbaord для K8s, графика неплохая
boy illustration
Краткий обзор статьи — использование синтетических данных при обучении больших моделей и оптимизации производительности
boy illustration
MiniPerplx: новая поисковая система искусственного интеллекта с открытым исходным кодом, спонсируемая xAI и Vercel.
boy illustration
Конструкция сервиса Synology Drive сочетает проникновение в интрасеть и синхронизацию папок заметок Obsidian в облаке.
boy illustration
Центр конфигурации————Накос
boy illustration
Начинаем с нуля при разработке в облаке Copilot: начать разработку с минимальным использованием кода стало проще
boy illustration
[Серия Docker] Docker создает мультиплатформенные образы: практика архитектуры Arm64
boy illustration
Обновление новых возможностей coze | Я использовал coze для создания апплета помощника по исправлению домашних заданий по математике
boy illustration
Советы по развертыванию Nginx: практическое создание статических веб-сайтов на облачных серверах
boy illustration
Feiniu fnos использует Docker для развертывания личного блокнота Notepad
boy illustration
Сверточная нейронная сеть VGG реализует классификацию изображений Cifar10 — практический опыт Pytorch
boy illustration
Начало работы с EdgeonePages — новым недорогим решением для хостинга веб-сайтов
boy illustration
[Зона легкого облачного игрового сервера] Управление игровыми архивами
boy illustration
Развертывание SpringCloud-проекта на базе Docker и Docker-Compose