Реальны ли триллионы секунд? Хвастается ли он тем, что работает в N раз быстрее, чем ORACLE?
Реальны ли триллионы секунд? Хвастается ли он тем, что работает в N раз быстрее, чем ORACLE?

Мы часто слышим, как продукты для работы с большими данными рекламируют свою хорошую производительность. «Триллионы секунд на поиск» — это распространенная поговорка, которая примерно означает, что данные, соответствующие условиям, могут быть найдены среди триллионов строк данных и могут быть возвращены за секунды.

Это правда?

Прочитав статью «Насколько велик 1Т данных», студенты, участвовавшие в этом выпуске, вероятно, подумали, что это невозможно. Триллионы строк данных должны занимать десятки или сотни терабайт. Если вы хотите обработать их за секунды, вам потребуются десятки тысяч или сотни тысяч жестких дисков. Это нереально.

На самом деле это не так. Второй поиск не обязательно означает полный обход. Если для поиска использовать уникальный идентификационный номер (например, номер телефона, но их не триллионы), то объем вычислений после построения индекса не очень велик. Количество чтений и сравнений составляет около 40 раз. Современный компьютер может. завершить поиск за 1 секунду. Нет необходимости выполнять такой объем вычислений, и даже существует много параллелизма. Вычислительная сложность этой задачи поиска с фиксированной точкой логарифмическая. Объем данных увеличивается с 1 миллиона строк до 1 триллиона строк, а объем вычислений поиска увеличивается только в 2 раза. Неудивительно, что почти все базы данных имеют такую ​​возможность, если их можно сохранить. Конечно, индексация будет медленной, но это уже другая история.

Что, если это операция, для завершения которой требуется обход? Например, при вычислении суммы определенного столбца индекс здесь бесполезен.

Ну в этом вопросе проверить триллионы строк за секунды нереально, но терабайты данных можно. Если всего имеется 100 столбцов данных, и вам нужно прочитать только 1% данных при подсчете одного столбца, это может быть только 10 ГБ. Таким образом, 10 жестких дисков можно просканировать за несколько секунд. для современного серверного кластера — проще простого, быть в 10 раз больше — не проблема.

Наверное, об этом говорит так называемая способность обрабатывать терабайты данных за секунды! Каждый может это сделать.

Есть также некоторые продукты, которые любят сравнивать с известными старыми базами данных, такими как Oracle. Я часто слышу утверждения, что они в N раз быстрее Oracle. Это хвастовство? В конце концов, Oracle — это эталонный продукт мирового класса, как он может быть в n раз быстрее?

Ну, не совсем.

В центре внимания Oracle не находится бизнес-анализ, который часто называют бизнесом AP. Он в основном используется для транзакций, которые часто называют бизнесом TP. База данных TP должна использовать хранилище строк. Базы данных AP обычно используют столбчатое хранилище. В таблице данных со 100 столбцами для операции необходимы только два столбца. Когда Oracle использует хранилище строк, ему, по сути, приходится читать все 100 столбцов. Однако базе данных AP, использующей хранилище столбцов, необходимо прочитать только 2 столбца, и объем чтения будет в десятки раз хуже. В настоящее время это нормально и неудивительно — быть в N раз быстрее. Если это не в N раз быстрее, это проблема. Помимо того, что хранилище столбцов лучше, чем хранилище строк, может также случиться, что кластер лучше, чем одна машина, память лучше, чем внешнее хранилище и т. д. Это означает, что он использует в несколько раз больше ресурсов, чем Oracle, и работает быстрее. Короче говоря, они все победили.

Поэтому так называемая N раз быстрее, чем Oracle, вероятно, означает это. Это не ложь, но этим не стоит хвастаться. Фактически, оптимизатор Oracle очень мощный, если он не использует преимущества столбцового хранилища и ресурсов, многие профессиональные базы данных AP не смогут превзойти Oracle, особенно те, которые основаны на технологии Hadoop.

Как уже говорилось ранее, мощность логарифмических алгоритмов, масштаб триллионов строк, количество вычислений после логарифма составляет всего несколько десятков. На самом деле бывает и обратная ситуация. Объем данных может показаться не большим, но объем вычислений будет астрономическим. На форуме SPL есть пример Национальной астрономической обсерватории. В данных всего 11 таблиц с 500 000 строк, а общий объем составляет менее 10 ГБ. Однако для вычислений в течение 3,8 часов использовалось 100 процессоров. Поскольку эта операция представляет собой уровень сложности умножения, общая сумма вычислений составляет 10 * 500 000 * 500 000 = 2,5 триллиона, и ее можно выполнить за 3,8 часа, что довольно хорошо.

Поэтому, изучая производительность продуктов больших данных, вы не можете просто смотреть на лозунги, в которых говорится, какой объем данных может обрабатываться и как быстро они могут работать. Эти утверждения могут быть верными, но они бессмысленны. С хорошим алгоритмом 100T можно проверить за секунды. Без хорошего алгоритма 10G все равно может занять N часов. В этом смысле ключом к изучению эффективности технологии больших данных является то, предоставляют ли она уникальные и хорошие алгоритмы, которые могут сократить объем вычислений.

Однако в системе SQL различия между этими продуктами могут быть как очень плохими, так и хорошими, но не намного лучше. Поскольку SQL разрабатывается десятилетиями, зрелые алгоритмы оптимизации известны во всем мире, и придумать что-то новое сложно. В результате те производители, которые не владеют этими алгоритмами, действительно плохи, а производители, которые владеют ими. эти алгоритмы очень хороши. Ненамного лучше, потому что если вы можете это сделать, то смогу и я.

Однако, выйдя за пределы системы SQL, можно придумать новые алгоритмы. Для упомянутой выше задачи обсерватории на самом деле существует алгоритм, который может уменьшить логарифм одной стороны умножения. Сумма расчета составляет примерно 10 * 500 000 * log500 000 * 2, которую можно уменьшить в 10 000 раз. Используя этот алгоритм, esProc SPL закончился за 2 минуты на 4-ядерном ноутбуке.

К сожалению, этот алгоритм невозможно написать на SQL. Правильно описать логику вычислений очень трудоемко. Написание кода засчитывается в К, а оптимизатор базы данных может только упасть в обморок, а на его честное исполнение уходит N часов.

boy illustration
Неразрушающее увеличение изображений одним щелчком мыши, чтобы сделать их более четкими артефактами искусственного интеллекта, включая руководства по установке и использованию.
boy illustration
Копикодер: этот инструмент отлично работает с Cursor, Bolt и V0! Предоставьте более качественные подсказки для разработки интерфейса (создание навигационного веб-сайта с использованием искусственного интеллекта).
boy illustration
Новый бесплатный RooCline превосходит Cline v3.1? ! Быстрее, умнее и лучше вилка Cline! (Независимое программирование AI, порог 0)
boy illustration
Разработав более 10 проектов с помощью Cursor, я собрал 10 примеров и 60 подсказок.
boy illustration
Я потратил 72 часа на изучение курсорных агентов, и вот неоспоримые факты, которыми я должен поделиться!
boy illustration
Идеальная интеграция Cursor и DeepSeek API
boy illustration
DeepSeek V3 снижает затраты на обучение больших моделей
boy illustration
Артефакт, увеличивающий количество очков: на основе улучшения характеристик препятствия малым целям Yolov8 (SEAM, MultiSEAM).
boy illustration
DeepSeek V3 раскручивался уже три дня. Сегодня я попробовал самопровозглашенную модель «ChatGPT».
boy illustration
Open Devin — инженер-программист искусственного интеллекта с открытым исходным кодом, который меньше программирует и больше создает.
boy illustration
Эксклюзивное оригинальное улучшение YOLOv8: собственная разработка SPPF | SPPF сочетается с воспринимаемой большой сверткой ядра UniRepLK, а свертка с большим ядром + без расширения улучшает восприимчивое поле
boy illustration
Популярное и подробное объяснение DeepSeek-V3: от его появления до преимуществ и сравнения с GPT-4o.
boy illustration
9 основных словесных инструкций по доработке академических работ с помощью ChatGPT, эффективных и практичных, которые стоит собрать
boy illustration
Вызовите deepseek в vscode для реализации программирования с помощью искусственного интеллекта.
boy illustration
Познакомьтесь с принципами сверточных нейронных сетей (CNN) в одной статье (суперподробно)
boy illustration
50,3 тыс. звезд! Immich: автономное решение для резервного копирования фотографий и видео, которое экономит деньги и избавляет от беспокойства.
boy illustration
Cloud Native|Практика: установка Dashbaord для K8s, графика неплохая
boy illustration
Краткий обзор статьи — использование синтетических данных при обучении больших моделей и оптимизации производительности
boy illustration
MiniPerplx: новая поисковая система искусственного интеллекта с открытым исходным кодом, спонсируемая xAI и Vercel.
boy illustration
Конструкция сервиса Synology Drive сочетает проникновение в интрасеть и синхронизацию папок заметок Obsidian в облаке.
boy illustration
Центр конфигурации————Накос
boy illustration
Начинаем с нуля при разработке в облаке Copilot: начать разработку с минимальным использованием кода стало проще
boy illustration
[Серия Docker] Docker создает мультиплатформенные образы: практика архитектуры Arm64
boy illustration
Обновление новых возможностей coze | Я использовал coze для создания апплета помощника по исправлению домашних заданий по математике
boy illustration
Советы по развертыванию Nginx: практическое создание статических веб-сайтов на облачных серверах
boy illustration
Feiniu fnos использует Docker для развертывания личного блокнота Notepad
boy illustration
Сверточная нейронная сеть VGG реализует классификацию изображений Cifar10 — практический опыт Pytorch
boy illustration
Начало работы с EdgeonePages — новым недорогим решением для хостинга веб-сайтов
boy illustration
[Зона легкого облачного игрового сервера] Управление игровыми архивами
boy illustration
Развертывание SpringCloud-проекта на базе Docker и Docker-Compose