Разница и примеры между Pyppeteer и селеном
Разница и примеры между Pyppeteer и селеном
Облачный агент Yiniu
Облачный агент Yiniu

Pyppeteer и selenium — это инструменты для автоматизации браузера, которые можно использовать для тестирования, сканирования и управления веб-страницами. Все они поддерживают несколько языков программирования, могут работать на разных платформах и предоставляют богатые API и документацию.

Pyppeteer — это версия Puppeteer для Python, библиотеки на основе Node.js, которая может управлять безголовыми или безголовыми браузерами Chrome или Chromium. Pyppeteer использует библиотеку asyncio для реализации асинхронного программирования, что может повысить производительность и эффективность. Pyppeteer также может использовать преимущества Puppeteer, такие как создание PDF-файлов, снимков экрана, перехват запросов и т. д.

Selenium — более зрелый и широко используемый проект автоматизации браузеров, который может управлять различными браузерами, такими как Chrome, Firefox, Edge и т. д. Selenium соответствует стандарту W3C WebDriver, который позволяет пользователям писать взаимозаменяемый код для адаптации к различным средам браузера. Selenium также предоставляет распределенный сервер под названием Grid, который может параллельно запускать тесты на нескольких машинах.

Основные различия и преимущества между Pyppeteer и селеном заключаются в следующем:

  • Pyppeteer может управлять только браузерами Chrome или Chromium, а selenium — несколькими браузерами. Это означает, что Pyppeteer может лучше подходить для определенных функций или оптимизации для Chrome или Chromium, а selenium может лучше подходить для тестирования совместимости между браузерами.
  • Pyppeteer использует библиотеку asyncio для реализации асинхронного программирования, тогда как Selenium обычно использует синхронное программирование. Это означает, что Pyppeteer может лучше использовать ресурсы ЦП и памяти, улучшая параллелизм и скорость реагирования, в то время как Selenium может быть проще писать и понимать.
  • Pyppeteer может напрямую вызывать API и функции puppeteer, в то время как Selenium должен полагаться на драйверы браузера (такие как chromedriver, geckodriver и т. д.) для обеспечения связи и управления. Это означает, что Pyppeteer может быть более гибким и мощным, способным получить доступ к большему количеству внутренней информации и операций браузера, в то время как selenium может быть более стабильным и стандартизированным, способным избежать некоторых проблем с версией или совместимостью.
  • Pyppeteer — относительно новый проект, который все еще обновляется и совершенствуется, тогда как selenium — относительно старый проект, уже имеющий множество пользователей и поддержку сообщества. Это означает, что Pyppeteer может быть более инновационным и потенциальным, способным следовать тенденциям развития Puppeteer, в то время как Selenium может быть более опытным и авторитетным, способным предоставить больше обучающих программ и решений.

Например, для сбора бизнес-информации и обзоров Meituan используется следующий пример кода с использованием Pyppeteer:

Язык кода:python
кодКоличество запусков:0
копировать
import asyncio
from pyppeteer import launch
import pandas as pd

# Расширенная версия гусеничного агента Yiniu Cloud (агент туннеля динамической пересылки) Установите имя пользователя, пароль, адрес и порт
proxy_user = "16YUN"
proxy_pass = "16IP"
proxy_host = "www.16yun.cn"
proxy_port = "3100"

# Установите URL-адрес и количество страниц для сбора.
url = "https://meishi.meituan.com/i/?ci=1&stid_b=1&cevent=imt%2Fhomepage%2Fcategory1%2F1"
pages = 5

# Определите функцию для получения имени и отзывов каждого продавца.
async def get_info(page):
    # Подождите, пока страница загрузится
    await page.waitForSelector(".list-ul")
    # Получите элементы всех торговцев
    shops = await page.querySelectorAll(".list-item")
    # Определите пустой список для хранения данных
    data = []
    # Перебрать каждого продавца
    for shop in shops:
        # Получить имя продавца
        name = await page.evaluate("(element) => element.querySelector('.title').textContent", shop)
        # Получить количество отзывов о продавце
        comments = await page.evaluate("(element) => element.querySelector('.comment-num').textContent", shop)
        # Удалить пробелы и новые строки
        name = name.strip()
        comments = comments.strip()
        # Добавить данные в список
        data.append([name, comments])
    # Список возвращаемых данных
    return data

# Определите функцию для сбора данных с нескольких страниц и сортировки их по категориям.
async def scrape(url, pages):
    # Запустите браузер, настройте прокси-сервер и безголовый режим.
    browser = await launch({"args": [f"--proxy-server={proxy_host}:{proxy_port}"], "headless": True})
    # Создать новую страницу
    page = await browser.newPage()
    # Установить размер области просмотра страницы
    await page.setViewport({"width": 1280, "height": 800})
    # URL-адрес посещения
    await page.goto(url)
    # Введите логин и пароль IP прокси
    await page.authenticate({"username": proxy_user, "password": proxy_pass})
    # Определите пустой список для хранения всех данных
    all_data = []
    # Собирайте данные с каждой страницы в цикле
    for i in range(pages):
        # Вызовите функцию, которая получает информацию, и добавьте возвращаемые данные в общий список.
        info = await get_info(page)
        all_data.extend(info)
        # Если это не последняя страница, нажмите кнопку следующей страницы и подождите, пока страница перейдет.
        if i < pages - 1:
            next_button = await page.querySelector(".pagination-item.next")
            await next_button.click()
            await page.waitForNavigation()
    # Закрыть браузер
    await browser.close()
    # Преобразуйте общий список в фрейм данных и задайте имена столбцов.
    df = pd.DataFrame(all_data, columns=["name", "comments"])
    # Преобразуйте количество комментариев в целочисленный тип и отсортируйте их по убыванию.
    df["comments"] = df["comments"].astype(int)
    df = df.sort_values(by="comments", ascending=False)
    # Сохраните фрейм данных в формате CSV и распечатайте первые 50 строк.
    df.to_csv("meituan.csv", index=False)
    print(df.head(50))

# Запустите функцию сбора и передайте параметры URL и номера страницы.
asyncio.get_event_loop().run_until_complete(scrape(url, pages))
boy illustration
Неразрушающее увеличение изображений одним щелчком мыши, чтобы сделать их более четкими артефактами искусственного интеллекта, включая руководства по установке и использованию.
boy illustration
Копикодер: этот инструмент отлично работает с Cursor, Bolt и V0! Предоставьте более качественные подсказки для разработки интерфейса (создание навигационного веб-сайта с использованием искусственного интеллекта).
boy illustration
Новый бесплатный RooCline превосходит Cline v3.1? ! Быстрее, умнее и лучше вилка Cline! (Независимое программирование AI, порог 0)
boy illustration
Разработав более 10 проектов с помощью Cursor, я собрал 10 примеров и 60 подсказок.
boy illustration
Я потратил 72 часа на изучение курсорных агентов, и вот неоспоримые факты, которыми я должен поделиться!
boy illustration
Идеальная интеграция Cursor и DeepSeek API
boy illustration
DeepSeek V3 снижает затраты на обучение больших моделей
boy illustration
Артефакт, увеличивающий количество очков: на основе улучшения характеристик препятствия малым целям Yolov8 (SEAM, MultiSEAM).
boy illustration
DeepSeek V3 раскручивался уже три дня. Сегодня я попробовал самопровозглашенную модель «ChatGPT».
boy illustration
Open Devin — инженер-программист искусственного интеллекта с открытым исходным кодом, который меньше программирует и больше создает.
boy illustration
Эксклюзивное оригинальное улучшение YOLOv8: собственная разработка SPPF | SPPF сочетается с воспринимаемой большой сверткой ядра UniRepLK, а свертка с большим ядром + без расширения улучшает восприимчивое поле
boy illustration
Популярное и подробное объяснение DeepSeek-V3: от его появления до преимуществ и сравнения с GPT-4o.
boy illustration
9 основных словесных инструкций по доработке академических работ с помощью ChatGPT, эффективных и практичных, которые стоит собрать
boy illustration
Вызовите deepseek в vscode для реализации программирования с помощью искусственного интеллекта.
boy illustration
Познакомьтесь с принципами сверточных нейронных сетей (CNN) в одной статье (суперподробно)
boy illustration
50,3 тыс. звезд! Immich: автономное решение для резервного копирования фотографий и видео, которое экономит деньги и избавляет от беспокойства.
boy illustration
Cloud Native|Практика: установка Dashbaord для K8s, графика неплохая
boy illustration
Краткий обзор статьи — использование синтетических данных при обучении больших моделей и оптимизации производительности
boy illustration
MiniPerplx: новая поисковая система искусственного интеллекта с открытым исходным кодом, спонсируемая xAI и Vercel.
boy illustration
Конструкция сервиса Synology Drive сочетает проникновение в интрасеть и синхронизацию папок заметок Obsidian в облаке.
boy illustration
Центр конфигурации————Накос
boy illustration
Начинаем с нуля при разработке в облаке Copilot: начать разработку с минимальным использованием кода стало проще
boy illustration
[Серия Docker] Docker создает мультиплатформенные образы: практика архитектуры Arm64
boy illustration
Обновление новых возможностей coze | Я использовал coze для создания апплета помощника по исправлению домашних заданий по математике
boy illustration
Советы по развертыванию Nginx: практическое создание статических веб-сайтов на облачных серверах
boy illustration
Feiniu fnos использует Docker для развертывания личного блокнота Notepad
boy illustration
Сверточная нейронная сеть VGG реализует классификацию изображений Cifar10 — практический опыт Pytorch
boy illustration
Начало работы с EdgeonePages — новым недорогим решением для хостинга веб-сайтов
boy illustration
[Зона легкого облачного игрового сервера] Управление игровыми архивами
boy illustration
Развертывание SpringCloud-проекта на базе Docker и Docker-Compose