A-Parser — парсер для профессионалов SEO

19.11.2020 0

О программе «Парсер сайтов»

Программа «Парсер сайтов» разработана для сбора, анализа, выборки, группировки, структуризации, трансформации данных с последующим выводом данных в таблицу Excel в форматах xls* и csv.

Парсер создан на VBA (Visual Basic for Applications) и представлен в виде надстройки для MS Excel, по сути это набор макросов, каждый набор отвечает за выполнение определенных функций при обработке.

Для парсинга любого сайта пишется подпрограмма управления макросами (файл-настройка с расширением .xlp).

Таким образом, для работы программы необходимы: файл надстройки Parser.xla и файл управления надстройкой Name.xlp (Name — имя файла).

Парсер сайтов и файлов (парсинг данных с сайта в Excel)

Надстройка Parser для Excel — простое и удобное решение для парсинга любых сайтов (интернет-магазинов, соцсетей, площадок объявлений) с выводом данных в таблицу Excel (формата XLS* или CSV), а также скачивания файлов.

Особенность программы — очень гибкая настройка постобработки полученных данных (множество текстовых функций, всевозможные фильтры, перекодировки, работа с переменными, разбиение значения на массив и обработка каждого элемента в отдельности, вывод характеристик в отдельные столбцы, автоматический поиск цены товара на странице, поддержка форматов JSON и XML).

В парсере сайтов поддерживается авторизация на сайтах, выбор региона, GET и POST запросы, приём и отправка Cookies и заголовков запроса, получение исходных данных для парсинга с листа Excel, многопоточность (до 200 потоков), распознавание капчи через сервис RuCaptcha.com, работа через браузер (IE), кеширование, рекурсивный поиск страниц на сайте, сохранение загруженных изображений товара под заданными именами в одну или несколько папок, и многое другое.

Поиск нужных данных на страницах сайта выполняется в парсере путем поиска тегов и/или атрибутов тегов (по любому свойству и его значению). Специализированные функции для работы с HTML позволяют разными способами преобразовывать HTML-таблицы в текст (или пары вида название-значение), автоматически находить ссылки пейджера, чистить HTML от лишних данных.

За счёт тесной интеграции с Excel, надстройка Parser может считывать любые данные из файлов Excel, создавать отдельные листы и файлы, динамически формировать столбцы для вывода, а также использовать всю мощь встроенных в Excel возможностей. Поддерживается также сбор данных из текстовых файлов (формата Word, XML, TXT) из заданной пользователем папки, а также преобразование файлов Excel из одного формата таблицы в другой (обработка и разбиение данных на отдельные столбцы)

В программе «Парсер сайтов» можно настроить обработку нескольких сайтов. Перед запуском парсинга (кнопкой на панели инструментов Excel) можно выбрать ранее настроенный сайт из выпадающего списка.

Пример использования парсера для мониторинга цен конкурентов

Видеоинструкция

На видео рассказывается о работе с программой, и показан процесс настройки парсера интернет-магазина:

Дополнительные видеоинструкции, а также подробное описание функционала, можно найти в разделе Справка по программе

В программе можно настроить несколько парсеров (обработчиков сайтов). Любой из парсеров настраивается и работает независимо от других.

Примеры настроенных парсеров (можно скачать, запустить, посмотреть настройки)

Видеоинструкция (2 минуты), как запустить готовый (уже настроенный) парсер

Настройка программы, — дело не самое простое (для этого, надо хоть немного разбираться в HTML)

Если вам нужен готовый парсер, но вы не хотите разбираться с настройкой, — закажите настройку парсера разработчику программы. Стоимость настройки под конкретный сайт — от 2000 рублей. (настройка под заказ выполняется только при условии приобретения лицензии на надстройку «Парсер» (2700 руб)

Инструкция (с видео) по заказу настройки парсера По всем вопросам, готов проконсультировать вас в Скайпе.

Программа не привязана к конкретному файлу Excel. Вы в настройках задаёте столбец с исходными данными (ссылками или артикулами), настраиваете формирование ссылок и подстановку данных с сайта в нужные столбцы, нажимаете кнопку, — и ваша таблица заполняется данными с сайта.

Программа «Парсер сайтов» может быть полезна для формирования каталога товаров интернет-магазинов, поиска и загрузки фотографий товара по артикулам (если для получения ссылки на фото, необходимо анализировать страницу товара), загрузки актуальных данных (цен и наличия) с сайтов поставщиков, и т.д. и т.п.

Справка по программе «Парсер сайтов»

Можно попробовать разобраться с работой программы на примерах настроенных парсеров

Какие задачи решает программа

  • Парсинг товаров для интернет магазинов в таблицу для последующего экспорта данных. Связь по артикулам с прайсами поставщиков. Загрузка фото под нужными именами в папки на жесткий диск.
  • Формирование баз контактов организаций: e-mail, телефонов, адресов, наименований.
  • Сбор и вывод в таблицу коэффициентов и результатов спортивных событий для дальнейшего анализа. Отслеживание и поиск необходимых матчей по условиям.
  • Парсинг файлов и папок на жестком диске, поиск по маске, смена имени, удаление, группировка.
  • Загрузка файлов любых форматов из сети интернет на жесткий диск или в облачное хранилище: фотографии, музыка, документы.
  • Запуск программы по расписанию: раз в час, неделю и т.д. Возможность зацикливания программы для отслеживания динамических данных на веб-ресурсах. При нужном совпадении данных есть возможность передачи их на e-mail или в Telegram.
  • При помощи парсера возможен не только сбор, но и подстановка/передача данных через браузер (например, отправка сообщений, простановка лайков в соцсетях и многое другое).
  • Парсинг с прохождением авторизации, передачей cookies и решением различных captcha.
  • Многопоточная загрузка, одновременный парсинг нескольких источников.

Виды парсеров по сферам применения

Для организаторов СП (совместных покупок)

Есть специализированные парсеры для организаторов совместных покупок (СП). Их устанавливают на свои сайты производители товаров (например, одежды). И любой желающий может прямо на сайте воспользоваться парсером и выгрузить весь ассортимент.

Чем удобны эти парсеры:

  • интуитивно понятный интерфейс;
  • возможность выгружать отдельные товары, разделы или весь каталог;
  • можно выгружать данные в удобном формате. Например, в Облачном парсере доступно большое количество форматов выгрузки, кроме стандартных XLSX и CSV: адаптированный прайс для Tiu.ru, выгрузка для Яндекс.Маркета и т. д.

Популярные парсеры для СП:

  • SPparser.ru,
  • Облачный парсер,
  • Турбо.Парсер,
  • PARSER.PLUS,
  • Q-Parser.

Парсеры цен конкурентов

Инструменты для интернет-магазинов, которые хотят регулярно отслеживать цены конкурентов на аналогичные товары. С помощью таких парсеров вы можете указать ссылки на ресурсы конкурентов, сопоставлять их цены с вашими и корректировать при необходимости.

Вот три таких инструмента:

  • Marketparser,
  • Xmldatafeed,
  • ALL RIVAL.

Парсеры для быстрого наполнения сайтов

Такие сервисы собирают названия товаров, описания, цены, изображения и другие данные с сайтов-доноров. Затем выгружают их в файл или сразу загружают на ваш сайт. Это существенно ускоряет работу по наполнению сайта и экономят массу времени, которое вы потратили бы на ручное наполнение.

В подобных парсерах можно автоматически добавлять свою наценку (например, если вы парсите данные с сайта поставщика с оптовыми ценами). Также можно настраивать автоматический сбор или обновление данных по расписания.

Примеры таких парсеров:

  • Catalogloader,
  • Xmldatafeed,
  • Диггернаут.

Скачать демо-версию «Парсер сайтов»

пробную (TRIAL) версию программы (версия 3.7.6 от 31.08.2020). Пробная версия имеет полный функционал и ограничена 10 дневным тестовым периодом (нажмите на зеленый кубик).

Купить вечную лицензию можно тут

программы для сайта relefopt.ru (нажмите на шестерню). Тестовая настройка предполагает частичную загрузку данных для демонстрации возможностей парсера.

Заказать под Ваш источник можно тут

Netpeak Spider 3.0

Netpeak Spider 3.0 – это новая версия парсера, которая вышла совсем недавно. Как и Screaming Frog, он хорошо справляется с парсингом сайта. Основные отличия от «лягушки»: более удобный и понятный русскоязычный интерфейс и наличие дополнительных функций.

Разработчики Netpeak Spider 3.0 пишут, что он справляется с большими сайтами с малой затратой ресурсов компьютера. Такая оптимизация действительно полезна, ведь не каждая «машина» сможет справиться с сайтом-миллионником. Чтобы спарсить такие сайты, порой приходится пользоваться виртуальной машиной с лучшими характеристиками, а это дополнительные расходы.

В нём есть весь обязательный функционал, конечно, было бы странно, если за такую цену у него не было каких-то функций. Есть вопросы к блоку ошибок: спорный момент по поводу распределения ошибок и почему не сделали распределение по всем ошибкам определённого типа. Например, общий пункт ошибок заголовков H со списком ошибок по этому пункту и так по всем ошибкам.

Из особенностей можно выделить:

  • Удобную настройку фильтров.
  • Интерактивный и удобный интерфейс.
  • Возможность выгрузить отдельные отчёты, которые вас интересуют.
  • Можно получить информацию по определённому URL без лишних кликов.

  • Просмотр структуры сайта.
  • Возможность задавать пользовательский robots.txt для сканирования.
  • Парсинг сайтов, требующих авторизации.
  • Поиск кода или текста на страницах сайта.
  • Настройка скорости парсинга.
  • Возможность остановить и продолжить парсинг в другое время.
  • Перенос данных по проекту на другой компьютер.

Этот парсер справился со сканированием нашего сайта всего за 5 минут, что тоже достаточно быстро.

Оценка: 17 баллов

Инструкция по первому запуску программы

Перед работой с программой ознакомьтесь с ответами на технические вопросы о версиях Windows, Excel, как включить макросы и прочее.

Запуск на примере тестовой настройки для парсинга сайта-поставщика https://relefopt.ru/ (для наглядного восприятия посмотрите видео):

  • Создаем в любом месте папку на жесткой диске или в облачном хранилище с произвольным названием, например, «Парсер». И скачиваем в неё программу Parser.xla.
  • Заходим в папку «Парсер», кликаем правой кнопкой мыши по файлу программы Parser.xla, нажимаем «Свойства», ставим галочку «Разблокировать», жмем «Применить» затем «ОК»:
  • Открываем файл двойным кликом левой кнопкой мыши, в папке «Парсер» будет создана папка «Настройки парсеров» и запустится Excel с дополнительными элементами в ленте:
  • В папку «Настройки парсеров» скачиваем файл настройки Relefopt.ruTest.xlp, далее в Экселе нажимаем «Дополнительно» и «Обновить панель инструментов»:
  • В ленте из выпадающего списка выбираем название «Relefopt.ruTest» и нажимаем «Начать загрузку данных»:
  • Ожидаем завершения загрузки данных. Исходя из технического задания на парсинг сайта relefopt.ru в процессе работы программы в папке с парсером созданы папки Downloads (для загрузки фото) и files (для сохранения файлов выгрузки) с подпапками для каждого раздела отдельно.
  • Если желаете прервать загрузку нажимаем «Отмена»«Да»:

Примечание: рассмотренный выше парсер загружает по одной позиции с каждой подкатегории сайта. Другие тестовые настройки можно найти в каталоге работ.

Создать техническое задание на настройку программы «Парсер сайтов» можно тут.

Чек-лист по выбору парсера

Краткий чек-лист, который поможет выбрать наиболее подходящий инструмент или сервис.

  • Четко определите, для каких задач вам нужен парсер: анализ SEO конкурентов или мониторинг цен, сбор данных для наполнения каталога, съем позиций и т.д.
  • Определите, какой объем данных и в каком виде нужно получать.
  • Определите, как часто вам нужно собирать данные: единоразово или с определенной периодичностью (раз в день/неделю/месяц).
  • Выберите несколько инструментов, которые подходят для решения ваших задач. Попробуйте демо-версии. Узнайте, предоставляется ли техническая поддержка (желательно даже протестировать ее — задать парочку вопросов и посмотреть, как быстро вы получите ответ и насколько он будет исчерпывающим).
  • Выберите наиболее подходящий сервис по соотношению цена/качество.
  • Для крупных проектов, где требуется парсить большие объемы данных и производить сложную обработку, более выгодной может оказаться разработка собственного парсера под конкретные задачи.

    Для большинства же проектов достаточно будет стандартных решений (возможно, вам может быть достаточно бесплатной версии любого из парсеров или пробного периода).

    Преимущества работы с программой

    • Широко масштабируемый постоянно обновляемый программный комплекс, позволяет решить самые разнообразные задачи.
    • Настройка программы практически под любой веб-ресурс для получения необходимой информации с выводом нужных Вам данных в таблицу.
    • Запуск парсера пользователем в любое время неограниченное количество раз для получения самой актуальной информации.
    • Прямая работа с исполнителем для настройки программы.
    • Наш опыт настройки программы более 3 лет, реализовано более 800 проектов.
    • Выше перечисленное позволяет получить Вам необходимые данные в сжатые сроки по доступной цене.

    Остались вопросы? Пишите, звоните Skype и e-mail, с удовольствием ответим.

    A-Parser — парсер для профессионалов SEO

    На сегодняшний день A-Parser

    развился в невероятный SEO комбаин, позволяющий покрыть огромное число задач для SEO-специалистов и вебмастеров любого уровня подготовки:

    • Используйте встроенные парсеры чтобы с легкостью получать и анализировать любые данные
    • Воспользуйтесь нашим каталогом парсеров и пресетов для расширения возможностей A-Parser и решения нестандартных задач
    • Если вы продвинутый пользователь — создавайте свои собственные парсеры на основе регулярных выражений
      или
      XPath
    • Владеете JavaScript
      ? Тогда A-Parser предлагает вам беспрецедентную возможность программировать свои собственные парсеры, используя всю мощь возможностей A-Parser!
    • Для автоматизации мы предлагаем API
      позволяющий легко встроить
      A-Parser
      в ваши бизнес процессы, а также для создания сервисов любого уровня сложности на базе нашего парсера

    Кроме этого мы предоставляем услуги по составлению заданий и написанию парсеров под ваши задачи, в кратчайшие сроки и по демократичной цене. Хотите спарсить целиком интернет магазин(Ozon, Amazon, AliExpress

    )? Проверить
    100 миллионов
    сайтов по вашим признакам? Получить данные с любого сайта в структурированном виде(
    CSV, JSON, XML, SQL
    )? В решении этих задач поможет наша дополнительная платная поддержка

    A-Parser

    полностью решает рутинные задачи по
    получению
    ,
    обработке
    и
    систематизации
    данных, необходимых для работы в следующих областях:

    • SEO-оптимизация сайтов и Web-аналитика
      Сбор баз ссылок для XRumer, A-Poster, AllSubmitter, ZennoPoster…
    • Оценка сайтов и доменов по множеству параметров
    • Мониторинг позиции любых сайтов в поисковых системах
    • Сбор контента(текст, картинки, ролики) для генерации сайтов(дорвеев)
    • Отслеживание обратных ссылок
    • Сбор произвольной информации с любых сайтов(например телефоны/e-mails, сообщения с форумов, объявления…)
    • Сбор и оценка ключевых слов
    • Сбор списка обратных ссылок
    • И многое другое
  • Web-безопасность
      Сбор и фильтрация баз ссылок по признакам
  • Определение CMS сайтов
  • Формирование произвольных GET, POST запросов с одновременной фильтрацией ответа
  • Сетевое администрирование
      Работа с DNS службой — резолвинг доменов в IP адреса
  • Работа с Whois — дата регистрации и окончания регистрации доменов, name-cервера
  • Данный список включает лишь частые варианты применения парсера, A-Parser

    позволяет решать самые нестандартные задачи комбинируя его возможности, такие как:

    • Форматирование и подстановки в запросах
    • Использование множества разных парсеров для обработки запросов в одном задании
    • Конструктор запросов и результатов
    • Фильтрация и уникализация результатов
    • Мощный шаблонизатор для формирования результатов(включая CSV, XML, JSON, SQL dump и т.д.)
    • Инструменты для работы с JSON и обработки JavaScript
    • Тестировщик заданий для быстрого и эффективного составления заданий
    • Создание собственных многопоточных парсеров на языке JavaScript

    A-Parser

    создавался и продолжает развиваться учитывая более чем 10 летний опыт разработки парсеров и многопоточных сетевых приложений, разработка ведется исключительно по следующим принципам:

    • Быстродействие
      и
      производительность
      , прежде всего за счет многопоточной обработки запросов
    • Максимальная эффективность
      использования ресурсов компьютера или сервера
    • Функциональность
      и
      удобство
      использования, наш продукт ориентирован на пользователя
    • Для каждой задачи выбирается лучший инструмент или алгоритм
      , предварительно прошедший тщательное тестирование

    Для дальнейшего знакомства с A-Parser

    ‘ом рекомендуется полноценно оценить его преимущества, ознакомится с отзывами пользователей, выбрать необходимую версию и перейти к оплате лицензии