A-Parser - продвинутый парсер поисковых систем, WordStat, YouTube, Suggest, PR, etc

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
1.2.455 - поддержка puppeteer, все методы в Net::HTTP, обновление Bypass Cloudflare

Начиная с версии 1.2.455 мы начинаем официальную поддержку Node.JS модуля puppeteer - средства автоматизации работы с браузером Chrome(Chromium), благодаря чему возможен полноценный рендеринг DOM с поддержкой JS. В качестве примера мы выкладываем парсер, который делает скриншоты сайтов в формате PNG, доступен выбор размера скриншота. Chromium может быть запущен как на Windows, так и на Linux серверах без GUI.
Улучшения
  • SE::Bing::Images полностью переписан, добавлен сбор дополнительных данных, а также в настройках добавлен выбор региона и языка интерфейса
  • В
    Net::HTTP добавлены все методы в настройки, а также реализована возможность переопределения через заголовок Method
  • Добавлена возможность форматирования всех цифр в интерфейсе
  • JS парсеры: в this.parser.request для override добавлена опция needData, которая определяет передавать или нет в ответе data/pages[], может использоваться для оптимизации
  • JS парсеры: добавлена поддержка модулей url и ws

Исправления в связи с изменениями в выдаче

Исправления
  • Исправлена работа функции Bypass Cloudflare в
    Net::HTTP
  • Исправлена ошибка, из-за которой при определенных настройках не писался Начальный текст
  • Исправлена работа некоторых socks4 прокси
  • Исправлена ошибка в $tools.base64.encode() при работе с кириллическими символами
  • В
    Shop::Amazon исправлена ошибка, при которой игнорировался домен
  • JS парсеры: исправлена редкая ошибка в работе сокетов в Node.js
 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Сборник рецептов #31: скидка -50% на (другой софт), скриншоты страниц, подсказки Я.Маркета и правописание
31-й сборник рецептов. В нем будет показан способ создания скриншотов веб-страниц, парсинг подсказок Яндекс Маркета, а также проверка правописания в Google. Кроме этого, только до конца апреля доступна возможность купить (другой софт) со скидкой. Далее обо всем по порядку.

Скидка -50% на покупку (другой софт) для существующих и новых пользователей A-Parser
Для всех существующих и новых пользователей A-Parser действует скидка на покупку (другой софт) -50%!
(другой софт) - это простая, быстрая и удобная программа для полностью автоматического распознавания и обхода подавляющего числа капч и рекапч, без необходимости подключения каких-либо сторонних сервисов. Использование (другой софт) в связке с A-Parser позволяет значительно удешевить парсинг ресурсов, где необходимо разгадывать капчи/рекапчи, при этом практически не теряя в скорости.
Акция действует до конца апреля. Количество промокодов ограничено, поэтому не упустите возможность воспользоваться скидкой!
Для получения промокода на покупку (другой софт) пишите в тикеты.
http://files.a-parser.com/img/ap+(другой софт)-50.png

JS::Chrome::ScreenshotsMaker
Возможность загружать страницы с полной обработкой всех скриптов, аналогично браузеру - это один из самых популярных фичреквестов для A-Parser. Поэтому буквально недавно была добавлена поддержка Node.js модуля puppeteer, с помощью которого теперь можно получать полностью отрендеренные страницы. И мы публикуем первый пример по работе с ним - парсер для создания скриншотов веб-страниц. Больше информации, пример работы и готовый парсер - все это доступно по ссылке выше.


Парсер подсказок Яндекс.Маркет
Еще один парсер подсказок, на этот раз из Яндекс Маркета. Собираются подсказки, их популярность (частота), тип, а также, опционально, категория (включая полный путь родительских категорий). Готовый парсер, как обычно, доступен в нашем Каталоге по ссылке выше.


Проверка правописания в Google
Данный парсер позволяет проверить ключевые слова через поиск Google на предмет опечаток и получить исправленные варианты. Готовый пресет доступен по ссылке выше.


Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.
 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Видео урок: Работа с MySQL
Видеоурок по работе с MySQL в A-Parser. В нем на реальном примере показано как работать с базами данных MySQL, используя Node.js модуль mysql2.


В этом уроке рассмотрены:
  • Установка и подключение модулей
  • Некоторые основы языка запросов SQL
  • Создание базы данных MySQL
  • Получение и запись данных в БД, используя JS-парсеры

Полезные ссылки:

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!
 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Сборник рецептов #32: Yahoo Answers, контакты фрилансеров и оценка ключевых слов

32-й сборник рецептов, в котором подобраны 3 JS парсера для парсинга Yahoo Answers, оценки ключевых слов и сбора контактных данных фрилансеров.

Парсер Yahoo Answers
Полноценный парсер сервиса Yahoo Answers, который по ключевым словам позволяет собирать непосредственно вопросы, ответы, а также их категории, дату создания и ссылки на страницы обсуждений.


Парсинг контактов фрилансеров
Парсер, который ищет по ключевым словам фрилансеров и собирает их контакты. Данные собираются с сервиса fl.ru.


Анализ ключевых слов
Парсер для сервиса seranking.com. Кейворды оцениваются по 4-м показателям: частотность, стоимость клика (CPC), стоимость трафика и KEI. Также есть возможность собирать похожие, релевантные и подсказки к начальному запросу вместе с их показателями.


Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.
 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
1.2.484 - 4 новых парсера, улучшение работы и исправление существующих

Улучшения
  • Новые парсеры:
    • Maps::Google - по ключевым словам собирает различные данные об организациях в заданных координатах
    • Maps::Yandex - по ключевым словам собирает различные данные об организациях в заданных координатах
    • Rank::Bukvarix:: Domain - сбор ключевых слов по домену
    • Rank::Bukvarix::Keyword - сбор ключевых слов по домену
  • Удалены 4 неактуальных парсера: Rank::SEMrush::Keyword, SE::QIP, SE::QIP::Position, Rank::MegaIndex
  • Улучшена работа
    SE::AOL
  • JS парсеры: для this.request добавлена опция data_as_buffer, которая определяет возвращать data как строку(String) или объект Buffer

Исправления в связи с изменениями в выдаче
  • В
    SE::Google::Modern исправлена работа с рекаптчами, исправлен парсинг сниппетов, а также исправлен парсинг мобильной выдачи
  • Rank::SEMrush полностью переписан, также полностью изменился список собираемых данных, парсер возвращает только те данные, которые доступны без авторизации
  • Полностью переписан
    Rank::Alexa
  • Исправлена работа
    Rank::MajesticSEO, теперь обязательно требуется установка Node.js и модуля brotli
  • В
    Rank::Social::Signal удалена переменная $facebook_share в связи с прекращением поддержки со стороны FB
  • SE::IxQuick,
    Shop::AliExpress,
    SE:: DuckDuckGo::Images ,
    Shop::Amazon,
    Check::RosKomNadzor

Исправления
  • Исправлена работа с запросами, содержащими пробел в
    SE:: DuckDuckGo
  • Исправлена проблема с декомпресией данных на некоторых сайтах
  • JS парсеры: исправлена работа setImmediate
 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Видео урок: Получение уведомлений в Telegram об окончании срока регистрации доменов
В этом видеоуроке будет показано, как настроить периодическую проверку окончания срока регистрации доменов, и получать уведомления в телеграм, если он меньше заданного количества дней.
В уроке рассмотрено:
  • использование tools.js для написания собственных функций
  • работа с шаблонизатором Template Toolkit
  • проверка доменов через WHOIS
  • цепочки заданий
  • отправка сообщений в Telegram с помощью бота
Полезные ссылки:
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
1.2.503 - обновление JavaScript движка и множество улучшений

Улучшения
  • Движок v8 обновлен до версии 7.5, помимо увеличения скорости есть множество улучшений в поддержке новых возможностей языка JavaScript
  • В
    SE::Yandex в массив $ads добавлена переменная $visiblelink, в которой содержится видимая ссылка
  • В
    Rank::Bukvarix:: Domain добавлена переменная $totalcount которая содержит количество результатов
  • В
    SE::Yahoo добавлена опция Not found is error, указывающая, считать ли отсутствие результатов ошибкой

Исправления в связи с изменениями в выдаче
Исправления
  • Исправлена редкая проблема с ошибками в JS парсерах на Windows
  • В
    SE::Baidu исправлена работа функции Get full links для результатов без ссылок
  • Исправлена проблема с Decode JSON error в парсерах WordStat
  • Исправлен баг с перезагрузкой кода JS парсера при редактировании в сторонних приложениях, проблема возникла в одной из предыдущих версий
 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Сборник рецептов #33: парсинг Google карт, сбор вопросов из поиска, перевод текстов целиком
33-й сборник рецептов, в котором мы будем собирать данные из Google maps в указанной местности, спарсим блок вопросов и ответов в поиске Гугла и научимся использовать файлы целиком в качестве запросов. Поехали!

Сбор всех организаций в определенной местности
Начиная с версии 1.2.482 в A-Parser появились парсеры карт Google и Яндекс. Принцип работы обоих одинаков - в настройках указываются координаты точки и зум, парсер собирает результаты поиска по ключевым словам в этой точке и области вокруг нее, ограниченной зумом. Но если стоит задача собрать данные, например, со всего города, то для ее решения нужно указывать диапазон координат и "заставить" парсер пройтись по ним. Как это сделать, а также пример пресета - все это показано по ссылке выше.


Парсер собирающий вопросы и ответы из выдачи Google
Google по некоторым запросам показывает в поисковой выдаче блок вопросов и ответов People also ask (Похожие запросы). Наши пользователи периодически интересуются, как можно парсить этот блок, получая отдельно вопросы и ответы на них. Поэтому мы публикуем в нашем каталоге пример такого парсера, а забрать его можно по ссылке выше.


Использование файлов целиком в качестве запросов
Общеизвестно, что в А-Парсере каждая строка в исходном файле - это отдельный запрос. Но существуют задачи, когда необходимо использовать все содержимое файла как один запрос, игнорируя разбивку на строки. Благодаря JavaScript парсерам такая возможность есть и по ссылке выше опубликован пример парсера, который получает все содержимое файла, переводит его на заданный язык и сохраняет в новый файл.


Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.
Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Видео урок: Макросы подстановок
В этом видеоуроке мы изучим один из инструментов для работы с запросами - макросы подстановок. С их помощью можно значительно увеличивать количество запросов, листать страницы и многое другое.
В уроке рассмотрено:
  • макрос {num} на примерах прохода по страницам и перебора координат в парсере Google maps
  • макрос {az} на примере парсинга по доркам для увеличения кол-ва запросов и соответственно результатов
  • макрос {each} на примере парсинга подсказок для генерации словосочетаний

Полезные ссылки:

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
1.2.534 - 6 новых парсеров, поддержка Node.js в tools.js, множество исправлений в парсерах

Улучшения
  • Добавлено 4 новых парсера Instagram
  • Добавлено 2 новых парсера SerpStat
  • Добавлена поддержка дробных чисел в макросе подстановок {num}
  • Добавлена поддержка Node.js в tools.js, теперь можно использовать возможности Node.js (включая модули) в обычных пресетах во всех полях кроме Parse custom results, фильтров и Конструкторов результатов
  • Шаблоны Template Toolkit в настройках парсеров теперь работают для всех запросов
  • Стабилизирована работа
    SE::Google::Modern после изменений со стороны Google, благодаря чему несколько уменьшилось количество рекаптч
  • Улучшена проверка ответа в
    Maps::Yandex, улучшен сбор картинок, а также добавлена возможность собирать ссылки на страницу организации
  • API: для oneRequest/bulkRequest добавлен параметр needData, указывающий, передавать ли в ответе data/pages, используется для экономии памяти, по умолчанию отключен
  • Обновлены apps.json и user-agents.txt, при установке обновления также рекомендуется обновить эти файлы
Исправления в связи с изменениями в выдаче
  • Исправлена ситуация, при которой в
    SE::Google::Modern выдавался 597 код ответа
  • В
    SE::Yandex исправлена ситуация, при которой в результатах появлялись "пустые" ссылки, а также исправлен парсинг сниппетов в мобильной выдаче
  • Исправлена редко встречающаяся проблема с
    SE::Google::Translate, когда парсер получал в ответ 403 статус
  • Исправлено определение языка запроса в
    SE::Google::Translate
  • Исправлена работа
    SE::YouTube, а также исправлен сбор $title
  • В
    Rank::Social::Signal удалена переменная $linkedin_share в связи с прекращением поддержки со стороны LinkedIn
  • В
    Shop::Yandex::Market исправлен парсинг $features для некоторых видов запросов
  • Исправлен урл запроса в
    SE:: DuckDuckGo
Исправления
  • Исправлен баг в
    Rank::Bukvarix:: Domain, из-за которого в некоторых случая парсинг завершался с ошибкой
  • В парсерах Maps::* исправлена работа с отрицательными координатами
  • В
    Rank::SEMrush исправлена ошибка определения "удачности" запроса
  • Исправлен баг в tools.js, возникший после обновления V8
  • API: исправлена работа метода getAccountsCount
  • JS парсеры: исправлен баг со слэшем в check_content
 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Сборник статей #8: ссылки с GET параметрами, скачивание Google документов, очистка очереди через API
8-й сборник статей. В нем мы научимся парсить ссылки с GET параметрами, искать в поиске Google и скачивать документы, а также узнаем как очищать очередь заданий через API. Поехали!

Сбор ссылок с GET параметрами
В техническую поддержку часто задают вопрос, как собирать ссылки с GET параметрами для поиска SQL уязвимостей. Поэтому, по ссылке выше мы расскажем как это сделать, используя стандартный парсер Google.


Поиск и скачивание Google документов
За последнее время уже несколько раз появлялись новости о том, что Google индексирует пользовательские документы, размещенные в их одноименном сервисе и открытые для доступа по ссылке. Соответственно все эти файлы становятся доступны в поиске. И пока Google разбирается с этим, по ссылке выше мы рассказываем как можно искать и скачивать такие документы.


Работаем с API, часть 3
Третья и заключительная часть из цикла статей по работе с A-Parser через API. В ней на примере очистки очереди задач будет рассмотрена работа со вспомогательными запросами, которые позволяют работать с очередью заданий. Все детали - по ссылке выше.

Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки :-) ) - отписывайтесь здесь.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Сборник рецептов #34: оценка трафика, парсинг Ahrefs и информация об IP адресах

34-й сборник рецептов, в котором опубликован пресет для оценки количества трафика на сайтах, парсер Ahrefs через API и пресет для парсинга информации об IP адресах. Поехали!

Чек трафика сайта
Пресет для проверка трафика сайта через сервис siteworthtraffic.com. Собираются данные о количестве уникальных постетителей и просмотров, а также о доходе с рекламы. Оценка трафика на сайтах может быть полезна для фильтрации списка сайтов по критерию прибыльности и популярности. Пресет доступен по ссылке выше.


Парсер Ahrefs на основе Ahrefs API
Парсер для сбора данных из популярного сервиса Ahrefs через их официальное API. Собирается множество данных, которые позволяют оценивать домены по различным характеристикам. Для использования нужен API ключ, который приобретается отдельно.


Парсинг подсети и организации по IP
Небольшой пресет для сбора информации об IP адресе, а именно: подсеть, организация, страна и город. Данные собираются из сервиса whoer.net.


Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Все сборники рецептов

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
1.2.570 - новые парсеры API::Server::Redis и SE::Startpage, улучшения в существующих парсерах

Улучшения
  • Добавлен новый парсер API::Server::Redis (только для лицензий Enterprise)
  • В
    SE::Google::Modern добавлена возможность определять наличие расширенных сниппетов (rich snippets) в выдаче
  • В связи с изменениями на сервисе-источнике парсер SE::IxQuick был удален, а вместо него добавлен SE::Startpage с почти аналогичным функционалом
  • Улучшена логика работы функции Get full links в SE::Baidu SE::Baidu
  • В
    SE::Google::Modern реализована возможность указывать дополнительные заголовки для запросов
  • Улучшен парсинг меток сайтов в
    SE::Yandex, а также добавлена поддержка новых типов меток
  • Улучшена логика работы функции Get full links в SE::Baidu
  • Оптимизирован алгоритм обработки подзапросов
Исправления в связи с изменениями в выдаче
  • Улучшена работа
    SE::YouTube, в связи с тестированием новой верстки
  • В
    SE::Google::Translate переработан механизм повторных попыток, добавлена поддержка сессий
  • Исправлен парсинг сниппетов в
    SE::Google::Images
  • Поностью переработан
    GooglePlay::Apps- теперь он парсит только первую страницу результатов
  • Исправлен парсинг мобильной выдачи в SE::Google::Modern
  • Исправлена работа
    SE::Seznam при отсутствии результатов
  • Исправлена работа
    Rank::Linkpad, парсер полностью переписан
  • SE::Bing::Translator,
    SE:: DuckDuckGo::Images,
    SE::Bing::Images
Исправления
  • Исправлена проблема, из-за которой в некоторых случаях при запросе через API возвращался пустой массив страниц
  • Исправлено падение скорости в
    Net::Whois
  • Исправлен баг в оптимизации парсеров
  • Исправлено сохранение параметра Report period в
    SE::Yandex:: Direct::Frequency
  • В
    HTML::LinkExtractor исправлен сбор ссылок, если в них есть перенос строки
 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Видео урок: Поиск страниц контактов
В этом видео уроке рассмотрен пример решения задачи по поиску страниц контактов у заданного списка сайтов. Также парсится тайтл и все это сохраняется в CSV файл.
В уроке рассмотрено:
  • парсинг поиска Google для получения ссылки на страницу контактов
  • парсинг главной страницы сайта для получения title
  • использование инструмента $tools.CSVline для форматирования файла результата
  • пример правильного импорта в Excel
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Сборник рецептов #35: комментарии на Youtube, контакты на сайтах и японский Yahoo
35-й сборник результатов, где мы будем собирать комментарии из Youtube, искать контакты (телефоны и почты) на сайтах, а также парсить японскую выдачу Yahoo. Поехали!
Парсинг комментариев из Youtube
Представляем вашему вниманию JS парсер комментариев для видео на Youtube. С его помощью можно собирать тексты комментариев, а также информацию об авторах комментариев индивидуально для каждого видео. Также реализована возможность указывать количество страниц с комментарими, что позволяет при необходимости ограничить их сбор и тем самым увеличить скорость работы.


Извлекаем телефоны, начинающиеся на 3 с помощью HTML::EmailExtractor
Пресет, в котором показано, как с помощью HTML::EmailExtractor HTML::EmailExtractor собирать контакты со страниц сайтов. Данный пресет предназначен для сбора e-mail и телефонов, начинающихся с 3 (Украина), но при необходимости можно немного изменить регулярные выражения и собирать телефоны других стран.


SE::Yahoo::JP
JS парсер для парсинга японской выдачи Yahoo. Используется домен search.yahoo.co.jp. Собираются ссылки, анкоры и сниппеты, а также есть возможность задать количество страниц для парсинга.


Еще больше различных рецептов в нашем Каталоге!

Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
1.2.595 - новый парсер Ahrefs, инструмент для создания CSV и много других улучшений



Улучшения
  • Добавлен новый парсер Rank::Ahrefs
  • Добавлен инструмент $tools.CSVline для простого создания CSV файлов
  • В связи с тестированием Гуглом новой верстки в поисковике, добавлена ее поддержка в SE::Google::Modern
  • В SE::Google::Modern в массив $serp добавлена переменная $amp, которая показывает, поддерживает ли страница AMP
  • В SE::Yandex в $serp.$i.label добавлена поддержка Турбо страниц, а также добавлен сбор типов меток сайтов
  • В Net::HTTP улучшена работа с редиректами, добавлена опция Follow common redirects
  • Теперь в Util::ReCaptcha2 можно указать хост для используемого сервиса разгадывания, а также в Provider url можно указывать адреса через запятую (актуально для (другой софт) и CapMonster), парсер будет использовать каждый из них в случайном порядке
  • Увеличено количество результатов в парсерах Rank::Bukvarix::*
  • Добавлена опция ограничения числа логов, с целью оптимизации использования дискового пространства
  • JS парсеры: улучшена пакетная обработка запросов
Исправления в связи с изменениями в выдаче
  • В Maps::Yandex исправлена ситуация, при которой для части результатов не собирались данные
  • Исправлен SE::Rambler
Исправления
  • Исправлена проблема с рядом парсеров, из-за которой они не работали, появилась в одной из предыдущих версий
  • Исправлена ошибка в Rank::Alexa, из-за которой при отсутствующих значениях запрос завершался с ошибкой
  • Исправлен баг в Rank::MajesticSEO, из-за которого в некоторых случаях запросы завершались с ошибкой
  • Для парсеров Social::Instagram::Profile и Social::Instagram::Tag изменен перечень доступных переменных в связи с не совсем корректной работой в некоторых случаях

 

abuser

Client
Регистрация
02.06.2010
Сообщения
223
Благодарностей
16
Баллы
18
Наконец-таки дошли руки до отзыва об Апарсере - лучшем парсере всея интернета!
Готовые внутренние шаблоны парсинга - закрывают 80% задач по сео продвижению, дорвеям и пр.
Ещё 143% охватывается кастомными бесплатными пресетами из огромного (и обновляемого!) каталога.
Реально поражает скорость работы... использование даже на бесплатных проксях - выше всех похвал.

Выражаю свою благодарность тебе, Forbidden - шикарные продукты-мегабомбы! (апостер, апарсер )) )

Комьюнити и поддержка -всегда поможет с возникающими вопросами.

>>Рефка на регу +100 к карме<<
 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Видео урок: Парсинг Google Maps для сбора всех организаций в определенной местности

В этом видео уроке рассмотрен способ сбора данных об организациях в указанной местности из Google Maps, используя встроенный парсер Гугл карт. Также показано как определить необходимые координаты на карте и задать их в парсере.


В уроке рассмотрено:
  • Парсинг карт Google с использованием Maps::Google
  • Пример получения координат для использования в макросах подстановок
  • Работа с макросами подстановок при наличии отрицательных чисел
  • Импорт результата в Excel

Полезные ссылки:
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Сборник статей #9: анализ страниц сайта, парсинг всех страниц сайта из индекса и проверка запросов

9-й сборник статей. В нем мы разберемся, как делать пресеты для анализа всех страниц сайта, научимся парсить все ссылки сайта из индекса ПС и будем проверять существование запросов. Поехали!

Создание пресета для анализа страниц сайта
Анализ страниц на сайте - это один из самых популярных кейсов использования А-Парсера. При этом можно собирать очень много различных параметров, начиная от проверки доступности и заканчивая поиском определенных слов на странице.
О том, как сделать простой анализатор сайта и пойдет речь в этой статье.


Парсинг разными способами максимум результатов из индекса поисковых систем
Парсинг из индекса поисковых систем всех страниц сайта - это еще один популярный кейс для A-Parser. ПС ограничивают кол-во результатов по одному запросу, поэтому нужно как-то обходить это ограничение. Как это сделать - описано в нашей статье.


Проверка существования запросов
Пресет из этого примера позволяет проверить базу ключевых слов и определить, был ли запрос одноразовым без постоянного спроса или нет. Тем самым появляется возможность отфильтровать семантику и оставить только "хорошие" запросы. Больше деталей, а также готовый пресет - по ссылке выше.



Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки :-) ) - отписывайтесь здесь.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Предыдущие сборники статей

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
1.2.678 - оптимизация работы с прокси, улучшения во встроенных парсерах, исправления ошибок



Улучшения
  • В
    SE::Google::ByImage добавлена поддержка рекаптч, а также улучшена работа в целом
  • В
    SE::Yandex добавлена возможность одновременной работы авторазгадывания каптч и антигейта
  • В
    Rank::Ahrefs добавлена возможность выбора типа домена
  • Полностью переписан
    SE::Yandex::SQI, изменен набор собираемых данных
  • Реализован бан прокси в
    SE:: DuckDuckGo::Images
  • В
    Net::Whois добавлен парсинг даты освобождения домена
  • Оптимизирована работа с прокси при использовании большого числа попыток
  • Улучшена работа функции Bypass Cloudflare
  • Добавлен tools.aparser.version(), позволяющий получить информацию о версии A-Parser

Исправления в связи с изменениями в выдаче
  • В мобильной верстке
    SE::Google::Modern исправлен парсинг новостей, а также исправлен парсинг ссылок и анкоров в desktop выдаче
  • В
    SE::Yandex исправлено определение каптчи, а также исправлен сбор ссылок на кеш
  • Исправлен парсинг цен и количества комментариев в
    Shop::Amazon
  • Исправлена работа
    SE:: DuckDuckGo::Images с запросами, содержащими более 1 слова
  • GooglePlay::Apps,
    SE::Youtube ,
    Rank::Ahrefs

Исправления
  • Исправлена проблема с рандомизацией прокси на Windows 10
  • Исправлено зависание при использовании
    Check::BackLink
  • Исправлена проблема, при которой не применялся Content-Type в
    Net::HTTP
  • Исправлена редкая проблема с выбором файла запросов
  • Исправлена обработка редиректов при нестандартном порте
  • Исправлен вывод многострочных данных в tools.CSVline
  • JS парсеры: исправлена проблема с интерфейсом при отсутствии необходимых Node.js модулей
  • JS парсеры: исправлена проблема с подключением модуля jimp

 
  • Спасибо
Реакции: Sobesednic

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Видео урок: Парсинг сайта в глубину на основе парсера HTML::LinkExtractor

В этом видео уроке рассмотрен способ создания пресета для анализа сайта в глубину.


В уроке рассмотрено:
  • Парсинг в глубину (уровень) сайта относительно страницы запроса при помощи функции "Парсить до уровня"
  • Получение title (с очисткой от HTML сущностей)
  • Получение таких параметров как:
    • кол-во предыдущих редиректов
    • код ответа сервера
    • кол-во внешних ссылок
Полезные ссылки:

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

 

Juniorcpa

Client
Регистрация
27.05.2014
Сообщения
2 031
Благодарностей
1 285
Баллы
113
Потестировал встроенные парсеры - работает довольно шустро. Полноценно к работе и изучению еще не приступал, но то что есть "из коробки" - уже впечатляет.
Демка доступна прям у них на сайте, если что, прикольно сделано
:)
 
  • Спасибо
Реакции: A-Parser Support

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Сборник рецептов #36: уникальность текста, парсер GitHub, посещаемость сайтов, результаты розыгрыша

36-й сборник рецептов, в котором опубликованы парсер для проверки текстов на уникальность, парсер GitHub и парсер для получения информации о посещаемости сайтов. А также список обновленных пресетов из нашего Каталога.

Но, в первую очередь хотим поделиться результатами розыгрыша, который был проведен в связи с Черной пятницей. Мы разыграли 5 лицензий на А-Парсер среди всех новых участников нашего telegram чата, которые присоединились к нему в период проведения акции. Результаты розыгрыша в видео:



А теперь перейдем непосредственно к сборнику.

Проверка текста на уникальность

Задача проверки текстов на уникальность является одной из самых частых для копирайтеров. Возможность осуществлять такую проверку предоставляют много ресурсов. И парсер для одного из таких сервисов опубликован по ссылке выше.



Парсер Github

Согласно Википедии, GitHub - это крупнейший веб-сервис для хостинга IT-проектов и их совместной разработки. Поэтому мы не могли обойти его стороной и публикуем парсер данных о репозиториях при поиске по ключевому слову на данном ресурсе.



Парсинг количества трафика на сайтах

Этот парсер позволяет получать информацию о просмотрах и посещениях страниц за день, месяц и год. В качестве источника данных используется один из известных сервисов.



Кроме этого были обновлены:

Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Все сборники рецептов

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
1.2.713 - новые парсеры: Telegram и eBay, оптимизации во встроенных парсерах, новые инструменты



Улучшения
  • Добавлен новый парсер Telegram::GroupScraper, который собирает из публичных групп в Telegram данные о сообщениях: текст, дата, автор, ссылки на фото и видео
  • Добавлен новый парсер Shop::eBay, который позволяет парсить поисковую выдачу на ebay.com
  • Изменения в парсерах Google:
    • Добавлена переменная $detected_geo, в которой содержится информация о геолокации
    • В связи с неактуальностью удалены опции:
      • Old desktop computer (IE6) в Device
      • Util::AntiGate preset
      • Use digit captcha
  • В SE::Yandex увеличено максимальное значение Pages count до 25
  • В SE::Google::Images добавлена поддержка новой верстки
  • В Util::ReCaptcha2 добавлена поддержка capmonster.cloud
  • Парсер SE::MailRu полностью переписан, добавлена поддержка каптч и сессий и добавлен сбор ссылок на кешированные страницы
  • Парсер SE::Yandex:: Direct полностью переписан, добавлен сбор тегов и дополнительных ссылок с анкорами
  • Добавлен новый инструмент шаблонизатора tools.task, на данный момент он умеет возвращать id задания и число потоков
  • JS парсеры: this.query.add теперь поддерживает передачу дополнительных параметров
Исправления в связи с изменениями в выдаче
Исправления
  • В парсерах Google исправлена ошибка, при которой собираемые ссылки были с переводчиком
  • Исправлены проблемы с рандомизацией в некоторых случаях
  • Исправлена ошибка в Social::Instagram::post при парсинге только массивов данных
  • Исправлена проблема с проходом по пагинации, которая возникла в одной из предыдущих версий
  • JS парсеры: исправлена работа с Node.js модулем socks

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Сборник рецептов #37: парсинг Twitter, поиск и скачивание картинок, парсинг групп в Telegram

37-й сборник рецептов. В него вошли: парсер Twitter, который умеет собирать сообщения, их авторов и т.п.; JS парсер, в котором объединены поиск и скачивание картинок; а также 2 пресета для парсинга Telegram, которые демонстрируют возможности по сбору данных из публичных групп.

Парсер постов из Twitter
Публикуем парсер, который по ключевому слову парсит данные из сообщений в Twitter. Собираются имя и логин автора, текст сообщения, дата публикация, количество лайков, ответов и ретвитов. Есть возможность указать количество страниц для парсинга.



JS::ImagesFromSE
Ранее мы уже публиковали JavaScript парсер, в котором объединены парсинг выдачи ПС и парсинг текста со страниц. Теперь представляем вашему вниманию JS парсер, в котором объединены поиск и скачивание картинок.



Пресеты для парсинга публичных групп в Telegram
Начиная с версии 1.2.709 в А-Парсер был добавлен
Telegram::GroupScraper. Для демонстрации его возможностей мы опубликовали в Каталоге 2 пресета:

Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Все сборники рецептов

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Сборник статей #10: отслеживание цен с уведомлением, парсинг характеристик товаров, редиректы

10-й сборник статей, в котором будет показано, как с помощью А-Парсера получать уведомления в Телеграм об изменении цен на товары, как парсить характеристики товаров и выводить их в виде удобной таблицы, а также подробно описана работа с редиректами.

Периодический мониторинг цен с уведомлением в Telegram

В этой статье пошагово описан процесс создания парсера, с помощью которого можно отслеживать изменение цен товаров. При этом парсер будет присылать уведомление в Телеграм, а также можно легко добавить поддержку других сайтов.



Сбор характеристик товара

Одной из частых задач для А-Парсера является сбор характеристик товаров в интернет-магазинах. И если сам парсинг совсем не проблема, то формирование итоговой таблицы, при условии, что характеристики должны быть распределены по отдельным столбцам, вызывает вопросы. Поэтому, в данной статье будет описан способ такого парсинга.



Всё о редиректах

Большая справочная статья, посвященная тематике редиректов.



Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки :-) ) - отписывайтесь здесь.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Предыдущие сборники статей

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Видео урок: Парсинг тематических доменов из Google и получение различных параметров по доменам

В этом видео уроке рассмотрен способ создания пресета для парсинга тематических доменов по ключевой фразе из поисковой выдачи Google, и получение для доменов различных параметров.


В уроке рассмотрено:
  • Парсинг поисковой выдачи Google
  • Вывод уникальных результатов в качестве главных доменов
  • Получение таких параметров как:
    • зарегистрирован домен или нет
    • дата регистрации и дата окончания регистрации домена
    • язык сайта
    • title и description
    • индекс качества сайта
    • позицию в глобальном рейтинге Alexa
    • cтрану с наибольшим числом трафика по Alexa
    • позицию в рейтинге этой страны по Alexa
Полезные ссылки:
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
1.2.752 - полноценная поддержка Node.js, функция Memory Saver, оптимизация производительности



Улучшения

  • Полноценная поддержка NodeJS 12.13.х, включая нативные модули, подробнее: https://a-parser.com/threads/5807/
  • Новая опция Memory Saver, которая позволяет регулировать потребление памяти парсером
  • Улучшена производительность
    SE::Yandex
  • В
    Shop::Amazon добавлена возможность подключать антигейт, а также поддержка сессий
  • В
    SE::Google::ByImage добавлена возможность выбирать язык интерфейса, язык результатов и страну
  • Уменьшено потребление памяти, при использовании нескольких парсеров в задании, разница может достигать 100%

Исправления в связи с изменениями в выдаче


Исправления

  • Исправлена работа Bypass Cloudflare в некоторых случаях
  • Исправлена работа при малом числе прокси
  • Исправлена проблема при редактировании дополнительных форматов результатов

 

A-Parser Support

Активный пользователь
Регистрация
03.06.2013
Сообщения
290
Благодарностей
30
Баллы
28
Сборник рецептов #38: парсер Яндекс.Кью, парсер сайтов из Яндекс.Радар и определение типов сайтов

38-й сборник рецептов. В нем опубликованы: парсер сервиса вопросов-ответов Яндекс.Кью, парсер для сбора сайтов из Яндекс.Радара, а также парсер для определения типа сайта.

Парсер Яндекс Кью

Яндекс.Кью - это сервис вопросов-ответов, запущенный в конце 2019 года. Он объединил в себе несколько других сервисов, поэтому уже на момент запуска обладал большой базой информации. Мы не могли оставить это просто так и публикуем парсер для сбора данных из этого сервиса.



Парсинг сайтов из Яндекс.Радар

Яндекс.Радар - это сравнительно новый сервис Яндекса, который в отчасти заменил ранее популярный Яндекс.Каталог. Это большой каталог популярных в рунете сайтов с данными о их посещаемости и некоторой информацией о посетителях. Мы подготовили парсер, с помощью которого можно собрать список сайтов с необходимыми фильтрами.



Определение типа сайта по Яндекс Радару

И еще один парсер для Яндекс.Радар от нашего пользователя. С его помощью можно определять типы сайтов, если они есть в базе Яндекс.Радара.



Еще больше различных рецептов в нашем Каталоге!
Предлагайте ваши идеи для новых парсеров здесь, лучшие будут реализованы и опубликованы.

Подписывайтесь на наш канал на Youtube - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Twitter.

Все сборники рецептов

 

Шива

Client
Регистрация
05.02.2018
Сообщения
1 084
Благодарностей
339
Баллы
83
Это не просто парсер , а ультимативное решение для сбора любых данных с любых сайтов.
Особенно нравится то что очень удобно парсить поисковики для сбора различных баз.
 

Кто просматривает тему: (Всего: 1, Пользователи: 0, Гости: 1)