Ищем дропы доменов по битым ссылкам с помощью зенки и способы заработка на этих дропах.

Duser

Client
Регистрация
11.08.2013
Сообщения
286
Благодарностей
192
Баллы
43
Думаю сейчас уже никому не надо объяснять, что такое дроп. Истекший домен (или дроп-домен) — домен, которым уже пользовались, но владелец решил его не продлевать. После истечения срока аренды такие домены доступны для регистрации любым человеком.
Как заработать на заброшенных доменах?
Есть много способов. Можно использовать его для создания своего сайта и монетизация зависит от тематики. Можно искать такие домены с последующей перепродажей на. Телдери (Реф) ну или Телдери (не реф) Посмотрите скрины нескольких лотов.

45608


----

45609


----

45610





Все наверное видели топик на этом форуме https://zennolab.com/discussion/threads/webarchivemaster-parser-vebarxiva2.45531/ Там товарищ парсит тексты с дропов и зарабатывает на них. Короче дропы доменов – это вещь.

Как искать дропы?
Бывают несколько способов поиска таких доменов. Самый простой метод – идёте на Expired Domains и ищите их там.
Но в этой статье пойдёт речь о поиске дропов по битым ссылкам сайтов конкурентов, с последующим чеком на занятость. То есть мы будем использовать бота, который будет обходить страницы сайтов и парсить с них исходящие ссылки. С этих ссылок будут сграблены домены, для того что бы впоследствии чекнуть их на занятость.
Почему этот метод? Потому что если трастовый сайт на кого-то ссылался, то такая ссылка сама по себе уже много значит. И раз он ссылался, то скорее всего там было что-то интересное и можно будет использовать и нам. Плюс, появляется возможность поиска дропов определённой тематике.
Да я знаю, что не открыл Америку. Существуют программы типа Xenu – или Content Donloaderа, с помощью которых можно выпарсить из сайта внешние ссылки. Но эти программы обрабатывают по одному сайту за раз. Это долго. Это нудно. А мой бот - с изюминкой. Он позволяет сразу же загрузить неограниченное количество сайтов-источников и парсить их все сразу одновременно! Массово, в огромных количествах. Создавая на порядок меньшую нагрузку на компьютер, чем то-же Content Downloader. И используя минимум настроек.

Возможности.
Многопоточность. Да, шаблон её поддерживает. Каков предел? Понятия не имею. У меня очень слабый комп. Это ещё и зависит от того, какие сайты – источники вы будите парсить.
Прокси. Нет, не поддерживает. Я намеренно не добавил их в конкурсный шаблон. Они у всех разные. Но их легко добавить в проект, если они вам понадобятся. Создайте свой список с проксями и берите их оттуда. Там единственный стандартный кубик с GET запросом. Пропишите проксю в нём.
Браузер. Нет, не используется. Только GET запросы. Если понадобится DOM, замените кубик с GET запросом на браузерный.
Защита CloudFlare. Нет, не обходит. Ищите сайты - источники без неё.
Чек на занятость доменов. Нет не чекает. Собирает домены из внешних ссылок как есть.

Алгоритм работы.
Алгоритм простой. Ходим по страницам сайтов. Внутренние ссылки добавляем в очередь для парсинга. Из внешних ссылок извлекаем домены.
Установка.
Скачиваем архив, распаковываем. В шаблоне используется библиотека Html Agility Pack. Это удобный .NET парсер. Его dll находятся в папке Net. Также эти файлы должны быть скопированы в папку %ZennoPosterCurrentPath%\ExternalAssemblies. Иначе «Кина не будет» )) Больше никаких особых требований нет. Никаких баз данных мой шаблон не использует.

Обязательно скопируйте содержимой папки Net в ExternalAssemblies !!!!

И ещё. Парсер не использует баз данных, но информацию о страницах, которые он посетил находится в папке \base\. При работе он постоянно пишет в файлы в этой папке. Поэтому лучше добавить её в исключения антивируса, если он есть на вашем компе. А ещё лучше исключить весь парсер.

Входные настройки.
45611


Думаю тут всё понятно и так. Первое поле служит для ввода тестового укла, второе для поиска заданного домена в результатах парсинга. Радиокнопки Mode – выбор режима работы парсера. А ниже идут настройки парсинга.

Остановлюсь только на трёх галках.

  • В режиме Out удалять повторы в AllDomainsFull
    Что бы снизить нагрузку на проц, парсер в режиме Parsing не удаляет повторы в результатах парсинга. Что бы удалить повторы служит специальный режим Out. А файл AllDomainsFull.txt, кроме доменов пишутся ещё и страница, на которой находится ссылка на этот домен. Поэтому, если парсер работает длительное время, этот файл может «раздуться» до больших размеров. И зенкка не сможет его загрузить в список и удалить из него повторы. Тогда удалите повторы сторонней програмой. Но это бывает очень редко.
  • В режиме Start_New очищать диры \base\ и \Urls\
    В режиме Start_New очищать диру \Out\

    В папке \base\ хранится информация о страницах, которые уже распарсил бот, что бы не заходить на них повторно. А в папке \Urls\ находятся очереди парсига, то есть те страницы источников, на которые ему предстоит зайти. А в папку \Out\ складывает результаты парсинга. И если их очистить, то парсинг начнёнтся сначала. Но бывает моменты, когда нужно просто добавить ещё источники к тем, что крутятся сейчас. Тогда снимаем эти галки, обе, и добавляем ещё источники в in.txt. Потом StartNew и продолжаем Parsing.
Режимы работы бота.

Режим работы 1.Test. (Работа в один поток. Выполнить один раз.)
Для чего нужен режим тест? К сожалению, встроенный в зенку кубик с GET запросом, может зависать на некоторых сайтах. Редко, но такое может быть.

Открываем входные настройки. Выбираем режим работы 1. Test. Вверху видим текстовое поле Test Url. Вбиваем в него тестовый урл и запускаем шаблон. В дире с шаблоном появится файл Test.txt. там вы найдёте подробно, то что напарсил бот.

Режим работы 2.Start New. (Работа в один поток. Выполнить один раз.)


Этот режим нужен, для подготовки бота к парсингу. В нём удаляются результаты предыдущего парсинга и создаются служебные файлы и папки для нового.

Вначале нужно подготовить задание для бота. Оно находится в файле in.txt в папке с шаблоном. Формат задания:

Стартовый УРЛ|Фильтр1|Фильтр2|Фильтр3…
Одна строка – один источник и может содержать любое количество фильтров или фильтров не может быть и вовсе. Фильтры нужны в основном, когда вы будите собирать домены с ресурса у которого миллионы страниц, например habr.com или блумберг. А вам нужно парсить только одну его рубрику. Если в сайте - источнике страниц не много, фильтры не нужны, просто закиньте в in.txt стартовые урл, с которых бот начнёт парсинг. Фильтр это подстрока, которую должны содержать урлы в которые полезет бот. Или наоборот запретить ему парсить определённые урлы. Для этого перед подстрокой должен находится знак ^ Например:

httрs://gazeta.ru
httрs://picabu.ru
В этом задании бот будет парсить эти два сайта одновременно без всяких фильров.


https://www.gazeta.ru| /social/
Будут прасится урлы в которых присутствует подстрока /social/

https://www.gazeta.ru| ^/social/
Будут парсится урлы все, кроме тех, котрые содержат /social/

https://www.gazeta.ru| /social/|^&tag=
Спарсятся урлы в которых присутствует подстрока /social/, но отсутствует подстрока &tag=

В фильтрах реализована логика «И», то есть, для того что бы бот зашёл на определённый урл должны выполнится условия всех фильтров, которые указаны в данном источнике. Если же нужна логика «ИЛИ» тогда добавляем с новой строки ещё источник. Например:

https://www.gazeta.ru| /social/
https://www.gazeta.ru|/business/
В этом задании бот будет парсить две рубрики /social/ и |/business/

Итак, следуя этим простым правилам составляем задание для бота in.txt и запускаем шаблон в один поток.

Режим работы 3. Parsing (Многопоточная. Работа.)
После того как вы составите задание и выполните процедуру StartNew. Переводим бот в Parsing и запускаем шаблон. Тут шаблон работает в многопотоке. Но каждый поток крутится по кругу. Поэтому слишком много попыток добавлять не нужно. Допустим, если парсинг у вас будет вестись в 10 потоков, то добавте попыток 100 – 200. Результаты парсинга будут находится в папке /Out/. Там появятся файлы Temp.txt, в который будут писаться найденные домены и файл AllDomainsFull.txt в котором кроме доменов, будут ещё и урлы страниц на которых они были найдены. А также флаг(D/N) – какая это была ссылка DoFollow или же NoFollow. Внимание. В режиме парсинга бот не удаляет повторы в выходных файлах, дабы снизить нагрузку на машину. Для удаления повторов в шаблоне предусмотрен специальный режим Out.

Режим работы 4. Out. (Работа в один поток. Выполнить один раз.)
Как я уже писал, мой бот не удаляет повторяющиеся домены в режиме Parsing. С повторами они пишутся в файл Temp.txt. После того как вы прогоните в этом режим парсер один раз повтры удалятся и домены запишутся в файл AllDomains.txt и ещё создстся файл New.txt Вот он-то нам и нужен. Каждый раз когда вы будите выполнять эту процедуру, в этот файл будет записываться новая порция доменов.

Режим работы 5.Search. (Работа в один поток. Выполнить один раз.)
Допустим вы выбрали какой-то домен и вы захотели узнать, а на каком источнике и на каких страницах находятся ссылки содержащие этот домен. А также закрыты они Nofollow или нет. Вбиваем во входных настройках в поле Search Domain и запускаем шаблон в этом режиме один раз, один поток. В папке с шаблоном появится файл Search.txt со списком урлов, где встречается этот домен.

Порядок работы шаблоном.


Итак, повторим. Что вы должны делать:

  • Составляем задание для шаблона. Пишем урлы сайтов источников в файл in.txt
  • Запаускаем процедуру Start New. Один раз, один поток.
  • Переводи шаблон в режим Parsing. И он работает, парсит, собирает домены. Многопоточно.
  • Видите, что набралось достаточное количество доменов в файле \Out\Temp.txt. Прерываете выполнение шаблона.

    45626


  • Переводите бот в режим Out. Запускаете. Один раз, один поток.
  • Забираете файл \Out\New.txt. В нём будет находится новая порция доменов. Его нужно именно забрать: вырезать этот файл и перенести в другое место. Иначе шаблон не запустится в этом режиме в следующий раз. Это своеобразная защита от многопотока. Я забывал убрать количество попыток в настройках зенки и следующий поток затирал этот файл прежде, чем я успевал забрать из него домены.
  • Опять переводим шаблон в режим Parsing. То есть переходим к пункту 3. И он парсит себе дальше. А мы в это время чекаем текущую порцию доменов. Файл New.txt. И так по кругу. Парсер насобирал доменов – мы забрали. Он опять парсит, пока он не пройдётся по всем страницам всех сайтов источников.
То есть получается своеобразный конвейер.

Пример работы шаблоном.
Допустим, мы ищем блоги туристов путешественников. Заходим в гугл. Вбиваем запрос. Что бы было побольше дропов, попросим гугл показать нам выдачу, за несколько лет назад. Дропов в этой выдаче конечно же не будет, но на старых сайтах ссылок на просроченые домены там будет намного больше:

45614


Обходим потенциальные источники ручками, проверяем их в режиме Test. Комбинируя запросы так и эдак, а так же дату выдачи, находим сайты источники, с которых будем собирать домены. Насобирайте их несколько десятков, чем больше, тем лучше и закиньте их в in.txt. И соберите парсером домены. С большой долей вероятности на них будут ссылки на отели, курорты, рестораны, где эти блогеры отдыхали. Бывает, что сменился владелец или вообще закрылся бизнес, а сайт остался. И стал дропом. Собственно, вам только и нужно будет найти такие сайты и выставлять их на продажу. И таких тематик очень много. Авто-Мото, Домашние животные. Адалт и т.д. Если же использовать запросы типа «блоги домашних хозяек» - то там уже будет больше информационных сайтов. Такие больше подойдут для сбора текстов из веб архива.

Понимаете, да? Тяжело найти дроп в сервисе expireddomains.net определённой тематики, если в нём явно не присутствует ключевое слово. А вот гугол может искать такие сайты, которые в свою очередь будут ссылаться на нужные нам дропы. Чем и хорош этот метод.

Напарсили доменов. Дальше что?

А дальше нужно чекнуть их на занятость. То, что шаблон не делает это сам, это не баг, а так и было задумано. Зачем занимать этим зенку, если есть программы, которые делают это намного лучше. Я делаю это FoxWhois pro. У неё есть как платная так и бесплатная версия, но в бесплатной версии она работает не со всеми зонами. С ру-шками точно работает. Стоит копейки, но вещь нужная. Это вот по-моему лучшая проограмма для чека доменов. Можно конечно использовать сторонние сервисы, можно писать свои шаблоны, а можно один раз купить такую программу и забыть про весь этот гемор. Интерфейс её выглядит вот так: Там колонок много, я оставил только две.

45617


Скачать можно тут: https://foxwhois.com/ (не реф) или купить по ссылке http://whic.ru/?promo=viktor514 (реф) Дадут скидку 20%.

После чека на занятость, свободные проверяем на пузомерки. Данные можно собирать вот с таких сервисов.

http://xseo.in/
https:/expireddomains.net/
https://ru.megaindex.com/backlinks
https://www.similarweb.com/

Яндекс икс, Алекса и т.д.

Ну не руками же, когда есть зенка. Но парсеры под них пишите уже сами. На форуме такие шаблоны уже выкладывали. Всё уже написано, всё уже готово.
После проделанных манипуляций у вас останется самый цимус. Мне этот процесс напоминает добычу золота на канале Дискавери. Мой парсер – это экскаватор. То что он насобирал – 99% - шлак. А остальные парсеры – это промприбор. Ну а на выходе сами понимаете что… Это не шутки, так действительно можно заработать. Люди так работают. Но тема – далеко не из разряда «сел и поехал». Тут море ручной работы, но в этом её и плюс - не скоро сдохнет.

Если вас это каким-то образом простимулирует, то данный способ заработка является абсолютно белым. Что очень редкое явление для Зенки. В большинстве случаев работа зенкой – это воровство. Вы воруете траффик на сайте источнике, собираете чужой контент или занимаетесь спамом. А нацепить в соц сетях женскую аву и продвигать ссылоки с сайтов знакомств – я вообще не понимаю, как таким может заниматься взрослый человек. Тут, конечно же, ничего такого нет.

Струменты для работы с доменами. В хорошей статье должны быть ссылки.

Восстанавливаем сайт из вебархива. У меня машинка самодельная. Вроде, кто-то продавал такой парсер на форуме, но вот https://r-tools.org/ если что, есть платный. То же хорошо работает. Переделать html файлы в какую-то CMS можно самому или найти работника на кворке, что увеличит стоимость при продаже.

Ру домены лучше регать на reg.ru, у него есть онлайн (безбумажная) передача ru - рф доменов. https://www.reg.ru/?rlink=reflink-1383835 (реф) https://www.reg.ru/ (не реф).

https://ru.tld-list.com/ - прекрасный сервис. Сравнивает цены на домены у разных регистаторов. Всегда можно найти, где по-дешевле.

http://www.bannedcheck.com/ Google Banned Check – сервис для проверки, забанен ли сайт в системе Adsense и поисковой системе в Google.

https://ctrlq.org/sandbox/– показывает рекламные блоки для конкретного сайта и страны. Если ресурс забанен в Adsense, то блоки будут пустые. Также полезно можно сайт в кеше Яндекса и Google.

https://yandex.ru/support/partner2/ - Проверка сайта на бан в РСЯ. В отличие от партнерской программы Google Adsense, которая позволяет зарабатывать любому сайту, если он не нарушает правила, в РСЯ каждый сайт проходит модерацию. Требования к качеству сайтов достаточно высокие и попасть туда не так-то просто.

https://eais.rkn.gov.ru/ реестр РКН.

https://www.telderi.ru/ru/check - Проверка сайтов на санкции в GoGetLinks и Miralinks.

https://www.linkpad.ru/ – сервис пригодится для изучения внешних и внутренних ссылок, анкоров, доноров.

https://archive.org/web/ - Вебархив. Вдруг кто-нибудь его не знает.

https://www.telderi.ru/img/book/Buy-websites.pdf - Мануал по покупкам сайтов на теледери . Там про покупку сайтов, но пригодится и продажникам.

Ну и ещё несколько ссылок. Может найдётся, кто-нибудь, кто про них не слышал. – это сервисы монетизации сайтов. Денег с дропов вы на них больших не заработаете. Но потенциальный покупатель увидит, что ваш дроп там не забанен, доход у него есть и цена, соответственно будет совсем другая. Как с ними работать есть куча видосов на ютубе.

https://gogetlinks.net/
https://www.miralinks.ru/
https://www.sape.ru/en


На этом всё. Копайте. Удачной охоты. Немного длинно получилось. Но ведь этож конкурс статей, шаблон тут не главное.
 
Тема статьи
Способы заработка
Номер конкурса статей
Двенадцатый конкурс статей

Вложения

Для запуска проектов требуется программа ZennoPoster или ZennoDroid.
Это основное приложение, предназначенное для выполнения автоматизированных шаблонов действий (ботов).
Подробнее...

Для того чтобы запустить шаблон, откройте нужную программу. Нажмите кнопку «Добавить», и выберите файл проекта, который хотите запустить.
Подробнее о том, где и как выполняется проект.

DenisK

Client
Регистрация
28.06.2016
Сообщения
591
Благодарностей
288
Баллы
63

melutsk

Client
Регистрация
03.08.2016
Сообщения
1 345
Благодарностей
1 256
Баллы
113
Вот это годнота, спасибо.
 

backoff

Client
Регистрация
20.04.2015
Сообщения
5 914
Благодарностей
6 381
Баллы
113
ТС ну надо бы похвастаться какие пузомерки были найдены с помощью шаблона, и удалось ли продать или использовать под себя? просто интересно

ps \ кстати кому интересно на форуме есть обход клауда на гетах, и чек сайтов на ответ по НС серверам, ищите, можно вставить в шаб будет ваще круть
 
  • Спасибо
Реакции: 2352DA, Sanekk и melutsk

melutsk

Client
Регистрация
03.08.2016
Сообщения
1 345
Благодарностей
1 256
Баллы
113
  • Спасибо
Реакции: daVinchi

backoff

Client
Регистрация
20.04.2015
Сообщения
5 914
Благодарностей
6 381
Баллы
113
а смысл, если надо хуиз дергать всеравно.
смысл в скорости, то есть скажем чек нс серверов занимает 0.1сек, а чек хуизов как минимум 3-5 сек

а теперь простая математика :-)
берем 1-10кк доменов, прочекать все на хуизы - бред! А прочекать сайты на ТЕ которые не отвечают, а значит == свободны, и вот уже ИХ чекать на пузомерки....
тут даже хуизы чекать не надо :-)

логика проста: Если домен по НС серверам отвечает == занят, если нет == свободен

45642
 

Zedx

Client
Регистрация
12.06.2018
Сообщения
1 165
Благодарностей
811
Баллы
113
Интересная статья, спасибо.
Такой вопрос - есть программа Screaming Frog, она случайно не аналог FoxWhois? Видел в ней какой-то чекер доменов, но толком не разбирался, на что именно чекает. А то может как раз на занятость?
 
Регистрация
23.03.2015
Сообщения
1 113
Благодарностей
649
Баллы
113
А как сегодня домены продают? Нужно регистрировать каждый на новый аккаунт?
 

Sanekk

Client
Регистрация
24.06.2016
Сообщения
987
Благодарностей
388
Баллы
63
прикололо сравнение с золотодобычей по дискавери))) тоже иногда смотрю, когда от компа отдохнуть надо, статья зачет спасибо
 
Регистрация
23.03.2015
Сообщения
1 113
Благодарностей
649
Баллы
113
FoxWhois - хорошая программа! Правда, пи..дит иногда.
 
  • Спасибо
Реакции: seoshnek

backoff

Client
Регистрация
20.04.2015
Сообщения
5 914
Благодарностей
6 381
Баллы
113
Не понимаю, зачем вам какие-то левые программы, с возможными вирусниками внутри, когда есть зенка, на которой все эти чеки и проверки можно реализовать
 

mjeday

Client
Регистрация
22.09.2014
Сообщения
20
Благодарностей
2
Баллы
3
Тема супер. Только вопрос - а что мешает в ахрефсе и иже с ним просто вбить домен и сразу получить список исходящих ссылок?
 

melutsk

Client
Регистрация
03.08.2016
Сообщения
1 345
Благодарностей
1 256
Баллы
113

mjeday

Client
Регистрация
22.09.2014
Сообщения
20
Благодарностей
2
Баллы
3
Это да, но на складе, к примеру, скидываются на него постоянно.

Больше интересует как быстрее домены проверять на занятость. Что-то whic очень долго работает и только основные зоны поддерживает. Никто не нашел способ?
 

seoBB

Client
Регистрация
07.09.2010
Сообщения
130
Благодарностей
20
Баллы
18
Не понимаю, зачем вам какие-то левые программы, с возможными вирусниками внутри, когда есть зенка, на которой все эти чеки и проверки можно реализовать
Если вы не понимаете - то лучше всего промолчать, потому что называя лучшую в своей нише, старую и известную любому специалисту по дропам, программу "левой, с возможными вирусниками" - вы лишь демонстрируете своё невежество, ничего более.
 
  • Спасибо
Реакции: Duser
Регистрация
04.09.2014
Сообщения
444
Благодарностей
624
Баллы
93
Бесплатный хинт вам. Возьмите базу ГГЛ и соберите исходящие. Просто смотрел недавно на своих сайтах старые ссылки - ну процентов 20 ведут уже вникуда.
 

backoff

Client
Регистрация
20.04.2015
Сообщения
5 914
Благодарностей
6 381
Баллы
113

Alyona

Client
Регистрация
27.01.2019
Сообщения
14
Благодарностей
1
Баллы
3
Думаю сейчас уже никому не надо объяснять, что такое дроп. Истекший домен (или дроп-домен) — домен, которым уже пользовались, но владелец решил его не продлевать. После истечения срока аренды такие домены доступны для регистрации любым человеком.
Как заработать на заброшенных доменах?
Есть много способов. Можно использовать его для создания своего сайта и монетизация зависит от тематики. Можно искать такие домены с последующей перепродажей на. Телдери (Реф) ну или Телдери (не реф) Посмотрите скрины нескольких лотов.

Посмотреть вложение 45608

----

Посмотреть вложение 45609

----

Посмотреть вложение 45610




Все наверное видели топик на этом форуме https://zennolab.com/discussion/threads/webarchivemaster-parser-vebarxiva2.45531/ Там товарищ парсит тексты с дропов и зарабатывает на них. Короче дропы доменов – это вещь.

Как искать дропы?
Бывают несколько способов поиска таких доменов. Самый простой метод – идёте на Expired Domains и ищите их там.
Но в этой статье пойдёт речь о поиске дропов по битым ссылкам сайтов конкурентов, с последующим чеком на занятость. То есть мы будем использовать бота, который будет обходить страницы сайтов и парсить с них исходящие ссылки. С этих ссылок будут сграблены домены, для того что бы впоследствии чекнуть их на занятость.
Почему этот метод? Потому что если трастовый сайт на кого-то ссылался, то такая ссылка сама по себе уже много значит. И раз он ссылался, то скорее всего там было что-то интересное и можно будет использовать и нам. Плюс, появляется возможность поиска дропов определённой тематике.
Да я знаю, что не открыл Америку. Существуют программы типа Xenu – или Content Donloaderа, с помощью которых можно выпарсить из сайта внешние ссылки. Но эти программы обрабатывают по одному сайту за раз. Это долго. Это нудно. А мой бот - с изюминкой. Он позволяет сразу же загрузить неограниченное количество сайтов-источников и парсить их все сразу одновременно! Массово, в огромных количествах. Создавая на порядок меньшую нагрузку на компьютер, чем то-же Content Downloader. И используя минимум настроек.

Возможности.
Многопоточность. Да, шаблон её поддерживает. Каков предел? Понятия не имею. У меня очень слабый комп. Это ещё и зависит от того, какие сайты – источники вы будите парсить.
Прокси. Нет, не поддерживает. Я намеренно не добавил их в конкурсный шаблон. Они у всех разные. Но их легко добавить в проект, если они вам понадобятся. Создайте свой список с проксями и берите их оттуда. Там единственный стандартный кубик с GET запросом. Пропишите проксю в нём.
Браузер. Нет, не используется. Только GET запросы. Если понадобится DOM, замените кубик с GET запросом на браузерный.
Защита CloudFlare. Нет, не обходит. Ищите сайты - источники без неё.
Чек на занятость доменов. Нет не чекает. Собирает домены из внешних ссылок как есть.

Алгоритм работы.
Алгоритм простой. Ходим по страницам сайтов. Внутренние ссылки добавляем в очередь для парсинга. Из внешних ссылок извлекаем домены.
Установка.
Скачиваем архив, распаковываем. В шаблоне используется библиотека Html Agility Pack. Это удобный .NET парсер. Его dll находятся в папке Net. Также эти файлы должны быть скопированы в папку %ZennoPosterCurrentPath%\ExternalAssemblies. Иначе «Кина не будет» )) Больше никаких особых требований нет. Никаких баз данных мой шаблон не использует.

Обязательно скопируйте содержимой папки Net в ExternalAssemblies !!!!

И ещё. Парсер не использует баз данных, но информацию о страницах, которые он посетил находится в папке \base\. При работе он постоянно пишет в файлы в этой папке. Поэтому лучше добавить её в исключения антивируса, если он есть на вашем компе. А ещё лучше исключить весь парсер.

Входные настройки.
Посмотреть вложение 45611

Думаю тут всё понятно и так. Первое поле служит для ввода тестового укла, второе для поиска заданного домена в результатах парсинга. Радиокнопки Mode – выбор режима работы парсера. А ниже идут настройки парсинга.

Остановлюсь только на трёх галках.

  • В режиме Out удалять повторы в AllDomainsFull
    Что бы снизить нагрузку на проц, парсер в режиме Parsing не удаляет повторы в результатах парсинга. Что бы удалить повторы служит специальный режим Out. А файл AllDomainsFull.txt, кроме доменов пишутся ещё и страница, на которой находится ссылка на этот домен. Поэтому, если парсер работает длительное время, этот файл может «раздуться» до больших размеров. И зенкка не сможет его загрузить в список и удалить из него повторы. Тогда удалите повторы сторонней програмой. Но это бывает очень редко.
  • В режиме Start_New очищать диры \base\ и \Urls\
    В режиме Start_New очищать диру \Out\

    В папке \base\ хранится информация о страницах, которые уже распарсил бот, что бы не заходить на них повторно. А в папке \Urls\ находятся очереди парсига, то есть те страницы источников, на которые ему предстоит зайти. А в папку \Out\ складывает результаты парсинга. И если их очистить, то парсинг начнёнтся сначала. Но бывает моменты, когда нужно просто добавить ещё источники к тем, что крутятся сейчас. Тогда снимаем эти галки, обе, и добавляем ещё источники в in.txt. Потом StartNew и продолжаем Parsing.
Режимы работы бота.

Режим работы 1.Test. (Работа в один поток. Выполнить один раз.)
Для чего нужен режим тест? К сожалению, встроенный в зенку кубик с GET запросом, может зависать на некоторых сайтах. Редко, но такое может быть.

Открываем входные настройки. Выбираем режим работы 1. Test. Вверху видим текстовое поле Test Url. Вбиваем в него тестовый урл и запускаем шаблон. В дире с шаблоном появится файл Test.txt. там вы найдёте подробно, то что напарсил бот.

Режим работы 2.Start New. (Работа в один поток. Выполнить один раз.)


Этот режим нужен, для подготовки бота к парсингу. В нём удаляются результаты предыдущего парсинга и создаются служебные файлы и папки для нового.

Вначале нужно подготовить задание для бота. Оно находится в файле in.txt в папке с шаблоном. Формат задания:



Одна строка – один источник и может содержать любое количество фильтров или фильтров не может быть и вовсе. Фильтры нужны в основном, когда вы будите собирать домены с ресурса у которого миллионы страниц, например habr.com или блумберг. А вам нужно парсить только одну его рубрику. Если в сайте - источнике страниц не много, фильтры не нужны, просто закиньте в in.txt стартовые урл, с которых бот начнёт парсинг. Фильтр это подстрока, которую должны содержать урлы в которые полезет бот. Или наоборот запретить ему парсить определённые урлы. Для этого перед подстрокой должен находится знак ^ Например:


В этом задании бот будет парсить эти два сайта одновременно без всяких фильров.



Будут прасится урлы в которых присутствует подстрока /social/


Будут парсится урлы все, кроме тех, котрые содержат /social/


Спарсятся урлы в которых присутствует подстрока /social/, но отсутствует подстрока &tag=

В фильтрах реализована логика «И», то есть, для того что бы бот зашёл на определённый урл должны выполнится условия всех фильтров, которые указаны в данном источнике. Если же нужна логика «ИЛИ» тогда добавляем с новой строки ещё источник. Например:


В этом задании бот будет парсить две рубрики /social/ и |/business/

Итак, следуя этим простым правилам составляем задание для бота in.txt и запускаем шаблон в один поток.

Режим работы 3. Parsing (Многопоточная. Работа.)
После того как вы составите задание и выполните процедуру StartNew. Переводим бот в Parsing и запускаем шаблон. Тут шаблон работает в многопотоке. Но каждый поток крутится по кругу. Поэтому слишком много попыток добавлять не нужно. Допустим, если парсинг у вас будет вестись в 10 потоков, то добавте попыток 100 – 200. Результаты парсинга будут находится в папке /Out/. Там появятся файлы Temp.txt, в который будут писаться найденные домены и файл AllDomainsFull.txt в котором кроме доменов, будут ещё и урлы страниц на которых они были найдены. А также флаг(D/N) – какая это была ссылка DoFollow или же NoFollow. Внимание. В режиме парсинга бот не удаляет повторы в выходных файлах, дабы снизить нагрузку на машину. Для удаления повторов в шаблоне предусмотрен специальный режим Out.

Режим работы 4. Out. (Работа в один поток. Выполнить один раз.)
Как я уже писал, мой бот не удаляет повторяющиеся домены в режиме Parsing. С повторами они пишутся в файл Temp.txt. После того как вы прогоните в этом режим парсер один раз повтры удалятся и домены запишутся в файл AllDomains.txt и ещё создстся файл New.txt Вот он-то нам и нужен. Каждый раз когда вы будите выполнять эту процедуру, в этот файл будет записываться новая порция доменов.

Режим работы 5.Search. (Работа в один поток. Выполнить один раз.)
Допустим вы выбрали какой-то домен и вы захотели узнать, а на каком источнике и на каких страницах находятся ссылки содержащие этот домен. А также закрыты они Nofollow или нет. Вбиваем во входных настройках в поле Search Domain и запускаем шаблон в этом режиме один раз, один поток. В папке с шаблоном появится файл Search.txt со списком урлов, где встречается этот домен.

Порядок работы шаблоном.


Итак, повторим. Что вы должны делать:

  • Составляем задание для шаблона. Пишем урлы сайтов источников в файл in.txt
  • Запаускаем процедуру Start New. Один раз, один поток.
  • Переводи шаблон в режим Parsing. И он работает, парсит, собирает домены. Многопоточно.
  • Видите, что набралось достаточное количество доменов в файле \Out\Temp.txt. Прерываете выполнение шаблона.

    Посмотреть вложение 45626

  • Переводите бот в режим Out. Запускаете. Один раз, один поток.
  • Забираете файл \Out\New.txt. В нём будет находится новая порция доменов. Его нужно именно забрать: вырезать этот файл и перенести в другое место. Иначе шаблон не запустится в этом режиме в следующий раз. Это своеобразная защита от многопотока. Я забывал убрать количество попыток в настройках зенки и следующий поток затирал этот файл прежде, чем я успевал забрать из него домены.
  • Опять переводим шаблон в режим Parsing. То есть переходим к пункту 3. И он парсит себе дальше. А мы в это время чекаем текущую порцию доменов. Файл New.txt. И так по кругу. Парсер насобирал доменов – мы забрали. Он опять парсит, пока он не пройдётся по всем страницам всех сайтов источников.
То есть получается своеобразный конвейер.

Пример работы шаблоном.
Допустим, мы ищем блоги туристов путешественников. Заходим в гугл. Вбиваем запрос. Что бы было побольше дропов, попросим гугл показать нам выдачу, за несколько лет назад. Дропов в этой выдаче конечно же не будет, но на старых сайтах ссылок на просроченые домены там будет намного больше:

Посмотреть вложение 45614

Обходим потенциальные источники ручками, проверяем их в режиме Test. Комбинируя запросы так и эдак, а так же дату выдачи, находим сайты источники, с которых будем собирать домены. Насобирайте их несколько десятков, чем больше, тем лучше и закиньте их в in.txt. И соберите парсером домены. С большой долей вероятности на них будут ссылки на отели, курорты, рестораны, где эти блогеры отдыхали. Бывает, что сменился владелец или вообще закрылся бизнес, а сайт остался. И стал дропом. Собственно, вам только и нужно будет найти такие сайты и выставлять их на продажу. И таких тематик очень много. Авто-Мото, Домашние животные. Адалт и т.д. Если же использовать запросы типа «блоги домашних хозяек» - то там уже будет больше информационных сайтов. Такие больше подойдут для сбора текстов из веб архива.

Понимаете, да? Тяжело найти дроп в сервисе expireddomains.net определённой тематики, если в нём явно не присутствует ключевое слово. А вот гугол может искать такие сайты, которые в свою очередь будут ссылаться на нужные нам дропы. Чем и хорош этот метод.

Напарсили доменов. Дальше что?

А дальше нужно чекнуть их на занятость. То, что шаблон не делает это сам, это не баг, а так и было задумано. Зачем занимать этим зенку, если есть программы, которые делают это намного лучше. Я делаю это FoxWhois pro. У неё есть как платная так и бесплатная версия, но в бесплатной версии она работает не со всеми зонами. С ру-шками точно работает. Стоит копейки, но вещь нужная. Это вот по-моему лучшая проограмма для чека доменов. Можно конечно использовать сторонние сервисы, можно писать свои шаблоны, а можно один раз купить такую программу и забыть про весь этот гемор. Интерфейс её выглядит вот так: Там колонок много, я оставил только две.

Посмотреть вложение 45617

Скачать можно тут: https://foxwhois.com/ (не реф) или купить по ссылке http://whic.ru/?promo=viktor514 (реф) Дадут скидку 20%.

После чека на занятость, свободные проверяем на пузомерки. Данные можно собирать вот с таких сервисов.

http://xseo.in/
https:/expireddomains.net/
https://ru.megaindex.com/backlinks
https://www.similarweb.com/

Яндекс икс, Алекса и т.д.

Ну не руками же, когда есть зенка. Но парсеры под них пишите уже сами. На форуме такие шаблоны уже выкладывали. Всё уже написано, всё уже готово.
После проделанных манипуляций у вас останется самый цимус. Мне этот процесс напоминает добычу золота на канале Дискавери. Мой парсер – это экскаватор. То что он насобирал – 99% - шлак. А остальные парсеры – это промприбор. Ну а на выходе сами понимаете что… Это не шутки, так действительно можно заработать. Люди так работают. Но тема – далеко не из разряда «сел и поехал». Тут море ручной работы, но в этом её и плюс - не скоро сдохнет.

Если вас это каким-то образом простимулирует, то данный способ заработка является абсолютно белым. Что очень редкое явление для Зенки. В большинстве случаев работа зенкой – это воровство. Вы воруете траффик на сайте источнике, собираете чужой контент или занимаетесь спамом. А нацепить в соц сетях женскую аву и продвигать ссылоки с сайтов знакомств – я вообще не понимаю, как таким может заниматься взрослый человек. Тут, конечно же, ничего такого нет.

Струменты для работы с доменами. В хорошей статье должны быть ссылки.

Восстанавливаем сайт из вебархива. У меня машинка самодельная. Вроде, кто-то продавал такой парсер на форуме, но вот https://r-tools.org/ если что, есть платный. То же хорошо работает. Переделать html файлы в какую-то CMS можно самому или найти работника на кворке, что увеличит стоимость при продаже.

Ру домены лучше регать на reg.ru, у него есть онлайн (безбумажная) передача ru - рф доменов. https://www.reg.ru/?rlink=reflink-1383835 (реф) https://www.reg.ru/ (не реф).

https://ru.tld-list.com/ - прекрасный сервис. Сравнивает цены на домены у разных регистаторов. Всегда можно найти, где по-дешевле.

http://www.bannedcheck.com/ Google Banned Check – сервис для проверки, забанен ли сайт в системе Adsense и поисковой системе в Google.

https://ctrlq.org/sandbox/– показывает рекламные блоки для конкретного сайта и страны. Если ресурс забанен в Adsense, то блоки будут пустые. Также полезно можно сайт в кеше Яндекса и Google.

https://yandex.ru/support/partner2/ - Проверка сайта на бан в РСЯ. В отличие от партнерской программы Google Adsense, которая позволяет зарабатывать любому сайту, если он не нарушает правила, в РСЯ каждый сайт проходит модерацию. Требования к качеству сайтов достаточно высокие и попасть туда не так-то просто.

https://eais.rkn.gov.ru/ реестр РКН.

https://www.telderi.ru/ru/check - Проверка сайтов на санкции в GoGetLinks и Miralinks.

https://www.linkpad.ru/ – сервис пригодится для изучения внешних и внутренних ссылок, анкоров, доноров.

https://archive.org/web/ - Вебархив. Вдруг кто-нибудь его не знает.

https://www.telderi.ru/img/book/Buy-websites.pdf - Мануал по покупкам сайтов на теледери . Там про покупку сайтов, но пригодится и продажникам.

Ну и ещё несколько ссылок. Может найдётся, кто-нибудь, кто про них не слышал. – это сервисы монетизации сайтов. Денег с дропов вы на них больших не заработаете. Но потенциальный покупатель увидит, что ваш дроп там не забанен, доход у него есть и цена, соответственно будет совсем другая. Как с ними работать есть куча видосов на ютубе.

https://gogetlinks.net/
https://www.miralinks.ru/
https://www.sape.ru/en


На этом всё. Копайте. Удачной охоты. Немного длинно получилось. Но ведь этож конкурс статей, шаблон тут не главное.
А прошлый хозяин домена может объявится? Или это как с номером телефона, если долго не оплачиваешь, его продают другому, на что имеют право.
 

Zedx

Client
Регистрация
12.06.2018
Сообщения
1 165
Благодарностей
811
Баллы
113
А прошлый хозяин домена может объявится? Или это как с номером телефона, если долго не оплачиваешь, его продают другому, на что имеют право.
Он же не заплатил за продление домена, значит никаких прав уже на него не имеет
 

Valandersi

Client
Регистрация
19.01.2015
Сообщения
1 868
Благодарностей
1 114
Баллы
113
Зарегав некоторые домены которые освободились, можно в дальнейшем сильно пожалеть) Смотрите что регаете
 

Zedx

Client
Регистрация
12.06.2018
Сообщения
1 165
Благодарностей
811
Баллы
113

Valandersi

Client
Регистрация
19.01.2015
Сообщения
1 868
Благодарностей
1 114
Баллы
113
  • Спасибо
Реакции: kolbassay

Zedx

Client
Регистрация
12.06.2018
Сообщения
1 165
Благодарностей
811
Баллы
113

Valandersi

Client
Регистрация
19.01.2015
Сообщения
1 868
Благодарностей
1 114
Баллы
113
Так домен свободен для регистрации, любой может его зарегистрировать, это не противозаконно.
Просто о нем кто-то возможно забыл и может вспомнить когда на нем появится какой нибудь интересный туб. Ну а дальше сами додумаете
 

Zedx

Client
Регистрация
12.06.2018
Сообщения
1 165
Благодарностей
811
Баллы
113
Просто о нем кто-то возможно забыл и может вспомнить когда на нем появится какой нибудь интересный туб. Ну а дальше сами додумаете
Ну пускай подаёт в суд например,сомневаюсь что выиграет. Домен свободен, кто угодно имеет полное право его зарегистрировать и использовать как захочет.
 

Duser

Client
Регистрация
11.08.2013
Сообщения
286
Благодарностей
192
Баллы
43
Ну пускай подаёт в суд например,сомневаюсь что выиграет. Домен свободен, кто угодно имеет полное право его зарегистрировать и использовать как захочет.
Если в названии домена присутствует торговая марка - домен отберут. Сначала начнут писать регистратору, хостеру. грозить штрафами. И кто-нибудь его заблочит, или хостер снесёт или регистратор сделает нерабочим. Иногда пишут, что бы удалили что-то с восстановленого сайта. Телефон чей-нибудь и т.д. Сайты образовательных учреждений и мед клиник тоже лучше обходить стороной.

CloudFlare от абузы, кстати тоже не спасёт. Сначала напишут туда. Он без "б" сообщит реальный ip сайта. Потом абуза придёт и хостеру тоже.
 
Последнее редактирование:
  • Спасибо
Реакции: Zedx и seoshnek
Регистрация
23.03.2015
Сообщения
1 113
Благодарностей
649
Баллы
113
Бесплатный хинт вам. Возьмите базу ГГЛ и соберите исходящие. Просто смотрел недавно на своих сайтах старые ссылки - ну процентов 20 ведут уже вникуда.
Я думал я один такой умный
 

mjeday

Client
Регистрация
22.09.2014
Сообщения
20
Благодарностей
2
Баллы
3
По поводу жалоб - удаляешь главную страницу, пока все не уляжется, и все. Сайт внешне не работает, все довольны. Через пару недель возвращаешь обратно. Индекс особо не страдает, внутряки то на месте.

Но это так - чтоб мозги не делали. По факту, если не ТМ, можно слать в лес, то есть в суд. На ТМ можно предварительно пробить по базе и посмотреть по вебархиву что за сайт висел.

А так вообще тема больше для буржа, в ру не особо ссылки любят ставить внешние.
 

Duser

Client
Регистрация
11.08.2013
Сообщения
286
Благодарностей
192
Баллы
43
Но это так - чтоб мозги не делали. По факту, если не ТМ, можно слать в лес, то есть в суд.
Не работает оно так. Во-первых, это редко бывает, чтобы нарваться на то чтобы у вас отобрали домен. С российскими регистраторами у меня вообще не разу не было такого. Жалобы да, приходили и каждый раз раз мне давали время на "урегулирования вопроса". Люди все совершенно адекватные и жаловались по делу. Я просто удалял с сайта всё что они просили.

У буржуев там да, отбирали и не однократно. Но там другая система, сначала они блочат, а потом ты доказываешь, что не осёл. Ну, то есть ваш домен перестаёт работать. Заходите себе в аккаунт и видите, что его статус сменился с Active на Suspended. Пишешь в саппорт: Какого хера? А оттуда приходит текст абузы и номера пунктов в термсах, которые вы нарушили. И в лучшем случае удастся получить манибэк. А обычно вариант не домена ни денег. Судиться с кем, с гоудедди? Ну валяйте. Сами абузы пишут профессиональные юристы. Законы они знают. Смысла нет бодаться.

Но опять, же повторяюсь, такая фигня случается редко.
 
  • Спасибо
Реакции: eee

Чешир

Client
Регистрация
27.06.2014
Сообщения
1 509
Благодарностей
886
Баллы
113
Изящное решение
 
  • Спасибо
Реакции: Lillit и Duser

Кто просматривает тему: (Всего: 1, Пользователи: 0, Гости: 1)