Archivarix.com - Онлайн парсер ВебАрхива, восстановление контента из web.archive.org

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
https://ru.archivarix.com/ это сервис позволяющий восстанавливать контент из Веб Архива ( web.archive.org ).
- Скачивание контента и обработка происходит на нашем сервере, вы не тратите время и траффик, а только получаете готовый архив с сайтом.
- Восстановленные файлы с текстом (html, css, js) находятся в отдельной папке, чтобы было удобнее делать поиск и замену. Перелинковка сайта воссоздается с помошью mod_rewrite в .htaccess
- Вы получаете готовый работоспособный сайт не содержаший 404 страниц, битых картинок, внешних ссылок, не работающих скриптов и прочего мусора. Все битые файлы заменяются заглушками которые вы можете редактировать, а баннеры, счетчики и прочие внешние скрипты удаляются используя базу данных AdBlock.
- А главное, наш сервис оптимизирует восстанавливаемый сайт в соответствии с рекомендациями Google Developers. Пережимаются файлы изображений и выкидывается из них все EXIF, удаляются из html комментарии, оптимизируются css и js и еще много чего другого. Так что восстановленный сайт может оказаться с точки зрения google лучше изначального.

200 файлов можно восстановить бесплатно, эта цена не зависит от количества восстанавливаемых сайтов - вы можете скачать сколько угодно архивов содержащих менее 200 файлов по цене $0. Если вы захотите скачать сайт большего размера то цена будет $5 за каждые 1000 файлов.
Пожалуйста, после восстановления сайта у нас оставьте отзыв тут, на форуме, или напишите в ответе на е-мейл который приходит на почту вместе с архивом восстановленного сайта. Мы будем рады любым замечаниям а особенно рекомендациям как лучше и удобнее для вебмастера сделать наш сервис.
 

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
Для восстановления сайта из Веб Архива можно попробовать вот этот сервис - https://ru.archivarix.com/ Вся внутренняя структура сайта сохраняется, убираются битые ссылки, негрузящиеся картинки, не работающие скрипты. Сайт выкачивается полностью работоспособный.
 

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
Мы сделали короткие видео с объяснением как работает система на русском -
и на английском языке -
 
  • Спасибо
Реакции: teodocomo и zortexx

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
Мы сделали новый лоадер контента, теперь восстановленный сайт может совместно рабоать с любой CMS - например Wordpress, Joomla и так далее. Лоадер использует PHP + SQLite но так же мы оставили возможность использовать старую версию которая работает без php используя только .htaccess. Вообще в лоадер можно интегрировать любой свой скрипт такой как система распределения трафика или ссылки sape. Так же сделана возможность посмотреть состав архива сайта перед восстановлением, сколько и каких файлов там содержится. Сколько картинок, текста, скриптов и так далее.
Все так же цена за восстановление 200 файлов равна нулю. Далее восстановление тысячи файлов стоит $5, а затем каждаю последующая тысяча файлов стоит всего $0.5.
Подробнее инструкции тут - https://ru.archivarix.com/tutorial

А тут короткрое видео с инструкцией как все работает -
 
  • Спасибо
Реакции: teodocomo

intourist

Client
Регистрация
30.08.2010
Сообщения
36
Благодарностей
8
Баллы
8
кто-нибудь пользовался сервисом?
 

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
кто-нибудь пользовался сервисом?
Ну пользовались много кто, у нас уже зарегестрировано тысячи пользователей. Но вот ни кто не пишет на форумах, скорее всего потому что у нас пока нет партнерской программы и рефок. Наверное как будет так начнуть писать, без рефки отзывы теперь ни кто делать не желает :-)
 

vinznsk

Client
Регистрация
16.09.2014
Сообщения
96
Благодарностей
19
Баллы
8
Пользуюсь данным сервисом. Продвигаю на бурж с помощью создания сетки PBN. Цена несколько выше, чем у конкурентов, но это почему-то единственный сервис (из 4х испробованных), который выгрузил мне несколько сайтов без повреждений в удобном формате с https. Техподдержка оперативно помогла решить все возникшие сложности с настройкой сервера. Рекомендую.
 
  • Спасибо
Реакции: archivarix и intourist

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
Наша система восстановления сайтов из Веб Архива стала еще лучше, мы научились обходить при скачивании сайтов инструкции robots.txt. Известно что archive.org учитывает параметр Disallow: но он не удаляет этот контент а просто "скрывает" доступ, открыть его можно разрешив индексацию спайдеру архива в файле robots.txt купив домен и загрузив туда этот файл.
Мы разработали алгоритм игнорирующий "скрытость" архивных файлов и позволяющий восстанавливать даже сайты на которых в robots.txt было прописано закрытие от индексации. То есть теперь можно скачать контент с любого имеющегося в archive.org сайта, даже если владельцами его был закрыт вход для ботов параметром Disallow: На сколько я знаю таких возможностей пока не предоставляет ни одна другая программа или сервис по восстановлению из Веб архива.
 

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
Мы выпустили новую версию нашего сервиса. Кроме всего что было раньше - восстановление полностью работоспособного сайта без 404 страниц, баннеров, внешних ссылок, неработающих скриптов и негрузящихся картинок мы сделали работу с восстановленным контентом гораздо удобнее.
Теперь у нас есть своя CMS - https://ru.archivarix.com/cms/ которая идет с каждым восстановленным сайтом. В ней вы можете редактировать код в простом текстовом или WYSIWYG редакторе, вставлять или удалять страницы, проводить поиск и замену в коде по регулярным выражениям и многое другое. Наша CMS может работать совместно с дургой, например с Wordpress или Drupal. Теперь ваши восстановленные сайты стало гораздо легче редактировать и использовать для создания TDS дополняя или убирая контент, вставляя на них собственные скрипты и рекламу.
 

gamblingocean

Новичок
Регистрация
16.05.2019
Сообщения
1
Благодарностей
1
Баллы
1
Пользуюсь archivarix уже в течении месяцев 3-ех. В основном использую его для восстановления сайтов из Вебархива для PBN сетки. Возможно существуют еще какие-нибудь аналоги сервиса, но сейчас и не хочу знать об этом, т.к данный сервис устраивает меня на 100%. Хочется отметить более высокое кол-во восстановленных файлов по сравнению wayback machine downloader, и ОЧЕНЬ отзывчивую тех.поддержку.
 
  • Спасибо
Реакции: archivarix

johntroy

Новичок
Регистрация
07.06.2019
Сообщения
1
Благодарностей
1
Баллы
3
Хочу поблагодарить создателя archivarix за отличный сервис и внимательность к пользователям. Даже не смотря на мою нестандартную ситуацию, ко мне отнеслись с пониманием и терпением. Огромное спасибо. Сервис рекомендую!
 
  • Спасибо
Реакции: archivarix

dimanid8

Новичок
Регистрация
03.02.2018
Сообщения
1
Благодарностей
1
Баллы
3
Полезный сервис. Изначально заказывал скачивание на фрилансе за деньги, но потом мне посоветовали данный сервис Archivarix. Попробовал скачать несколько сайтов, и залить их на хостинг, но из-за недостаточного опыта не получилось сделать все как положено и я обратился в саппот сервиса, там мне очень грамотно все объяснили и показали как сделать. По итогу скаченные сайты работают и индексируються системами. Спасибо. Ну и цены вполне приемлемые если ваш сайт больше 200 страниц на фрилансе за это берут больше, а до двухсот вообще бесплатно!
 
  • Спасибо
Реакции: archivarix

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
Недавно мы обновили нашу систему и теперь у нас появились две новых опции.
Теперь с помощью системы скачивания существующих сайтов можно скачать даркнетовские .onion сайты. Просто введите адрес .onion сайта в поле "домен" https://ru.archivarix.com/website-downloader-cms-converter/ и сайт будет качаться из сети Tor так же как и обычный.
А ещё Archivarix может не только скачивать существующие сайты или восстанавливать их из Веб Архива, но и вытаскивать из них контент. Для этого тут https://ru.archivarix.com/restore/ в "продвинутых параметрах" надо выбрать "Извлечь структурированный контен".
После завершения скачивания сайта вместе с полным архивом всего сайта формируется архив статей в формате xml, csv, wxr и json.
При формировании архива статей наш парсер учитывает только значащий контент исключая дубли статей, управляющие элементы и служебные страницы.
 

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
Мы запустили модуль экстракции контента из сайтов находящихся в данных момент онлай, а так же из удаленных сайтов архивированных archive.org. Экстрактор контента Если при запуске восстановления сайта отметить "Извлечь структурированный контент" во вкладке "Продвинутые параметры", то после завершения скачивания вместе с полным архивом всего сайта формируется архивы статей со ссылками на медиаконтент в формате xml, cvs, wxr и json. При формировании архива статей наш парсер учитывает только значащий контент исключая дубли статей, управляющие элементы и служебные страницы, оставляя только готовые к импорту на ваш сайт статьи с сохранённым форматированием.
Для работы с экстрактором контента мы выпустили свой плагин для Wordpress - Archivarix External Images Importer Archivarix External Images Importer – WordPress plugin | WordPress.org . Он импортирует изображения со сторонних сайтов, ссылки на которые находятся в постах и страницах, в галерею WordPress. Если картинка в данный момент не доступна или удалена, то плагин скачивает её копию из Веб Архива.
Так же теперь у нас есть блог - Блог Archivarix Там мы будем выкладывать статьи о том, как работать с нашей системой, с Веб Архивом и другие полезные вещи о восстановлении контента и создании PBN.
 

Василь

Новичок
Регистрация
10.12.2019
Сообщения
3
Благодарностей
1
Баллы
3
День добрый! Работал с этой программой в основном для восстановления сайтов и работал на локалке. Не мог самостоятельно разобраться с встроенной CMS. В какой то момент, понял, что нужно разобраться. Написал в п поддержку, и удивился. После получасового разжевывания, предложили в скайпе показать ! Около часа( бесплатно) возились со мной, объясняя элементарные вещи и добились, что я все понял)) Огромное человеческое спасибо поддержке! Рекомендую этот сервис! Приятная панель редактирования файла и быстрое развертывание сайта на хостинге.
 
  • Спасибо
Реакции: archivarix

backoff

Client
Регистрация
20.04.2015
Сообщения
5 926
Благодарностей
6 389
Баллы
113
Можно ли сделать так, чтоб сервис сам подбирал оптимальные значения по времени. ты указываешь дату сайта, а сервис сам быстренько парсил временные рамки где есть все файлы?
А то со временем есть большие проблемы и некоторые сайты очень криво выкачиваются
 
  • Спасибо
Реакции: kagorec

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
Можно ли сделать так, чтоб сервис сам подбирал оптимальные значения по времени. ты указываешь дату сайта, а сервис сам быстренько парсил временные рамки где есть все файлы?
А то со временем есть большие проблемы и некоторые сайты очень криво выкачиваются
Теоретически можно, а практически это даст кучу проблем. К примеру на домене было 4 версии сайта в разное время, какую вам именно надо? Скрипт не сможет за вас определить то, какой контент вам нужен.
Но на самом деле задача выкачать все файлы с нашим сервисом решается так - в заданном дропе задаете только дату "До временной отметки " - это то время, когда сайт был точно живой, просто находите в Вебархиве последнюю страницу которая не заглушка хостинга, или ошибка доступа. А поле "Начиная с временной отметки" не заполняете вообще, тогда Архиварикс выкачает все файлы, которые были проиндексированы Вебархивом.
 

todayer

Client
Регистрация
07.08.2013
Сообщения
944
Благодарностей
391
Баллы
63
Примерно год пользуюсь сервисом. Могу сказать, что с меня сняли головную боль сразу по многим вопросам: скачка сайта, пакетное редактирование с регулярками. А сегодня ещё добавили возможность удалять битые ссылки и переводить одной кнопкой весь сайт на utf8. В общем, спасибо.
 

nik63

Новичок
Регистрация
23.01.2020
Сообщения
1
Благодарностей
0
Баллы
1
С помощью этого сервиса быстро нашел нужный сайт, скачал его и переделал под себя. Были сжатые сроки. Очень удобно и быстро. И отличная поддержка. Последний раз обратился - помогли решить вопрос с https. Я скачал архив сайта без поддержки https, а на сервере куда я его установил, была включена переадресация на безопасный протокол, и из за этого сайт не работал. Служба поддержки здорово помогла, и всё теперь работает. Рекомендую!
 

Василь

Новичок
Регистрация
10.12.2019
Сообщения
3
Благодарностей
1
Баллы
3
На самом деле радует поддержка Архивариуса. Могли бы просто видео скинуть и сказать-разбирайтесь, тут все есть. Но по скайпу выходят на связь и терпеливо показывают и советуют. Сервисов хороших много, но поддержка много решает. И в это плане поддержка Архивариуса на высоте. Спасибо , ребята!
 

Василь

Новичок
Регистрация
10.12.2019
Сообщения
3
Благодарностей
1
Баллы
3
Кстати, появилась новая фича у них. Структурированные данные и плагин на Вордпресс. Скачал сайт со статьями. и потом только плагин поставил и все. Статьи закачиваются на сайт, я потом каждый день редактирую одну запись и выложу( они там в черновике).
 

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
Система Архиварикс https://ru.archivarix.com предназначена для скачивания и восстановления сайтов - как уже не работающих из Интернет Архива archive.org, так и живых, находящихся в данный момент онлайн. Задача системы восстановить сайт в таком виде, в котором его можно будет использовать в дальнейшем на своем сервере как источник ссылок и трафика. Вместе с восстановленным сайтом идет бесплатная CMS, что делает Archivarix отличным инструментом для как для построения сетей PBN так и для «оживления» сайтов с целью последующей их продажи.

Недавно мы выпустили обновление нашей CMS, в котором появились:
- Новый дэшборд для просмотра статистики, настроек сервера и обновления системы.
- Возможность создавать шаблоны и удобным образом добавлять новые страницы на сайт.
- Интеграция с Wordpress и Joomla в один клик.
- Теперь в Поиске-Замене дополнительная фильтрация сделана в виде конструктора, где можно добавить любое количество правил.
- Фильтровать результаты теперь можно и по домену/поддоменам, дате-времени, размеру файлов.
- Новый инструмент сброса кэша в Cloudlfare или включения/отключения Dev Mode.
- Новый инструмент удаления версионности у урлов, к примеру, "?ver=1.2.3" у css или js. Позволяет чинить даже те страницы, которые криво выглядели в ВебАрхиве из-за отсутствия стилей с разными версиями.
- У инструмента robots.txt добавлена возможность сразу включать и добавлять Sitemap карту.
- Автоматическое и ручное создание точек откатов у изменений.
- Импорт умеет импортировать шаблоны.
- Сохранение/Импорт настроек лоадера содержит в себе созданные кастомные файлы.
- У всех действий, которые могут длиться больше таймаута, отображается прогресс-бар.
- Инструмент добавления метатега viewport во все страницы сайта.
- У инструментов удаления битых ссылок и изображений возможность учитывать файлы на сервере.
- Новый инструмент исправления неправильных urlencode ссылок в html коде. Редко, но может пригодиться.
- Улучшен инструмент отсутствующих урлов. Вместе с новым лоадером, теперь ведётся подсчёт обращений к несуществующим урлам.
- Подсказки по регулярным выражениями в Поиске & Замене.
- Улучшена проверка недостающих расширений php.
- Обновлены все используемые js инструменты на последние версии.
 

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
Сегодня мы выпустили очередное обновление CMS, версия 0.1.200521:

- Отдельный пароль для безопасного режима.
- Расширен безопасный режим. Теперь можно создавать кастомные правила и файлы, но без исполняемого кода.
- Переустановка сайта из CMS без необходимости что-либо вручную удалять с сервера.
- Возможность сортировать кастомные правила.
- Улучшены Поиск & Замена для очень больших сайтов.
- Дополнительные настройки у инструмента "Метатег viewport".
- Поддержка IDN доменов на хостингах со старой версией ICU.
- В начальной установке с паролём добавлена возможность разлогиниться.
- Если при интеграции с WP обнаружен .htaccess, то правила Archivarix допишутся в его начало.
- При скачивании сайтов по серийному номер используется CDN для повышения скорости.
- Другие мелкие улучшения и фиксы.
 

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
Мы сделали пару инструкций по тонкостям работы с нашей CMS. Как сгенерировать метатег description на все страницы сайта и как сделать, чтобы восстановленный сайт работал из директории, а не из корня. Видео -



Текст в нашем блоге - https://archivarix.com/ru/blog/regex-add-description-website-on-subfolder
 

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
В ближайшее время наша команда планирует запустить уникальный сервис https://archivarix.net/ru/ , сочетающий в себе возможности системы Веб Архива (archive.org) и поисковой системы.
Мы планируем проиндексировать главные страницы всех сайтов, которые когда либо были сохранены Веб Архивом. В нашей базе сайтов будет так же присутствовать архив различных метрик, таких как Alexa, Ahrefs, Majestic, ключевые слова, WHOIS домена и прочие исторические данные за все время существования сайта. Таким образом можно будет осуществлять поиск нужного сайта для восстановления дропов или для извлечения удалённого контента по огромному количеству параметров, таких как ключевые слова в тексте и в тегах, трафик на определённую дату, наличие исторических ссылок, неймсервера и так далее. С помощью этой системы можно будет делать выборки любой сложности, к примеру найти все домены, удалённые в 2018 году, в контенте которых содержались слова webmaster analytics, имевшие тогда Alexa rank менее 300k и которые имели более 30 уников в день по определённому ключевому слову в 2016 году. Наш сервис будет иметь удобный интерфейс для поиска нужных данных и будет содержать в себе скриншоты сайтов со всеми параметрами в виде графиков и таблиц.
Следующим этапом развития системы будет индексация живых сайтов и расширение базы проиндексированного контента. Будут доступны для поиска медиафайлы и некоторые внутренние страницы сайта, выбранные по алгоритму учитывающему значимость этой страницы. В итоге система будет использовать преимущественно свою базу архивированных сайтов и станет не зависимой от Archive.org
 
  • Спасибо
Реакции: todayer

kagorec

Client
Регистрация
24.08.2013
Сообщения
923
Благодарностей
477
Баллы
63
Будет что-то подобное сервиса майдропйо?) :ay:
Ваш сервис предпочтительнее.

Скажите пожалуйста, рассматриваете ли вы добавить функцию ФИЛЬТРАЦИЯ в процесс подготовки выгрузки сайта из вебархива?
Много хлама присутствует в сохраненном сайте на стороне вебархива. При выгрузке учитывается цена за количество страниц, но такие страницы не нужны как "/feed/" "/login/" "/user/" "/member/" "/comments/" и т.д.
 
  • Спасибо
Реакции: todayer

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
Будет что-то подобное сервиса майдропйо?
Не совсем, скорее аналог вебархива с возможностью поиска по кучи метрик и полнотекстового поиска.

Скажите пожалуйста, рассматриваете ли вы добавить функцию ФИЛЬТРАЦИЯ в процесс подготовки выгрузки сайта из вебархива?
Много хлама присутствует в сохраненном сайте на стороне вебархива. При выгрузке учитывается цена за количество страниц, но такие страницы не нужны как "/feed/" "/login/" "/user/" "/member/" "/comments/" и т.д.
В скором времени мы это реализуем. Можно будет как фильтровать контент для скачивания с применением регулярных выражений так и скачивать любые урлы по своему списку.
 

ilya3250

Новичок
Регистрация
18.10.2020
Сообщения
5
Благодарностей
0
Баллы
1
А планируется сделать фильтрацию сайтов по показателям tf и dr ahrefs?
 

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8

archivarix

Пользователь
Регистрация
30.09.2017
Сообщения
32
Благодарностей
20
Баллы
8
С пятницы 27.11.2020 до понедельника 30.11.2020 действуют два жирных купона. Каждый из них даёт бонус на баланс в виде 20% или 50% от суммы вашего последнего или нового платежа.

BLACKFRIDAY50

добавит на баланс 50% от суммы последнего зачисленного платежа. К примеру, если ваше последнее пополнение баланса было на сумму 120$, то просто активировав этот купон, вы получите 60$ в подарок. Купон действует как на ранее совершенные пополнения, так и на новые. Для использования купона, минимальная сумма у платежа должна быть 50$.

BLACKFRIDAY20

Как и купон выше, этот даёт бесплатные 20% от суммы вашего последнего зачисленного платежа, если тот был или будет более 20$.

Каждый купон можно использовать только один раз в рамках одного аккаунта. Возможно использовать оба купона на разные платежи. Вы можете сделать пополнение на необходимую сумму и воспользоваться понравившимся купоном. Акция действует до начала понедельника, 30го ноября. Активировать купоны можно в личном кабинете в разделе Платежи. https://archivarix.com/ru/account/paid/

В начале следующей недели будут ещё важные новости. Чтобы их не пропустить, подписывайтесь на наш канал в Telegram archivarix. А если у вас есть технические вопросы, идеи или фича-реквесты, мы всегда рады общению через @ArchivarixSupport.
 

Кто просматривает тему: (Всего: 1, Пользователи: 0, Гости: 1)