Key Collector – Осуществляет парсет по ключевым словам и фразам, которые могут быть в дальнейшем использованы для создания семантического ядра. Содержит инструменты для удаления и чистки ключевиков
Import – Позволяет создавать пакеты данных и импортировать информацию с других сайтов. Анализирует большое количество веб-страниц. Использует новые технологии, анализирует большой объем информации
Webhose – Обеспечивает доступ к структурированным данным в режиме реального времени. Работает с информацией на 240 языках. Позволяет сохранять результаты работы. Есть демо-версия на 1000 бесплатных запросов
CloudScrape – Самостоятельно устанавливает роботизированную программу по поиску данных в реальном времени. Результаты сохраняются в облаке. Обеспечивает полную анонимность
Scrapinghub – Приложение с умным прокси-оператором, который содержит механизмы защиты от ботов. Справляется с сайтами защиты от роботов. Позволяет создавать организованный контент
ParseHub – Одновременно парсит несколько сайтов. Использует технологию самообучения, которая позволяет распознавать даже сложные документы и файлы. 5 пробных поисков осуществляются бесплатно
VisualScraper – Программное обеспечение для анализа больших объемов информации. Извлекает данные и производит их синтез. Простой интерфейс. Есть бесплатная версия приложения
Spinn3r – Парсит данные из личных блогов и различных средств массовой информации. Проходит систему антиспам и различные уровни защиты
80legs – Сервис с расширенным функционалом, который позволяет устанавливать большое количество настроек для работы. Есть функция немедленного извлечения
OutWit Hub – Работает с Firefox. Автоматически просматривает страницы и сохраняет обработанную информацию