Часто требуется получить и проанализировать большой массив технической информации, размещенной на своих проектах или сайтах конкурентов. Для сбора таких данных незаменимы парсеры — программы или сервисы, которые «вытаскивают» нужную информацию и представляют ее в структурированном виде.
Если вам нужны данные всех URL страниц вашего или сайта конкурента, для глубокого и детального анализа, с возможностью оптимизации вашего вэб ресурса, то сделаю для вас выгрузку до 1000 страниц, предоставленного вами домена.
Выгрузку предоставляю в Excel формате с перечисленными ниже данными:
- Код ответа сервера.
- Статус.
- Адрес перенаправления.
- Canonical URL.
- Тип контента.
- Размер.
- Meta Robots (текст).
- Title и его длина.
- Description и его длина.
- Keywords.
- Мета теги H1 и h2.
- Количество слов на странице.
- Последнее изменение (дата).
- Внутренние входящие ссылки на данный URL.
- Внутренние исходящие ссылки на другой внутренний URL.
- Время отклика каждого URL (сек).
- Время загрузки каждого URL (сек).
- Время парсинга каждого URL (сек).
Пример можете посмотреть в прикреплённом ниже файле.
Анализ данных — это обычная задача для сбора данных для SEO оптимизации.
В качестве бонуса, предоставлю технический аудит любого сайта!