Что я делаю:
- Собираю данные: товары, статьи, контакты, цены, отзывы и др.
- Обрабатываю большие объемы информации (опыт работы с Big Data).
- Настраиваю автоматическое обновление данных по расписанию.
- Обхожу блокировки и капчи (если требуется).
Мой стек:
- Языки: Python (Scrapy, BeautifulSoup, Selenium), C++(для сложных задач на скорость).
- Экспорт данных: CSV, Excel, Google Sheets, SQL.
- Дополнительно: bash-скрипты для запуска на сервере.
Как проходит работа:
1. Вы присылаете ссылку на сайт и пример нужных данных.
2. Я анализирую структуру сайта и согласовываю с вами ТЗ.
3. Пишу парсер, тестирую его и отправляю вам пример данных.
4. Вы получаете готовый скрипт + инструкцию по запуску.
Почему я:
- Использую C++ для оптимизации скорости, если данные нужно обрабатывать в реальном времени.
- Ежедневно отчитываюсь о прогрессе.
- Даю гарантию 7 дней: исправлю баги, если что-то сломается.
1. Ссылка на сайт или пример страницы
— Например: `https://example-shop.com/category` или скриншот.
— Если сайт требует авторизации — логин/пароль (или тестовый аккаунт).
2. Какие данные собирать
— Укажите поля: «Название товара, цена, артикул, отзывы» (чем конкретнее, тем лучше).
— Формат данных: CSV, Excel, JSON (или другой).
4. Особенности сайта
— Есть ли защита от парсинга (капча, Cloudflare, ограничение на кол-во запросов)?
— Нужен ли обход блокировок?
Все отлично!
Дмитрий отличный специалист.
Сотрудничество оставило положительное впечатление. Понравилось внимание к деталям, желание сделать нужный и полезный продукт, корректность в общение.
Все отлично.
Отличная работа. Советую к работе
Все отлично!