Партнеры: Надежный VPN сервис DoubleVPN.com | Форум об анонимности и безопасности в сети. Всегда свежие списки прокси. | SMS активации, виртуальные номера |
Instaplus.me - лучший сервис для продвижения в Инстаграм. 5 дней бесплатно в Инстаплюс. |


Продам A-Parser 1.1 - продвинутый парсер поисковых систем, Suggest, PR, DMOZ, Whois, etc

Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Сборник рецептов #22: проверка индексации в нескольких ПС, многоуровневый парсинг и поиск сабдоменов

22-й сборник рецептов. В нем мы разберемся, как проверять индексацию всех страниц сайта одновременно в нескольких поисковиках, научимся парсить данные по ссылкам из выдачи одним заданием и будем искать сабдомены на сайтах. Поехали!

Для просмотра ссылки необходимо: Войти или Регистрация

Данный пресет позволяет спарсить ссылки на все страницы сайта и одновременно проверить их на предмет индексации поисковиками (в примере Google и Яндекс, можно по аналогии добавить другие ПС). Готовый пресет и описание по ссылке выше.


Для просмотра ссылки необходимо: Войти или Регистрация

Пример использования tools.query.add в JavaScript парсерах. Данный парсер получает ссылки из выдачи, после чего собирает из каждой страницы title и description. И все это одним заданием с максимальной производительностью, благодаря многопоточному парсингу. Парсер с описанием доступны по ссылке выше.


Для просмотра ссылки необходимо: Войти или Регистрация

Небольшой пример, который демонстрирует, как собрать поддомены одного или нескольких сайтов. Используется
Для просмотра ссылки необходимо: Войти или Регистрация и Для просмотра ссылки необходимо: Войти или Регистрация для прохода вглубь по страницам сайта. При этом Конструктором результатов извлекаются из внутренних ссылок домены и выводятся с уникализацией по строке. Готовый пресет - по ссылке выше.


Кроме этого:
  • Для просмотра ссылки необходимо: Войти или Регистрация - показаны все базовые возможности нового функционала по работе с SQLite
Еще больше различных рецептов в нашем Для просмотра ссылки необходимо: Войти или Регистрация!
Предлагайте ваши идеи для новых парсеров Для просмотра ссылки необходимо: Войти или Регистрация, лучшие будут реализованы и опубликованы.

Подписывайтесь на Для просмотра ссылки необходимо: Войти или Регистрация - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Для просмотра ссылки необходимо: Войти или Регистрация.

Предыдущие сборники рецептов:
 

Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Для просмотра ссылки необходимо: Войти или Регистрация

В этом сборнике статей мы рассмотрим все возможные варианты решения задачи прохода по пагинации на сайтах, очень детально изучим работу с переменными в JavaScript парсерах, а также попробуем работать с базами данных SQLite на примере парсера курсов валют. Поехали!

Для просмотра ссылки необходимо: Войти или Регистрация

В A-Parser существует несколько способов, с помощью которых можно реализовать проход по пагинации. В связи с их разнообразием, становится актуальным вопрос выбора нужного алгоритма, который позволит максимально эффективно переходить по страницам в процессе парсинга. В этой статье мы постараемся разобраться с каждым из способов максимально подробно. Также будут показаны реальные примеры и даны рекомендации по оптимизации многостраничного парсинга. Статья - по ссылке выше.


Для просмотра ссылки необходимо: Войти или Регистрация

JS парсеры в А-Парсере появились уже около года назад. Благодаря им стало возможным решать очень сложные задачи по парсингу, реализовывая практически любую логику. В этой статье мы максимально подробно изучим работу с разными типами переменных, а также узнаем, как можно оптимизировать работу сложных парсеров. Все это - в статье по ссылке выше.


Для просмотра ссылки необходимо: Войти или Регистрация

Начиная с версии 1.2.152 в A-Parser появилась возможность Для просмотра ссылки необходимо: Войти или Регистрация.
В данной статье мы рассмотрим разработку JavaScript парсера, который будет парсить курсы валют из сайта finance.i.ua и сохранять их в БД. В результате получится парсер, в котором продемонстрированы основные операции с базами данных. Подробности, а также готовый парсер - по ссылке выше.



Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки :) ) - отписывайтесь Для просмотра ссылки необходимо: Войти или Регистрация.

Подписывайтесь на Для просмотра ссылки необходимо: Войти или Регистрация - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Для просмотра ссылки необходимо: Войти или Регистрация.

Предыдущие сборники статей
 

Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Для просмотра ссылки необходимо: Войти или Регистрация



Улучшения

  • Для просмотра ссылки необходимо: Войти или Регистрация - многократно увеличена скорость парсинга
  • Множество улучшений в
    Для просмотра ссылки необходимо: Войти или Регистрация:
    • Возможность указать несколько DNS и задать метод выбора
    • Бан нерабочих/плохих DNS по специальному эвристическому алгоритму
    • Возможность вывести в результат использованный DNS сервер при удачном запросе
  • В
    Для просмотра ссылки необходимо: Войти или Регистрация добавлена опция Use sessions
  • В
    Для просмотра ссылки необходимо: Войти или Регистрация добавлена настройка пресета антигейта для логина
  • Также в
    Для просмотра ссылки необходимо: Войти или Регистрация удалены настройки Use logins/Use sessions, теперь они включены всегда
  • Добавлена возможность автоматического удаления задания из Завершенных
  • В макросе подстановок {num} добавлена поддержка обратного отсчета
  • В JavaScript парсерах добавлена возможность сохранения произвольных данных в сессии
  • В JavaScript парсерах добавлена возможность прямого сохранения в файл
  • В API методе oneRequest/bulkRequest добавлена возможность указать configPreset
  • В связи с неактуальностью удалены парсеры SE::Google::Mobile и SE::Yandex::Catalog
Исправления в связи с изменениями в выдаче
Исправления
  • Количество неудачных больше не обнуляется при постановке на паузу
  • Исправлена проблема с подключением Node.js модулей на Linux
  • Исправлено падение парсера в редких ситуациях при использовании JS парсеров
  • Решена проблема с подключением Node.js модулей lodash, sequelize
  • Исправлена ошибка итератора при равных границах в макросе {num}
 
Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Для просмотра ссылки необходимо: Войти или Регистрация


Очередное видео в цикле уроков по созданию JavaScript парсеров. Здесь показано, как реализовать разгадывание рекаптч в JS парсере.

Для просмотра ссылки необходимо: Войти или Регистрация


В уроке рассмотрено:
  • Описание и настройка парсера
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Описание принципа работы ReCaptcha2
  • Создание кастомного JavaScript парсера с поддержкой разгадывания рекаптч

Ссылки:

Оставляйте комментарии и Для просмотра ссылки необходимо: Войти или Регистрация
 
Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Для просмотра ссылки необходимо: Войти или Регистрация

23-й сборник рецептов. В нем мы будем парсить категории сайтов из Google, научимся формировать файлы YML, а также разберемся, как парсить даты и преобразовывать их в единый формат. Поехали!

Для просмотра ссылки необходимо: Войти или Регистрация

Категоризация сайтов - довольно актуальная задача, но существует немного сервисов, которые могут ее решить. Поэтому, по ссылке выше можно взять небольшой парсер, который позволяет получать категории сайтов из Google.


Для просмотра ссылки необходимо: Войти или Регистрация

YML - это стандарт, разработанный Яндексом для работы с Маркетом. По своей сути, это файлы, схожие с XML, в которых содержится информация о товарах в интернет-магазине. Данный формат обеспечивает регулярное автоматическое обновление каталога на Яндекс.Маркет и позволяет отражать все актуальные изменения (наличие, цена, появление новых товаров). Пример парсинга интернет-магазина и сохранения собранных данных в YML можно посмотреть по ссылке выше.


Для просмотра ссылки необходимо: Войти или Регистрация

В поисковой выдаче Google возле новостей публикуется дата. Как правило, это могут быть метки "10 ч. назад" или "26 мая 2018 г.". Иногда может возникнуть задача спарсить все даты и привести их к единому виду. Как именно это сделать, можно узнать по ссылке выше.


Кроме этого:
  • Для просмотра ссылки необходимо: Войти или Регистрация - новый функционал по работе с сессиями
  • Для просмотра ссылки необходимо: Войти или Регистрация - возможность сохранять файлы в JS парсерах напрямую, минуя шаблонизатор
Еще больше различных рецептов в нашем Для просмотра ссылки необходимо: Войти или Регистрация!

Предлагайте ваши идеи для новых парсеров Для просмотра ссылки необходимо: Войти или Регистрация, лучшие будут реализованы и опубликованы.

Подписывайтесь на Для просмотра ссылки необходимо: Войти или Регистрация - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Для просмотра ссылки необходимо: Войти или Регистрация.

Предыдущие сборники рецептов:
 
Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Для просмотра ссылки необходимо: Войти или Регистрация



Улучшения
  • Зависимая задача в Цепочке заданий теперь запускается только когда файл результатов не пустой
  • Добавлен повтор без смены прокси при неудачной отправке рекаптчи в
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Добавлен бан прокси при получении 403 кода ответа в
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Процент неудачных запросов теперь отображается относительно числа выполненных запросов
  • Добавлена возможность вызвать URL после выполнения задания
  • Улучшен обзор каталогов при выборе файлов запросов
  • Добавлена поддержка setInterval в JavaScript парсерах
  • Уменьшено Wait between get status и улучшено логгирование в
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Улучшена обработка редиректов
  • Добавлена защита от бесконечного выполнения в JavaScript парсерах
  • Значительно увеличены возможности check_content в JS парсерах
  • В ответе API метода info добавлены параметры workingTasks, activeThreads, activeProxyCheckerThreads
Исправления в связи с изменениями в выдаче
Исправления
  • Исправлено ведение лога при нескольких паузах задания
  • Исправлена ошибка, из-за которой запрос считался неудачным при пустой выдаче в
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Исправлена работа с url, содержащими фрагмент # в
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Исправлен парсинг ссылок в
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Исправлена работа опции Pages count в
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Исправлен выбор файлов запросов на Windows 10
  • Исправлена ошибка, из-за которой иногда нельзя было удалить файл с запросами
  • Исправлено отображение проксичекера в конфиге потоков
  • Исправлена кодировка некоторых результатов в
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Исправлена ситуация, когда не читались настройки из config.txt
 
Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Для просмотра ссылки необходимо: Войти или Регистрация

24-й сборник рецептов. В нем мы научимся мониторить окончание срока регистрации доменов с уведомлением в Телеграм, сделаем альтернативный чекер сайтов в базе РКН, а также на простом примере парсера курсов валют изучим работу с базами данных. Поехали!

Для просмотра ссылки необходимо: Войти или Регистрация

Мониторинг сроков регистрации доменов - это довольно распространенная задача. A-Parser позволяет легко автоматизировать этот процесс. Более того, можно настроить получение прямо в Телеграм уведомлений о доменах, срок регистрации которых скоро закончится. Готовое решение для автоматической проверки с уведомлением - по ссылке выше.


Для просмотра ссылки необходимо: Войти или Регистрация

В А-Парсере есть стандартный парсер
Для просмотра ссылки необходимо: Войти или Регистрация, который позволяет проверять наличие сайтов в базе РКН. Данные получаются напрямую из официального сервиса, для работы обязательно нужно подключать антигейт. Кроме того, официальный сервис РКН часто подвергается атакам, в связи с чем может быть недоступен. Но существуют альтернативные источники данных, доступность которых значительно выше и к тому же не требующие проверки в виде каптчи. Парсинг одного из таких источников и реализован в пресете по ссылке выше.


Для просмотра ссылки необходимо: Войти или Регистрация

Как известно, в A-Parser есть возможность чтения/записи данных в БД SQLite. В этом рецепте показано использование этого функционала на примере парсинга курсов валют. Готовый парсер доступен по ссылке выше.


Еще больше различных рецептов в нашем Для просмотра ссылки необходимо: Войти или Регистрация!

Предлагайте ваши идеи для новых парсеров Для просмотра ссылки необходимо: Войти или Регистрация, лучшие будут реализованы и опубликованы.

Подписывайтесь на Для просмотра ссылки необходимо: Войти или Регистрация - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Для просмотра ссылки необходимо: Войти или Регистрация.

Предыдущие сборники рецептов:
 
Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Для просмотра ссылки необходимо: Войти или Регистрация


Улучшения
  • В
    Для просмотра ссылки необходимо: Войти или Регистрация обновлена база определяемых движков, теперь поддерживается одновременно старый и новый формат apps.json (при обновлении рекомендуется также обновить apps.json)
  • Для просмотра ссылки необходимо: Войти или Регистрация полностью переписан:
    • добавлен парсинг related keywords
    • убран $cachedate из $serp, т.к. его похоже больше нет в выдаче
    • добавлена опция Get full link, преобразующая обрезанные ссылки в полные
    • исправлены некоторые регулярные выражения и баг с двойным http в ссылках
  • Изменения в
    Для просмотра ссылки необходимо: Войти или Регистрация:
    • Добавлен параметр Check type, позволяет выбрать тип проверки: Root Domain/Subdomin/URL
    • Убран параметр Extract domain
    • Исправлена работа в некоторых случаях
  • Улучшена отзывчивость в редакторе JavaScript парсеров
  • Улучшена работа
    Для просмотра ссылки необходимо: Войти или Регистрация, устранены зависания, которые возникали на определенных страницах
  • Обновлен список регионов в парсерах Яндекс
  • Пустой результат в
    Для просмотра ссылки необходимо: Войти или Регистрация больше не считается неудачным запросом
  • Улучшена работа с сессиями в
    Для просмотра ссылки необходимо: Войти или Регистрация
Исправления в связи с изменениями в выдаче
  • Исправлен парсинг рекламы в
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Исправлена работа, а также улучшен алгоритм парсинга в
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Исправлено указание региона в парсерах Яндекс
  • Исправлен парсинг $ads.$i.visiblelink в
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Исправлен парсинг $totalcount в
    Для просмотра ссылки необходимо: Войти или Регистрация
Исправления
  • Исправлена ошибка, из-за которой процент обработанных запросов мог быть больше 100
  • Исправлены ошибки, из-за которых парсинг мог зависать при снятии с паузы, а также сбивался перебор в макросах подстановок
  • Исправлено отображение кириллицы в $headers в
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Исправлена ошибка в Конструкторе результатов, из-за которой в редких случаях парсер мог падать
  • Устранена проблема с кодировкой при работе с SQLite
  • Исправлена ошибка со сменой прокси в JavaScript парсерах
 
Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
какая стоимость для форумчан?
Здравствуйте.
Цены на парсер :
Условия и возможности можно посмотреть здесь:
Для просмотра ссылки необходимо: Войти или Регистрация
 
Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Для просмотра ссылки необходимо: Войти или Регистрация

В 4-м сборнике статей будет рассмотрено добавление товаров в OpenCart, а также описано создание универсального парсера JSON. В каждой статье приложены готовые JS парсеры, используя которые, можно на реальных примерах изучить описанные методы и поэксперементировать с ними. Поехали!

Для просмотра ссылки необходимо: Войти или Регистрация

Данная статья начинает цикл об одной из наиболее часто запрашиваемых возможностей - заливке товаров в интернет-магазин. A-Parser - это универсальный инструмент, который кроме прочего может решать и такие задачи. Для тестов выбран движок OpenCart, в 1-й статье будет рассмотрена авторизация, получение списка товаров и добавление товара. Подробности, а также пример парсера - по ссылке выше.


Для просмотра ссылки необходимо: Войти или Регистрация

JSON - это довольно популярный способ предоставления данных, который, например, часто используется при работе с API различных сервисов. В А-Парсере есть встроенные инструменты для работы с ним, но не всегда их применение может быть простым, иногда требуется дополнительно писать сложные шаблоны, используя шаблонизатор. Поэтому в статье по ссылке выше будет рассказано, как написать простой универсальный парсер JSON.


Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки :) ) - отписывайтесь Для просмотра ссылки необходимо: Войти или Регистрация.

Подписывайтесь на Для просмотра ссылки необходимо: Войти или Регистрация - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Для просмотра ссылки необходимо: Войти или Регистрация.

Предыдущие сборники статей
 
Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Видео урок: Создание JS парсеров. Работа с SQLite

Продолжение цикла уроков по созданию JavaScript парсеров. В этом видео показано, как работать с базой данных SQLite в JS парсере.

Для просмотра ссылки необходимо: Войти или Регистрация

В этом уроке рассмотрены:
- Знакомство с языком запросов SQL
- Создание простейшей базы данных SQLite при работе с JS-парсером
- Получение и запись данных в базу SQLite при работе с JS-парсером

Ссылки:
- Для просмотра ссылки необходимо: Войти или Регистрация - учебник по SQL
- Для просмотра ссылки необходимо: Войти или Регистрация - тоже учебник по SQL
- Для просмотра ссылки необходимо: Войти или Регистрация - сайт, который использовался в качестве примера
- Для просмотра ссылки необходимо: Войти или Регистрация - статья и готовый парсер

Оставляйте комментарии и Для просмотра ссылки необходимо: Войти или Регистрация
 
Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Для просмотра ссылки необходимо: Войти или Регистрация



Улучшения
  • Добавлен новый парсер
    Для просмотра ссылки необходимо: Войти или Регистрация
  • В
    Для просмотра ссылки необходимо: Войти или Регистрация улучшена обработка портов по умолчанию, теперь ссылки с портом приводятся к каноническому виду
  • Оптимизирована работа
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Улучшена работа с сессиями в
    Для просмотра ссылки необходимо: Войти или Регистрация
  • Улучшена обработка некорректных ответов в
    Для просмотра ссылки необходимо: Войти или Регистрация
    Для просмотра ссылки необходимо: Войти или Регистрация
Исправления в связи с изменениями в выдаче
Исправления
  • Исправлена проблема с запуском на некоторых linux дистрибутивах
  • Исправлена загрузка node.js модулей в редких случаях на Windows
  • JS парсеры: добавлена поддержка dns.lookup и улучшена совместимость с модулем mysql2
  • JS парсеры: исправлен util.promisify
  • Исправлена работа некоторых Node.js модулей
  • В
    Для просмотра ссылки необходимо: Войти или Регистрация и
    Для просмотра ссылки необходимо: Войти или Регистрация $totalcount при 0 результатов теперь возвращает 0
  • Исправлено логгирование в режиме foreground
 
Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Для просмотра ссылки необходимо: Войти или Регистрация
25-й сборник рецептов. В нем будет показан способ периодического парсинга с дозаписью результатов в таблицу, рассмотрен парсинг с помощью Node.js модуля Cheerio без использования регулярных выражений, а также показан парсер первой мобильной поисковой системы в Китае - Shenma. Поехали!

Для просмотра ссылки необходимо: Войти или Регистрация
Пример решения одной из наиболее запрашиваемых задач - дозапись периодически получаемых результатов в одну и ту же таблицу. В качестве хранилища данных используется SQLite, при каждом запуске данные добавляются и выводятся в таблицу. Готовый пресет с комментариями - по ссылке выше.


Для просмотра ссылки необходимо: Войти или Регистрация
Как известно, в основе почти любого парсера используются регулярные выражения, реже - XPath. Работа с этими методами требует определенных знаний, что в свою очередь может вызывать некоторые сложности. Поэтому существуют и другие методы. Использование одного из них на примере парсинга популярного в Китае поисковика Haosou, показано по ссылке выше.


Для просмотра ссылки необходимо: Войти или Регистрация
Еще один китайский поисковик в этом сборнике - Shenma. Это первая мобильная поисковая система в Китае, ориентирована в первую очередь на мобильные сайты. Пресет - по ссылке выше.


Еще больше различных рецептов в нашем Для просмотра ссылки необходимо: Войти или Регистрация!
Предлагайте ваши идеи для новых парсеров Для просмотра ссылки необходимо: Войти или Регистрация, лучшие будут реализованы и опубликованы.

Подписывайтесь на Для просмотра ссылки необходимо: Войти или Регистрация - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Для просмотра ссылки необходимо: Войти или Регистрация.

Предыдущие сборники рецептов:
 
Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Для просмотра ссылки необходимо: Войти или Регистрация
Продолжение цикла уроков по созданию JavaScript парсеров. В этом видео будет показано, как "на лету" добавлять запросы в задание и многопоточно их обрабатывать.
Для просмотра ссылки необходимо: Войти или Регистрация
В одной из наших Для просмотра ссылки необходимо: Войти или Регистрациямы рассмотрели способ разработки парсера, который собирает ТОП 10 из выдачи поисковика, а затем по очереди парсит нужные данные по полученным ссылкам. Вроде все неплохо, но если у вас не 10 запросов, несколько тысяч? Задание будет выполняться очень долго, а время это самый драгоценный и не восполняемый ресурс.
К счастью в A-Parser есть такая замечательная вещь, как многоуровневый парсинг, который позволяет многократно увеличить скорость парсинга, и в этом видео мы рассмотрим как этой возможностью пользоваться.

В этом уроке рассмотрено:
  • Реализация раздельных процедур парсинга в зависимости от внешних условий, а именно - уровня парсинга
  • Подстановка запросов в задание "на лету"
  • Использование стандартных парсеров в кастомных JavaScript парсерах
Ссылки:
Оставляйте комментарии и Для просмотра ссылки необходимо: Войти или Регистрация!
 
Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Для просмотра ссылки необходимо: Войти или Регистрация

Улучшения
  • Добавлен парсер
    Для просмотра ссылки необходимо: Войти или Регистрация - парсер Индекса качества сайта (Яндекс ИКС)
  • Оптимизирована работа Очереди заданий
  • Добавлена поддержка множества экзотических кодировок китайского языка
  • Добавлена опция Save as UTF-8 with BOM, которая решает проблему определения кодировки при открытии сформированного CSV в Excel
  • Для просмотра ссылки необходимо: Войти или Регистрация полностью переписан с использованием современного юзерагента
  • Для просмотра ссылки необходимо: Войти или Регистрация оптимизирован и переписан на JavaScript
  • Улучшена работа
    Для просмотра ссылки необходимо: Войти или Регистрация,
    Для просмотра ссылки необходимо: Войти или Регистрация,
    Для просмотра ссылки необходимо: Войти или Регистрация,
    Для просмотра ссылки необходимо: Войти или Регистрация,
    Для просмотра ссылки необходимо: Войти или Регистрация
Исправления в связи с изменениями в выдаче
Исправления
  • Исправлена работа
    Для просмотра ссылки необходимо: Войти или Регистрация для некоторых доменных зон
  • Исправлена ошибка, при которой не импортировался пресет, если не установлены модули, используемые в нем
  • Исправлена кодировка при использовании fs.readdirSync в JS парсерах
 
Регистрация
11 Апр 2015
Сообщения
132
Симпатии
470
Для просмотра ссылки необходимо: Войти или Регистрация
В 5-м сборнике статей на реальном примере будет показано, как создать свой канал в Телеграме и полностью автоматизировать его наполнение контентом. Также мы продолжаем цикл статей по работе с OpenCart и во 2-й части будет рассмотрен вопрос массового добавления товаров. Как обычно, в каждой статье приложены готовые JS парсеры, используя которые, можно на реальных примерах изучить описанные методы и поэксперементировать с ними. Поехали!

Для просмотра ссылки необходимо: Войти или Регистрация
В этой статье будет описан способ создания полноценного канала в Telegram c автоматизированным сбором контента и постингом сообщений через заданные интервалы. И конечно, все это на базе A-Parser. Все подробности, а также готовые пресеты - по ссылке выше.


Для просмотра ссылки необходимо: Войти или Регистрация
Мы продолжаем цикл статей о заливке товаров в интернет-магазин на базе OpenCart. Во второй части будет рассмотрено массовое добавление товара. Подробности, а также пример готового парсера - по ссылке выше.


Если вы хотите, чтобы мы более подробно раскрыли какой-то функционал парсера, у вас есть идеи для новых статей или вы желаете поделиться собственным опытом использования A-Parser (за небольшие плюшки :) ) - отписывайтесь Для просмотра ссылки необходимо: Войти или Регистрация.

Подписывайтесь на Для просмотра ссылки необходимо: Войти или Регистрация - там регулярно выкладываются видео с примерами использования A-Parser, а также следите за новостями в Для просмотра ссылки необходимо: Войти или Регистрация.

Предыдущие сборники статей
 
Сверху