Web Robots – это платформа, которая позволяет извлекать статические и динамические данные с сайтов и добавлять их в свои базы данных для последующего использования.
Такой процесс сбора данных называется скрапингом, парсингом или краулингом. Эти данные можно найти на страницах сайтов, а также с помощью поисковых систем. Ранее мы уже писали о magic.import.io – подобном сервисе для извлечения данных.
![Web Robots – инструменты для извлечения данных со страниц в Интернете](https://te-st.org/wp-content/uploads/2015/09/web-robots1-620x429.png)
В разделе Projects можно найти примеры баз данных и визуализаций на основе извлеченных данных с сайтов.
![Web Robots – инструменты для извлечения данных со страниц в Интернете](https://te-st.org/wp-content/uploads/2015/09/web-robots2-620x400.png)
В разделе Сервисы показаны возможности платформы по извлечению данных. Так, можно извлекать динамические JavaScript-сайты, загружать данные в сторонние базы данных и т.д.
О том, как начать работу с платформой, можно узнать в разделе Scraping Tutorial, в котором представлена пошаговая инструкция. Для разработчиков по Web Robots есть полная документация.