Définition : Crawling / Scraping B2B

Les termes de crawling et scraping B2B désignent un processus par lequel une solution d’intelligence commerciale va indexer des sites d’entreprises ou d’organisations (crawling) pour en extraire (scraping) des données permettant de les qualifier à des fins d’exploitation commerciale.

Les données « scrapées » et traitées vont permettre de qualifier les organisations et de les proposer en réponse à des requêtes faites par d’autres entreprises cherchant des comptes prospects B2B. Les données issues du scraping peuvent être les éléments textes visibles des pages, qui peuvent alors donner lieu éventuellement à des analyses sémantiques, ou des éléments présents dans les codes sources. La détection et le scraping des éléments de codes sources permettent par exemple de savoir quelles plateformes marketing sont utilisées (AdWords, Facebook ads, etc.) ou quelles solutions logistiques ou de paiement sont utilisées par un site marchand.

L’analyse des données textuelles va par exemple permettre de détecter des certifications, l’usage de normes, la présence, l’annonce de levées de fonds, l’offre d’emplois ou des intitulés de postes. Ces données permettent de qualifier l’entité et / ou de détecter des signaux faibles ou forts de besoins.

Un présentation commerciale, mais néanmoins intéressante, d’une solution utilisant le principe du crawling / scraping :



Identifier les Fintech et tous les écosystèmes grâce au big data et à la data science – Finance Innovation from C-Radar on Vimeo.

Share on FacebookTweet about this on TwitterShare on LinkedIn