Il traffico bot è il traffico di origine non umana verso un sito Web. Benché una parte del traffico bot in realtà apporti dei benefici, il traffico bot abusivo può essere estremamente deleterio.
Per "traffico bot" si intende qualsiasi tipo di traffico non umano verso un sito Web o un'applicazione. Questa definizione spesso racchiude una connotazione negativa, ma in realtà questo tipo di traffico non è necessariamente benigno o malevolo, in quanto tutto dipende dalla finalità dei bot coinvolti.
Alcuni bot sono essenziali per il funzionamento di servizi utili, come i motori di ricerca e gli assistenti digitali (ad es. Siri, Alexa), e la maggior parte delle aziende accoglie senza problemi questi bot sui propri siti.
Altri bot possono essere dannosi, come ad esempio quelli utilizzati per finalità di credential stuffing, scraping di dati e per lanciare attacchi DDoS. Anche i bot più "cattivi" più benigni, come i crawler non autorizzati, possono costituire un problema, in quanto possono interrompere le analisi del sito e perpetrare frodi con i clic.
Si ritiene che oltre il 40% del traffico Internet sia costituito da traffico bot, e che una parte non trascurabile di questo traffico sia di natura dannosa. È per questo che così tante organizzazioni sono alla ricerca di modi per gestire il traffico bot che giunge sui loro siti.
I web engineer possono esaminare direttamente le richieste di rete dirette verso i loro siti e identificare così il probabile traffico bot. Anche un tool di analisi integrato, come Google Analytics o Heap, può contribuire a individuarlo.
Le seguenti anomalie analitiche sono i tratti distintivi del traffico bot:
Come accennato in precedenza, il traffico bot non autorizzato può impattare su metriche quali il numero di visualizzazioni della pagine, la durata media della sessione, la geolocalizzazione degli utenti e le conversioni. Questi scostamenti delle metriche possono causare una enorme frustrazione al proprietario del sito, in quanto è estremamente difficile misurarne le prestazioni quando viene inondato da bot. Anche i tentativi di miglioramento del sito, come il testing A/B e l'ottimizzazione del tasso di conversione vengono invalidati dal "rumore" statistico creato dai bot.
Google Analytics in realtà offre l'opzione di escludere tutti gli hit effettuati da bot e spider conosciuti (gli spider sono bot di motori di ricerca che scandagliano le pagine Web). Se è possibile identificare l'origine del traffico bot, gli utenti possono fornire a Google Analytics un elenco di indirizzi IP specifici da ignorare.
Se da un lato queste misure impediranno ad alcuni bot di interrompere le rilevazioni analitiche, non saranno tuttavia in grado di fermarli tutti. Inoltre, la maggior parte dei bot dannosi persegue un obiettivo che va al di là dell'interruzione delle analisi del traffico, e questo tipo di misure, a parte preservare dati analitici, non fa nulla per mitigare l'attività nociva dei bot.
L'invio di enormi volumi di traffico bot è un metodo molto diffuso tra gli aggressori per lanciare degli attacchi DDoS. Nel corso di alcuni tipi di attacchi DDoS, infatti, viene indirizzato verso un sito Web un volume così elevato di traffico che il server di origine va in sovraccarico, e il sito diventa lento o del tutto indisponibile per gli utenti reali.
Alcuni siti Web possono finire paralizzati economicamente dal traffico bot dannoso, anche se le loro prestazioni rimangono impregiudicate. Sono particolarmente vulnerabili quei siti che fanno affidamento sulla pubblicità e quelli che vendono merci online con scorte di magazzino limitate.
Per i siti che pubblicano annunci pubblicitari, i bot che atterrano sulla pagina e cliccano sui suoi diversi elementi possono generare falsi clic sulle pubblicità. Questo fenomeno è conosciuto come "click fraud". Benché questo sistema generi inizialmente un aumento dei ricavi provenienti dagli annunci pubblicitari, i network pubblicitari online sono particolarmente abili nel rilevare i clic prodotti dai bot. Quando sospettano che un sito sta commettendo questo tipo di frode passano immediatamente all'azione, e solitamente bandiscono il sito e il suo proprietario dal loro network. Per questo motivo, i proprietari di siti che ospitano annunci pubblicitari devono essere sempre attenti alla possibilità che venga perpetrata questa frode.
I siti provvisti di scorte di magazzino limitate possono essere presi di mira da bot accumulatori. Come suggerisce il nome, questi bot vanno sui siti di e-commerce e riempiono i propri carrelli virtuali con enormi quantità di merce, causandone l'indisponibilità per gli acquirenti legittimi. In alcuni casi questa azione può fare partire la richiesta di rifornimento delle scorte verso un fornitore o un produttore. I bot accumulatori non effettuano acquisti, sono progettati esclusivamente per esaurire le merci disponibili per la vendita.
Il primo passo per gestire o arrestare il traffico bot verso un sito consiste nel predisporre un file robots.txt. Questo file contiene istruzioni rivolte ai bot che scandagliano la pagina, e può essere configurato in maniera tale da impedire loro del tutto di interagire con una pagina Web. Bisogna tuttavia considerare che solo i bot benigni rispetteranno le istruzioni contenute nel file robots.txt, mentre non impedirà ai bot dannosi di scandagliare un sito Web.
Esistono svariati strumenti che possono contribuire a mitigare il traffico bot dannoso. Ad esempio, una soluzione di rate limiting è in grado di rilevare e impedire il traffico bot proveniente da un singolo indirizzo IP, anche se comunque ometterà di rilevare una parte consistente del traffico dannoso. Oltre al rate limiting, un ingegnere di rete può esaminare il traffico di un sito e identificare richieste di rete sospette, stilando un elenco di indirizzi IP da bloccare con uno strumento di filtraggio come WAF. Si tratta di una procedura lunga e laboriosa, e comunque è in grado di filtrare solo una parte del traffico dannoso.
Al di là del rate limiting e dell'intervento diretto degli ingegneri di rete, il metodo più semplice ed efficace per arrestare il traffico bot è usando una soluzione di gestione dei bot. Una soluzione di questo genere è in grado di usare gli strumenti di Web intelligence e analisi comportamentale per fermare i bot dannosi prima ancora che raggiungano un sito Web. Ad esempio, Cloudflare Bot Management usa i dati di oltre 13 milioni di proprietà internet e applica l'apprendimento automatico per identificare e fermare proattivamente l'abuso di bot.
Dopo aver letto questo articolo sarai in grado di:
Cos'è un bot?
Cos'è la gestione dei bot?
Cos'è l'attacco di sottrazione e uso illecito delle credenziali?
Cos'è lo scraping dei contenuti?
Scraping di dati
To provide you with the best possible experience on our website, we may use cookies, as described here.By clicking accept, closing this banner, or continuing to browse our websites, you consent to the use of such cookies.