Crescono in rete i bot “persistenti”

Security managementSicurezza

Secondo Distil Networks i bot “cattivi” sono sempre più in grado di simulare il comportamento umano ed evitare di essere identificati

Ci sono i bot buoni, come quelli dei motori di ricerca che scandagliano il web per facilitarci la vita nel cercare contenuti, e poi ci sono i “cattivi” che cercano di violare i siti come farebbe un hacker ostile e anche quelli che non violano le reti ma “rubano” i contenuti che altri siti hanno raccolto o prodotto come parte del proprio lavoro. L’americana Distil Networks produce software per bloccare i bot indesiderati e ha prodotto ora un report che, sulla base delle visite registrate nel corso del 2015 dai siti web delle aziende sue clienti, analizza l’andamento nella diffusione e nelle metodologie di attacco dei bot.

bot
La proporzione tra traffico web umano e non

Il primo risultato del Bad Bot Landscape Report 2016 è sintetizzato dal suo sottotitolo: The Rise of Advanced Persistent Bots. È un parallelismo con le Advanced Persistent Threat del mondo della sicurezza IT e vuole indicare che chi sta scatenando bot sul web sta man mano adottando un approccio basato più sulla qualità che sulla quantità. Il traffico “cattivo” scende (per Distil nel 2015 è stato poco meno del 19 percento del traffico web globale dei siti che monitora) ma aumenta il loro livello di sofisticazione, tanto da arrivare appunto alla definizione di APB.

Gli APB rappresentano la larga maggioranza (88 percento) del traffico dei bot cattivi e hanno particolari abilità sia nel simulare il comportamento di un visitatore umano sia nell’evitare di essere identificati come bot grazie ad alcuni accorgimenti come il cambio frequente dell’indirizzo IP di (apparente) provenienza e dell’user agent che li identifica come un particolare browser piuttosto che un altro, in modo da riflettere la diffusione dei browser sul web in quel momento.

Chi sono le vittime di questa situazione? Il report Distil non si concentra su chi cerca di violare le reti aziendali attraverso i loro siti web ma più su chi fa “scraping” delle informazioni pubblicate online, cioè che di fatto le ruba per pubblicarle su propri siti senza dover fare la fatica di raccoglierle. In senso positivo potremmo considerare questi siti come aggregatori ma nell’ottica di Distil la valutazione è negativa. Le categorie più soggette a scraping sono i siti editoriali di piccole dimensioni che servono mercati specifici, le agenzie immobiliari (un mercato che si sta digitalizzando solo di recente), i siti di ecommerce, quelli di annunci e quelli di viaggi.

La classifica dei provider più colpiti dal traffico bot
La classifica dei provider più colpiti dal traffico bot

In quanto a provenienza dei bot “cattivi” gli Stati Uniti hanno tradizionalmente la prevalenza quando si esamina la quota di traffico legata ai bot dei vari Internet Provider, ma durante il 2015 nella classifica dei provider più “bot-izzati” c’è una forte presenza di nomi cinesi. Una menzione particolare la merita la presenza di Amazon, segno che i servizi cloud di AWS – ma anche di altri cloud provider, se è per questo – sono usati come piattaforma per attivare e disattivare bot a piacimento.

 

Read also :
Clicca per leggere la biografia dell'autore  Clicca per nascondere la biografia dell'autore