Un’analisi della società specializzata Incapsula conferma il sorpasso di marzo: meno di quattro utenti su dieci di internet sono persone in carne e ossa. Gli altri? Programmi automatizzati per funzioni legittime, come motori di ricerca, o intenti maligni fra cui furto di dati e cyber attacchi. E la crescita non sembra arrestarsi

di SIMONE COSIMI

 

SORPRESA. Il web non è in mano agli umani ma a un’altra specie, a volte invasiva e pericolosa, e senz’altro meno nota al navigatore medio. Quella dei bot, abbreviazione per “robot”, ma non veri e propri androidi: piuttosto, programmi e funzioni automatizzate che svolgono su internet i compiti più disparati, buoni e cattivi: dalle scansioni dei motori di ricerca alle duplicazioni maligne di dati personali fino agli attacchi più devastanti. A certificare il sorpasso, di cui si era già avuto un primo segnale lo scorso marzo, è Incapsula, una società specializzata statunitense che della lotta ai robot della Rete ha fatto il suo core business.

 

Secondo una colossale indagine il 61,5 per cento del traffico sul World Wide Web è dunque da attribuirsi a entità non umane. Insomma, non arriva da ricerche, letture, navigazioni, download e forum – tutte queste attività si fermano al 38,5 per cento – ma da azioni automatizzate. Il cuore della ricerca è costituito dall’analisi di quasi un miliardo e mezzo di visite di bot a 20mila siti internet di 249 Paesi del mondo negli ultimi novanta giorni. Dai blog personali ai negozi elettronici, dai portali governativi ai siti delle big company passando per quelli di istituzioni finanziarie e forum: per quanto scivolosa sia questa posizione, da Incapsula sostengono che la selezione sia rappresentativa del mare magnum di internet. Rispetto all’ultima rilevazione il traffico prodotto dai bot ha subito un’impennata del 21 per cento fino a toccare appunto la maggioranza assoluta di quello complessivo. “La maggior parte di questa crescita è da attribuire all’incremento di visite da parte dei cosiddetti bot buoni – raccontano da Incapsula – vale a dire agenti certificati di software così come motori di ricerca, la cui presenza è cresciuta dal 20 al 31 per cento negli ultimi dodici mesi”.

151900608-ad626063-e3de-4aa4-8e50-96edbd7e2f85

 

Due le ragioni del boom: da una parte l’evoluzione dei servizi basati sul Web, che ha generato nuovi tipi di funzioni automatizzate, così come inediti servizi di ottimizzazione dei contenuti per i motori di ricerca che ormai ispezionano un sito fra le 30 e le 50 volte al giorno. D’altra parte, sostengono dal gruppo californiano, c’è anche da registrare un aumento dell’attività dei bot esistenti, web crawler e spider, i “ragni”, cioè i software della Rete che setacciano i siti in cerca di informazioni sui contenuti. Scopo? Indicizzarli al meglio per le proprie ricerche.

 

Si tratta però solo di una mezza verità, quella più rassicurante. Il restante 31 per cento del traffico prodotto dai bot è infatti di natura maligna. È vero, le funzioni automatizzate più strettamente legate allo spam sono crollate dal 2 per cento di questa fetta allo 0,5. In particolare grazie alla campagna anti-spam messa in campo da Google con gli aggiornamenti ai suoi algoritmi di ricerca, per esempio Penguin, che sono riusciti a far fuori la maggior parte dei risultati inquinati da link building (75 per cento) e altre tattiche Seo utili solo a generare traffico. Non è un caso che, in parallelo, questo tipo di attività sia migrata verso il nuovo Eldorado dei social network. Tuttavia rimangono in campo altre entità non proprio rassicuranti. Per esempio, sempre nell’ambito di quel 31 per cento di bot cattivi, il 5 è rappresentato dai cosiddetti scraper, programmini automatizzati che rubano informazioni, duplicano contenuti e indirizzi e-mail a fini di spam prendendo in particolare di mira siti di viaggi, notizie, ecommerce e forum. Poco sotto rimangono invece gli hacking tool. Questi sono ghiotti in particolare dei dati della nostra carta di credito, diffondono malware e virus informatici e mandano in tilt i contenuti dei siti internet. Non a caso, preferiscono far danni su portali basati su diffusissimi content management system come WordPress o Joomla.

 

Ma questo è nulla. C’è una categoria di nemici del web che preoccupa in particolare gli analisti di Incapsula. Quella battezzata come “altri imitatori”. Un preoccupante 20 per cento, in crescita dell’8, che raccoglie bot negativi non classificati ma con intenti nettamente ostili. Perché questo nome? Perché il minimo comuni denominatore di questi programmini sta nel tentativo di assumere qualche altre identità. In particolare quella dei bot buoni. Gli imitatori sono infatti architettati per farsi passare come agenti dei motori di ricerca o di altri servizi online legittimi. Per poi invece scappare col bottino o, magari, mandare in tilt i siti con attacchi DDoS, cioè Denial of service, consistenti nell’invio di molte richieste di accesso fino a saturarne le possibilità di risposta e a farli collassare. L’obiettivo di questi insidiosi Mister X della Rete? Infiltrarsi nei sistemi di sicurezza. Sono i più pericolosi perché spesso programmati per uno specifico attacco e quindi più efficaci nei loro intenti. “In termini di funzionalità e capacità – concludono da Incapsula – questi imitatori rappresentano la parte più insidiosa nella gerarchia dei bot. Possono essere bot spia, agenti DdoS o browser maligni attivati da malware trojan. In ogni caso, l’aumento dell’8 per cento in questa categoria sottolinea l’attività di questi hacker così come spiega il boom dei cyberattacchi degli ultimi tempi”. Sempre più sofisticati e dannosi.