I bot, i software utilizzati per scandagliare la rete, producono il 61,5 per cento di tutto il traffico web, con un incremento del 21 per cento rispetto ai numeri del 2012, Lo afferma un recente studio condotto da Incapsula.
Mentre una gran parte di questa crescita è attribuita alle visite dei crawel dei motori di ricerca o di servizi di SEO-oriented, software maligni continuano ad essere un problema e rappresentano metà di tutto il traffico bot.
Anche se il 31 per cento dei bot sono dannosi, la relazione del Incapsula indica che ci sono molti meno spammer.
"C'è una notevole riduzione dell'attività Bot Spam, che è scesa dal due per cento nel 2012 al 0,5 per cento nel 2013", si legge nella relazione. "La spiegazione più plausibile per questa diminuzione netta è la campagna anti-spam di Google, che comprende gli aggiornamenti recenti di Penguin 2.0 e 2.1".
l'importanza della Link building tipica della SEO è sempre stata una grande motivazione per la ricerca di link automatica. Con i suoi ultimi aggiornamenti Google Penguin è riuscita ad aumentare in modo percettibile il rischio di certe tecniche di commento spam utilizzate da alcuni SEO, e ha anche ridotto la loro reale efficacia."
Il rapporto sostanzialmente dice che Google è stato in capace di scoraggiare la pratica di link building innaturale, causando una diminuzione del 75 per cento nelle attività spam di collegamento automatico.
Se gli spammer sono in declino gli hacker non lo sono per niente.
Incapsula dice che c'è stato un aumento dell'otto per cento dell'attività degli hacker nell'esecuzione di bots classificati con intenzioni ostili. Questo tipo di bot sono probabilmente anche il motivo per cui c'è stato un aumento dei cyber-attacchi e attacchi DDoS nel corso dell'anno passato.
"Il denominatore comune di questa tipologia è che tutti i presenti nella lista stanno cercando di assumere l'identità di qualcun altro", dice Incapsula. "Per esempio, alcuni di questi bot usa un browser user-agent, mentre altri cercano di farsi passare come bot o agenti di altri servizi legittimi come i motori di ricerca. L'obiettivo è sempre lo stesso quello di trovare una strada ch epossa aggirare le misure di sicurezza del sito".