Simon Experience

Simon Experience

Share this post

Simon Experience
Simon Experience
Dal click alla bolla: quando i bot spingono l’hype dell’intelligenza artificiale

Dal click alla bolla: quando i bot spingono l’hype dell’intelligenza artificiale

Come traffico artificiale e metriche gonfiate possono alimentare valutazioni insostenibili

Avatar di Simon Experience
Simon Experience
ago 04, 2025
∙ A pagamento
6

Share this post

Simon Experience
Simon Experience
Dal click alla bolla: quando i bot spingono l’hype dell’intelligenza artificiale
1
Condividi

Negli ultimi due anni le quotazioni di molte aziende tecnologiche, spinte dall’entusiasmo per l’intelligenza artificiale, hanno registrato rialzi eccezionali, in alcuni casi raddoppiando o triplicando il loro valore in tempi brevi. Titoli come Nvidia, Meta o Microsoft sono diventati simboli di questa corsa, sostenuti da aspettative di crescita e da metriche di utilizzo che sembrano confermare una domanda esplosiva.
Ma quanto di questi numeri è realmente il frutto di utenti e interazioni autentiche, e quanto invece è gonfiato dall’attività dei bot? Con oltre la metà del traffico internet globale ormai generato da sistemi automatizzati, e una quota rilevante di questi classificata come malevola, il rischio è che una parte dell’euforia sui mercati si basi su dati distorti. Questa ricerca indaga l’impatto dei bot sull’inflazione delle metriche digitali e le possibili implicazioni per la sostenibilità delle attuali valutazioni nel settore tech e AI.

Storia dei bot

I bot – programmi software che eseguono compiti automatizzati – fanno parte di Internet da decenni. Uno dei primi chatbot, ELIZA del MIT (1966), imitava uno psicoterapeuta nelle conversazioni testuali. Tre decenni dopo, l’assistente animato di Microsoft “Clippy” (introdotto nel 1997) portò un volto amichevole, seppur talvolta fastidioso, all’automazione. Questi primi bot erano in gran parte innocui o utili. Tuttavia, a metà degli anni 2010, i bot presero una piega più oscura. Durante la campagna presidenziale statunitense del 2016, l’uso dei bot sui social media raggiunse una scala e una sofisticazione mai viste prima. Migliaia di account automatizzati, spesso programmati per sembrare utenti reali, furono attivati per amplificare contenuti politici polarizzanti, diffondere notizie false e rilanciare messaggi di propaganda. Twitter, in particolare, divenne terreno fertile per questa attività a causa della sua architettura aperta, che consentiva ai bot di interagire facilmente con gli hashtag di tendenza, rispondere a discussioni e generare un volume di traffico tale da far sembrare certi argomenti più popolari e urgenti di quanto fossero in realtà.

Molti di questi bot operavano in reti coordinate, dette “botnet”, in grado di rilanciare lo stesso contenuto migliaia di volte in pochi secondi, influenzando così gli algoritmi di raccomandazione e la visibilità delle informazioni. Alcuni studi successivi, condotti da università e centri di ricerca, hanno evidenziato che una parte significativa delle interazioni politiche online in quel periodo proveniva da account non umani, spesso gestiti dall’estero con l’obiettivo di influenzare l’elettorato.

Questa strategia ebbe un duplice effetto: da un lato, creò un’illusione di consenso attorno a certe idee o candidati; dall’altro, contribuì a frammentare il dibattito pubblico, alimentando sfiducia, ostilità e confusione. La campagna del 2016 segnò quindi un punto di svolta: i bot, fino ad allora percepiti come strumenti tecnici o di intrattenimento, si affermarono come armi digitali in grado di alterare la percezione della realtà e, potenzialmente, influenzare processi democratici su larga scala.

Dal benigno al malevolo: la svolta oscura dei bot

Oggi i bot sono onnipresenti online – e non tutti sono amichevoli. Nel 2024, per la prima volta da quando esistono rilevazioni, il traffico generato da bot automatizzati ha superato quello generato dagli esseri umani sul web. Più del 51% di tutto il traffico internet nel 2024 proveniva da bot. È importante sottolineare che non tutti i bot sono malevoli (i crawler dei motori di ricerca e i chatbot possono essere utili), ma una parte significativa lo è. I dati più recenti mostrano che i “bad bot” malevoli – ossia quelli impegnati in attività dannose – hanno rappresentato il 37% di tutto il traffico internet nel 2024 (in aumento rispetto al 32% dell’anno precedente). In altre parole, oltre un terzo di tutta l’attività online oggi ha origine da programmi automatizzati con intenzioni nocive.

Picture1 2
Composizione del traffico internet globale nel 2024. Fonte: Imperva Bad Bot Report

Cosa fanno questi bad bot?

Molti danni. I bot malevoli vengono utilizzati per attività come frodi pubblicitarie, clic falsi, scalping e spam. Ad esempio, possono generare visualizzazioni di pagina, clic, impression e persino intere sessioni utente false su siti web, creando l’illusione di un coinvolgimento umano che in realtà non esiste. Gli inserzionisti finiscono così per pagare per un “traffico” inesistente, mentre le aziende registrano dati analitici gonfiati. I bot dedicati alle frodi pubblicitarie rappresentano un problema enorme: cliccano su annunci pay-per-click o imitano il comportamento degli utenti, facendo sprecare alle aziende budget pubblicitari per utenti inesistenti. Le società di cybersicurezza (che hanno un interesse diretto nel segnalare il problema) stimano che le frodi pubblicitarie e schemi simili basati sui bot costino alle aziende decine di miliardi di dollari ogni anno – alcune valutazioni parlano di “centinaia di miliardi di dollari l’anno” a livello globale. Solo nel 2023, le frodi pubblicitarie digitali sono costate alle imprese circa 88 miliardi di dollari (e si prevede che raddoppieranno a oltre 170 miliardi entro il 2028). Oltre alle pubblicità, i bad bot effettuano scraping di dati, prendono il controllo di account utente, pubblicano recensioni false e acquistano beni a disponibilità limitata (come biglietti per concerti) in pochi millisecondi. Tutto ciò altera i mercati e le metriche online, imponendo costi economici concreti. Gli attacchi automatizzati di bot contro siti web e API costano alle organizzazioni miliardi di dollari ogni anno in termini di carichi aggiuntivi sulle infrastrutture, vendite perse e spese per la cybersicurezza.

L'IA e il dilemma della sostenibilità: un settore a rischio?

L'IA e il dilemma della sostenibilità: un settore a rischio?

Simon Experience
·
Feb 24
Read full story

Metriche web gonfiate e “vanity metrics”

Uno degli effetti più preoccupanti del traffico massiccio generato dai bot è l’inflazione delle principali metriche web – proprio quei numeri utilizzati per misurare il successo di un’attività online. I bot possono facilmente alterare indicatori come visite al sito, tassi di clic, numero di conversioni e registrazioni di utenti. Per startup e aziende tecnologiche, queste metriche rappresentano spesso “vanity metrics” esibite per impressionare investitori o media. Non è raro che una giovane azienda dichiari milioni di download o di iscrizioni. Ma cosa accade se una parte consistente di questi dati è generata o gonfiata dai bot? In molti casi, queste statistiche sono auto-dichiarate e non sottoposte a verifiche indipendenti, il che rende semplice per il traffico automatizzato aumentarle artificialmente.

Questo ha creato un pericoloso circolo vizioso nell’ecosistema tecnologico. Le aziende presentano dati utente positivi (magari incrementati da attività automatizzate); gli investitori si basano su queste metriche per valutare l’azienda e decidere dove allocare capitali. Il risultato: metriche di crescita artificiale possono attrarre capitali reali verso un business. Dati falsi o gonfiati possono fornire un’immagine distorta della reale solidità di un’azienda. Un’applicazione potrebbe dichiarare una crescita spettacolare in utenti o interazioni, mentre in realtà gran parte di quell’“attività” proviene da click farm o bot. Investitori, abbagliati dai grandi numeri, possono così finanziare un’impresa che non ha un reale seguito. Questo fenomeno ricorda quanto accaduto durante la bolla dot-com, quando le aziende venivano valutate in base a “eyeballs” e clic – ma oggi la distorsione è amplificata dai bot.

Le startup sono particolarmente vulnerabili a questo meccanismo. Nella corsa a dimostrare trazione, alcune possono (consapevolmente o meno) beneficiare di incrementi statistici generati da bot. Ad esempio, script automatizzati possono creare account falsi o simulare azioni utente. Un’analisi avverte che molte startup SaaS presentano una percentuale significativa di registrazioni fasulle, che comportano spreco di risorse di vendita e falsano le metriche di conversione. Il rischio è che la valutazione di un’azienda (sia nei round privati sia in sede di IPO) possa basarsi su dati di coinvolgimento non del tutto reali. Quando la realtà emerge – cioè quando diventa chiaro che quegli utenti o clic non si trasformano in clienti effettivi – la valutazione può crollare bruscamente.

Maxi riassuntone della questione Deep Seek

Maxi riassuntone della questione Deep Seek

Simon Experience
·
Feb 12
Read full story

Il boom dell’IA: si sta formando una bolla?

Continua a leggere con una prova gratuita di 7 giorni

Iscriviti a Simon Experience per continuare a leggere questo post e ottenere 7 giorni di accesso gratuito agli archivi completi dei post.

Già abbonato a pagamento? Accedi
© 2025 Simon Experience
Privacy ∙ Condizioni ∙ Notifica di raccolta
Inizia a scrivere.Scarica l'app
Substack è la casa della grande cultura

Condividi