di Luca Del Faro (Bet17)
Negli ultimi mesi sta emergendo un fenomeno che sta trasformando in profondità l’ecosistema dei contenuti online: la comparsa di influencer completamente artificiali.

Non parliamo più di semplici avatar, ma di figure digitali dotate di un volto realistico, una voce convincente e un modo di comunicare che replica quasi perfettamente quello umano. Il punto critico è che molti utenti non si accorgono della natura artificiale di questi personaggi: dietro lo schermo non c’è una persona, ma un modello di intelligenza artificiale che genera ogni parola, ogni espressione, ogni gesto.
Questi agenti digitali stanno proliferando in più lingue, su piattaforme diverse e su temi delicati come politica, salute, spiritualità e attualità. La loro crescita è rapidissima, segno di un settore che si sta industrializzando a vista d’occhio. Oggi chiunque può creare il proprio influencer virtuale: esistono servizi che offrono avatar pronti all’uso, voci sintetiche personalizzabili, testi generati automaticamente e sistemi capaci di pubblicare video in serie.
Insomma bastano pochi clic per costruire un presunto esperto che parla con sicurezza di qualunque argomento, anche senza alcuna competenza reale, spesso diffondendo contenuti presentati come veri pur essendo infondati.
Le motivazioni che alimentano questo fenomeno possono essere diverse e con fini differenti; ne cito alcune senza un ordine di importanza. La prima è economica: gli avatar permettono di produrre contenuti senza sosta, in più lingue e su più canali, generando visualizzazioni, traffico e introiti pubblicitari con costi minimi e una produzione potenzialmente infinita.
Un’altra riguarda la disinformazione: un volto rassicurante, una voce fluida e un tono sicuro creano un’immediata impressione di autorevolezza, e molti spettatori non distinguono tra competenza reale e competenza simulata.
Una terza motivazione è la costruzione artificiale del consenso: coordinando più avatar si può simulare un movimento, una tendenza o un’opinione condivisa, anche se in realtà non esiste, sfruttando il meccanismo psicologico del: “se lo dicono in tanti, allora dev’essere vero”.
A tutto questo si aggiunge un problema strutturale: un avatar non ha una reputazione da difendere. Se diffonde sciocchezze, o falsità basta cambiargli volto e nome per ricominciare da zero. E poi c’è l’effetto saturazione: quando un trend esplode, la produzione massiva di contenuti simili genera un rumore di fondo che rende sempre più difficile distinguere ciò che è affidabile da ciò che non lo è. In questo caos informativo, la verità rischia di diventare solo una voce tra le tante.
La parte più interessante — e più inquietante — è che questi avatar non sono soltanto strumenti tecnici, ma vere e proprie interfacce sociali. Parlano come noi, si muovono come noi, imitano i nostri segnali di autenticità. Quando la forma diventa indistinguibile dalla realtà, il contenuto passa senza filtri. La soglia di realtà si assottiglia, e questo cambia le regole del gioco.

La produzione infinita altera profondamente l’ecosistema informativo: quando tutto è contenuto, niente è contenuto. La quantità diventa una forma di potere, e chi può produrre senza stanchezza, senza scrupoli e senza identità può occupare lo spazio informativo fino a soffocare il resto. L’autorevolezza simulata diventa un’arma potentissima: gli esseri umani sono predisposti a fidarsi di volti, voci e narrazioni coerenti, e il cervello tende a credere prima ancora di valutare. È un bug cognitivo, e questi sistemi lo sfruttano con precisione chirurgica.
Il consenso sintetico è già una realtà: non serve convincere davvero le persone, basta far sembrare che tutti siano convinti. La pressione sociale fa il resto. È un meccanismo antico, ora replicabile su scala industriale grazie alla moltiplicazione automatica di contenuti digitali. E la vera sfida, a questo punto, non è tecnologica ma culturale. La tecnologia corre, ma la cultura digitale non tiene il passo. Riconoscere questi format, capirne i meccanismi e non farsi abbagliare dall’apparenza è la nuova alfabetizzazione. Non è allarmismo: è igiene mentale.
Oggi questi sistemi hanno ancora bisogno di qualcuno che li avvii e li guidi. Ma la ricerca sta avanzando verso modelli capaci di automatizzare sempre più fasi della produzione e della diffusione dei contenuti, sino a escludere la presenza di un umano nel processo.
È qui che nasce il vero problema: quando non riconosceremo più chi parla o chi scrive, capire perché lo fa sarà molto più difficile. La sfida non sarà fermare la tecnologia, ma saper interagire con essa preservando le capacità che ci permettono di interpretarla senza esserne sopraffatti.
Ecco un esempio già presente su YouTube:
Articolo di Luca Del Faro (Bet17)




































