Vi è mai capitato di leggere una notizia dietro la quale si celava, nemmeno tanto bene, un messaggio commerciale? Probabilmente sì, forse non sempre ve ne siete accorti subito ma solo in un secondo momento. E’ il caso classico di una comunicazione che punta su una notizia da veicolare assieme ad altre che poi sono quelle che interessano davvero il comunicatore. Perché possono incidere e influenzare il lettore/lettrice. E non solo.
Non accade solo nella propaganda politica ma sempre più spesso anche nel settore commerciale. Ed è proprio questo il sospetto aleggia su alcune informazioni legate a due grandi vendor di sistemi LLM, Anthropic e Open AI, che potrebbero determinare – volontariamente o no – sofisticate strategie di comunicazione e marketing. Una comunicazione orientata legittimamente a conquistare spazio sui media ma, di fatto, potenzialmente capace di manipolare anche la GEO (la Generative Engine Optimization) delle intelligenze artificiali.
Allora, come può difendersi chi vuole informarsi? Coltivando il dubbio e facendo – sempre se si ha il tempo per farlo – un’analisi critica dei fatti eseguita con metodo.
Ma facciamo un salto indietro ed entriamo nel merito. Nei primi mesi del 2026 e fino alla prima metà di aprile due società dell’hi-tech che commercializzano sistemi di AI di tipo LLM, Anthropic e Open AI, si sono guadagnate i principali titoli dei giornali.
Inizialmente ciò è avvenuto in relazione ai loro rapporti con il Pentagono e ai contratti con la Difesa (stralciati per una e supportati per l’altra) con le relative notizie rimbalzate su quasi tutti i quotidiani internazionali e nazionali.
Successivamente altri articoli su Claude Code, Claude Mythos, su Chat GPT-Rosalind ci hanno raccontato – nelle pagine di tecnologia e cyber security delle maggiori testate mondiali e nazionali – di incidenti di sicurezza o esfiltrazione di dati, capaci di portare alla divulgazione involontaria i parti di codice di un LLM o di funzioni di questo o quell’LLM.
Le notizie di questi incidenti cyber in un caso hanno dato modo all’azienda di illustrare nuove funzionalità del loro prodotto – descritte talmente potenti nell’offensive cyber security e nella scoperta di vulnerabilità da richiederne addirittura una commercializzazione controllata. Molte testate estere importanti (BBC, Time, Fortune etc) e a seguire anche alcun testate italiane, hanno riportato queste informazioni concentrandosi soprattutto sulle funzionalità “misteriose” o future dei prodotti AI, più che sui reali danni causati dagli incidenti.
Tuttavia, un’analisi approfondita della catena di tutti gli avvenimenti denunciati nel periodo a cavallo fra gennaio 2026 e aprile, permette di sollevare qualche lecito dubbio sulla dinamica delle notizie circolate sui media e in rete, E fa ipotizzare che questo “valzer” di incidenti cyber non sia poi così scollegato da una strategia comunicativa mirata ad alimentare la visibilità di un LLM contro il diretto concorrente.
Ma quale è stato l’impatto reale degli incidenti e quanto sono concrete le straordinarie capacità offensive di questi nuovi LLM? E poi: siamo davvero davanti a mere notizie-marketing? Quello che è accaduto di certo non fa dissolvere i dubbi.
E’ andata così: l’episodio emerge, genera copertura rapida, introduce un nuovo termine o prodotto nel dibattito pubblico e si esaurisce senza conseguenze reali: nessuna indagine, nessuna sanzione, nessuna fonte identificabile. Al posto di notizie verificabili, circolano frasi coniugate al condizionale del tipo “il codice sarebbe circolato”, dove non c’è mai un responsabile preciso. Il resto lo hanno fatto i modelli linguistici sui social amplificando questo meccanismo in modo automatico e acritico, rimbalzando la parte più spettacolare delle notizie.
L’autorevole giornalista Florent Daudens, specializzato in Intelligenze artificiali, da parte sua fa notare come “la decisione di Anthropic di non rendere pubblico il suo modello Claude Mythos rispecchia la strategia adottata da OpenAI nel 2019, quando limitò l’accesso a GPT-2 per presunte ragioni di sicurezza” (Fonte Daudens).
Anche test indipendenti come ad esempio quello dello UK AI Security Institute (AISI) ridimensionano le capacità di almeno una delle due LLM (Claude Mythos) smontando di fatto l’allarmismo sollevato attorno alle presunte potenzialità di offensive security, mostrando come le vecchie vulnerabilità possano facilmente prestarsi ad una scoperta e allo sfruttamento da parte di strumento automatizzati (Fonte Hwupgrade).
D’altra parte, non è un segreto che Anthropic dopo l’allontanamento dal Pentagono abbia avuto un picco di gradimento e alti numeri in borsa, mentre Open AI dopo aver firmato il contratto con la Difesa americana abbia registrato un aumento delle disinstallazioni iniziando a perdere clienti.
Quel particolare momento ha generato volatilità dei mercati e dinamiche economiche divergenti per le due compagnie e non è da escludere che quanto avvenuto nei primi mesi del 2026 possa essere stato voluto proprio per recuperare fette di mercato e clienti.
Così, per un’accurata analisi ed interpretazione degli avvenimenti in un’ottica complessiva abbiamo sentito Daniele Chieffi, giornalista e docente universitario ed esperto di comunicazione istituzionale, e due esperti in materia di AI: Enrico Frumento, ricercatore del Centro di innovazione digitale Cefriel, e Carlo Ferro, professore assistente al Politecnico di Torino.
Quando la dinamica informativa risulta fuorviante
Gli episodi raccontati come incidenti sono sintetizzati nelle osservazioni puntuali di Enrico Frumento: “Dal 1° aprile in poi si è registrata una concentrazione insolita di episodi presentati come incidenti: diffusione non autorizzata di porzioni di codice di Claude Code, indiscrezioni su Claude Mythos, e analoghe fughe attribuite a OpenAI. Le testate hanno trattato ciascun episodio come una notizia a sé, e i modelli linguistici sui social li hanno amplificati seguendo la logica dell’hype, senza verificare la concatenazione temporale”.
Altri particolari sono forniti da Carlo Ferro: “Dai riscontri pubblici sappiamo che una release (un rilascio di codice, n.d.r.) ha incluso per errore una mappa del codice sorgente con ampia parte del codice TypeScript. Anthropic ha parlato di errore di packaging (modo di impacchettare il codice per il rilascio di installazione, n.d.r.) e non di breach (violazione), precisando che non risultavano esposti dati sensibili o credenziali. Il punto interessante è che il racconto mediatico si è spostato quasi subito dall’incidente in sé a ciò che la fuga di dati lasciava intravedere: feature non annunciate, memoria, agenti sempre attivi, perfino dettagli ‘folkloristici’ come il pet interno”.
Il meccanismo sembra ripetersi in rapida successione. Spiega Carlo Ferro: “Pochi giorni dopo, il 7 aprile, Anthropic ufficializza Project Glasswing e Claude Mythos Preview, riservato a partner selezionati e non destinato alla disponibilità generale. Su OpenAI il quadro non è identico, ma il meccanismo di percezione è simile: il 10 aprile la società ha pubblicato una disclosure su una compromissione della supply chain legata ad Axios che toccava il workflow di firma delle app macOS, incluso ChatGPT Desktop, mentre nello stesso periodo continuava il normale flusso di annunci di prodotto e di business”.
La sintesi è legata ad un preciso storytelling. “In…
#Adessonews seleziona nella rete articoli di particolare interesse.
Se vuoi leggere l’articolo completo clicca sul seguente link
Alessia Valentini
Source link


