Nell'era dei chatbot l'informazione è comunità e ricerca di senso
L’analisi del Reuters Institute sul giornalismo: sempre più decisive saranno la qualità, l'affidabilità e la capacità di generare fiducia con contenuti originali e trasparenti

Se la velocità nel dare le notizie non sarà più un vantaggio competitivo, come potrà sopravvivere il giornalismo nell’era dell’intelligenza artificiale? La sua influenza e la sua efficacia dipenderanno dall’affidabilità dei contenuti prodotti, dall’avere una voce e una linea editoriale riconoscibili e dalla capacità di offrire senso alla complessità della realtà, in un ecosistema informativo che oggi è sempre più automatizzato e dominato da algoritmi. Il giornalismo oggi può e deve reinventarsi per essere coinvolgente e pertinente, senza rinunciare alla sua funzione pubblica e sociale. «L’informazione è un bene pubblico», ha rimarcato anche papa Leone XIV nell’ultimo messaggio per la giornata delle comunicazioni sociali: «La fiducia del pubblico si conquista con l’accuratezza, con la trasparenza» e «non con la rincorsa a un coinvolgimento qualsiasi». Nelle scorse settimane, il Reuters Institute for the Study of Journalism, con la sua annuale analisi sulle tendenze dell’industria dell’informazione per il 2026 ha cercato di offrire delle previsioni, tratteggiando la linea di resistenza sulla quale possono muoversi i giornalisti e gli editori nell’era dell’intelligenza artificiale. In un ecosistema digitale dominato dagli algoritmi, c’è la necessità di concentrarsi sulla riprogettazione delle attività, investendo in formati multipli, soprattutto video, adattando i propri contenuti per renderli più “liquidi”, più facili da personalizzare e riutilizzare. La scelta indicata è quella di privilegiare contenuti originali, tra cui inchieste e reportage sul campo, analisi e lavori di spiegazione contestuale che aiutino ciascun lettore, ascoltatore o semplicemente abbonato a comprendere la complessità della realtà, ma anche storie umane, legate alle esperienze delle persone, fondamentali per stabilire una connessione emotiva autentica con il proprio pubblico. Tra i diversi e concatenati fattori che hanno portato a questo cambio di paradigma nell’ambito dell’informazione va considerata, in primis, la rapida trasformazione del modo in cui il pubblico trova e fruisce le notizie. Il traffico dai motori di ricerca sta diminuendo drasticamente, poiché gli “Answer Engine”, i motori di risposta o conversazionali basati sull’intelligenza artificiale forniscono riassunti direttamente agli utenti. Dopo la parola SEO, oggi ci si deve abituare alla AEO, (Answer Engine Optimisation) che è l’ottimizzazione per i motori conversazionali basati sull’IA: nei prossimi tre anni è previsto un calo di oltre il 40% del traffico generato dalle ricerche su Google, sostituito dalle risposte automatizzate dei motori conversazionali. In altre parole, l’IA che produce testi a costo quasi zero rende il volume irrilevante come vantaggio competitivo, riducendo le notizie dei beni informativi indifferenziati (commodity). Produrre di più non genera automaticamente più valore; essere più veloci non garantisce maggiore visibilità; competere sul volume significa confrontarsi con macchine e piattaforme, e quindi perdere. Questo stesso ragionamento è valido per la velocità: oggi le notizie circolano ovunque in tempo reale. L’IA eccelle proprio in rapidità, sintesi e aggiornamento continuo. E il giornalismo se punta solo sulla velocità si ritrova a rincorrere un flusso che non controlla e ne esce di nuovo sconfitto.
Quel flusso di notizie è lo stesso da cui fuoriescono frammenti di informazione, che siano video su YouTube, reel su Instagram o notizie online. Ma cosa accade al concetto di responsabilità se il giornalismo viene consumato in frammenti e senza che il pubblico si imbatta mai nella fonte originale? Secondo Nic Newman, ricercatore senior al Reuters Institute for the Study of Journalism le implicazioni di questo cambiamento sulla fiducia sono profonde. «Quando le persone accedono a frammenti di informazioni nei chatbot di intelligenza artificiale o in frammenti di social media, spesso perdono il quadro completo che un’analisi ben strutturata può offrire». La frammentazione, sostiene Newman, non si limita a semplificare storie complesse, ma erode i segnali che aiutano il pubblico a giudicare, in primo luogo, l’affidabilità. Nel giornalismo tradizionale, il marchio, il formato e il contesto editoriale hanno sempre agito come indicatori di responsabilità. I lettori sapevano chi aveva prodotto un articolo giornalistico e chi poteva essere ritenuto responsabile in caso di errori. Negli ambienti mediati dall’intelligenza artificiale, questi segnali scompaiono. Se da un lato ha senso capire come utilizzare al meglio l’intelligenza artificiale generativa nella raccolta, nel confezionamento e nella distribuzione delle notizie, dall’altro dobbiamo ricordarci anche cosa l’IA non è in grado di fare. L’intelligenza artificiale non decide le priorità editoriali, non garantisce affidabilità da sola, non costruisce una relazione di fiducia con il pubblico e di sicuro non è in grado di sostituire il fact-checking e la verifica delle notizie, con almeno due fonti indipendenti, che, invece, rimane la principale responsabilità dei giornalisti. Perché l’informazione resti non solo rilevante, ma si distingua per qualità e affidabilità nel mare magnum di notizie sintetiche, prodotte dai chatbot o replicate in serie, ha senso virare su canali diretti, come newsletter, app, podcast, eventi e tutto ciò che si può trasformare in capacità di stringere relazioni, di fare comunità. In questo modo, il rapporto con il pubblico non è più mediato da algoritmi, ma si costruisce sulla base della fiducia, dell’abitudine e dell’identità. Chi riesce a tessere e far crescere le relazioni con la propria comunità può difendersi dalla disintermediazione dell’IA e mantenere una propria autonomia editoriale, capace di assumersi responsabilità e di offrire un senso al mondo complesso in cui viviamo.
© RIPRODUZIONE RISERVATA
Temi






