martedì 10 ottobre 2023
Tra collaborazione e concorrenza, rischi e opportunità i mestieri legati ai contenuti editoriali s’interrogano su cultura, economia ed etica di fronte all’intelligenza artificiale
La sfida di ChatGPT ad autori ed editori

unsplash

COMMENTA E CONDIVIDI

Anticipiamo un saggio del libro Arrivano i robot. Riflessioni sull’intelligenza artificiale (coedizione Interlinea- Educatt, pagine 112, euro 14,00) che raccoglie interventi di docenti dell’Università Cattolica, dove viene presentato mercoledì 11 ottobre alle ore 18,30 in occasione del festival della Dignità umana (www. festivaldignitaumana.com). Tra gli autori, Fausto Colombo, Ciro De Florio, Claudio Giuliodori, Silvano Petrosino, Giuseppe Riva, Pier Cesare Rivoltella E Antonella Sciarrone Alibrandi che firma l’introduzione.

«Qual è il formato dell’enciclopedia che dobbiamo dare a una macchina perché possa scrivere (e quindi capire, ovvero saper leggere) una fiaba», ma senza cadere in loop narrativi più o meno tragici o comici? È l’interrogativo di Umberto Eco in una delle sue Norton Lectures intitolate Sei passeggiate nei boschi narrativi: il quesito torna attuale con l’invasione della AI in grado di creare contenuti, discutere e rispondere all’utente, ChatGPT.

In effetti le chatbot rivoluzionano e mettono in crisi il concetto di sapere proprio a partire dall’idea di enciclopedia, dal semiologo immaginata di formato «massimale» se registra non solo «ciò che è vero ma tutto ciò che socialmente è stato detto», proprio come le nuove conversazioni generative robotizzate dell’intelligenza artificiale con cui oggi si può essere informati di tutto senza sapere nulla, com’è stato detto.

Il ragionamento di Eco poggia su un saggio del 1984, The Cognitive Computer di Roger C. Schank e Peter G. Childers: infatti negli anni ’80, che ormai sembrano preistoria non solo a livello informatico, le AI parevano già degli enormi elaboratori di dati da utilizzare per creare nuovi testi, sia pure a livello compilativo e del tutto sperimentale. Quarant’anni dopo, l’esplosione di un’intelligenza artificiale generativa di consumo, alla portata di tutti, consente non solo agli studenti di ottenere in pochi attimi temi già pronti in un italiano più che corretto, ma soprattutto di demandare alla macchina funzioni complesse nella gestione dei contenuti, che in editoria vanno dalla scrittura alle traduzioni e al controllo delle fonti, alla correzione automatica e alla creazione di immagini e grafica, per stare all’ambito redazionale e alla superficie della questione.

Il testo è naturalmente il cuore sia della mediazione culturale attuata dall’editoria sia dell’innovazione con queste «macchine di linguaggio», e c’è chi ha iniziato a far la prova e a impiegarle in sostituzione di risorse umane. Soprattutto nell’ambito dell’informazione, alcune aziende utilizzano l’AI per la raccolta di notizie che poi vengono corrette o riassunte e ricreate in specifici formati o per pubblici differenti, a seconda della richiesta, in tempo reale (un esempio su tutti, il “New York Times” utilizza l’apprendimento automatico per decidere quali articoli mostrare gratuitamente prima di raggiungere il paywall).

Così i creatori di contenuti sono comprensibilmente allarmati, non solo per gli spazi erosi del lavoro umano ma anche per la difficoltà di garantire e distinguere i diritti d’autore di quanto utilizzato, rielaborato e creato ex novo: negli Usa sono numerosi i casi di citazioni in tribunale di OpenAI, l’ente di ricerca alla base di ChatGPT, mentre la UE ha in via di definizione l’Artificial Intelligence Act. Sempre il “New York Times”, che in qualche modo è la testata di riferimento sull’argomento, ha recentemente vietato alle società che producono software di AI l’utilizzo di suoi contenuti per istruire i software stessi.

Occorre raggiungere trasparenza sui testi sotto copyright e un corretto uso nella raccolta dati (text and data mining): soltanto così, se utilizzata responsabilmente, l’intelligenza artificiale può essere un ottimo aiuto al lavoro editoriale. Al XVIII Congresso ISMPP di Washington di editoria medica è stato calcolato quanto la sinossi di articoli scientifici richieda mediamente oltre 100 minuti rispetto ai circa 150 secondi di GPT per un risultato ottimale, seppure da rivedere a cura di un editor professionista. Emerge allora un primo punto collaborativo e non concorrenziale dell’AI: offrire in poco tempo un materiale editoriale sgrossato su cui lavorare.

Il contributo per l’allestimento di alcuni dei tradizionali elementi paratestuali di un libro è forse l’apporto più immediato della nuova tecnologia: se è scontato per la sinossi nell’aletta di presentazione di un romanzo o di un saggio, lo è probabilmente meno per l’immagine di copertina, con modelli personalizzabili per l’utilizzo in catena, ad esempio di una collana graficamente omogenea. Tale produzione è stata affidata all’AI in alcuni casi già dal 2022: da “Cosmopolitan” negli Usa agli “Oscar Fantastica” di Mondadori in Italia.

I primi risultati sono discontinui – alla richiesta di pulire un muro in una foto la nostra AI magari all’inizio restituisce in mezzo anche l’immagine di una fioriera – ma spesso stupefacenti, grazie a un’adeguata formazione del personale nella composizione dei prompt, le domande da fare ai vari Midjourney o Dall-e 2 o GPT4. Alcuni strumenti basati sull’AI possono poi migliorare il processo di peer review per saggi e riviste scientifiche e supportare autori, editor e revisori per migliorare la qualità finale dei prodotti identificando alcune criticità dei manoscritti o dei preprint, pur non essendo al momento in grado di offrirne una valutazione profonda.

Per non parlare delle traduzioni, sempre più accurate: parrebbe che una AI possa tradurre dal giapponese all’inglese con una velocità fino a 500 volte superiore rispetto a un essere umano con un buon livello di accuratezza stilistica e un alto grado di attendibilità.

Un altro impiego positivo riguarda le azioni a favore dell’accessibilità, per agevolare la produzione di descrizioni alternative necessarie per far comprendere immagini o testi complessi, non soltanto scolastici, a lettori con disabilità secondo le linee guida di European Accessibility Act.

Spostandosi dalla gestione dei contenuti ad altre fasi della filiera, l’AI può aiutare ad automatizzare le promozioni sui prezzi degli e-book o prevedere il potenziale pubblico di lettori di un inedito sulla base delle caratteristiche del testo e dei dati di vendita di pubblicazioni precedenti dell’autore, operando così negli aspetti di marketing ed economics. Alcune piattaforme assicurano di fornire servizi integrati che vanno dalla raccolta dei dati più rilevanti fino al monitoraggio delle informazioni sui trend di interesse per scrivere contenuti mirati. I nuovi modelli di business riguardano quindi produzione, servizi – migliorati o creati appositamente – e progetti nuovi, sebbene forse ci sarà una sovraesposizione di idee creative omogenee nelle mani di tutti.

Che poi l’AI possa avere le «allucinazioni», perché i modelli hanno una certa tendenza a produrre falsità e a perpetuare alcuni stereotipi spesso impliciti (dall’associazione di situazioni a fenotipi umani standard fino alle offese di tipo razziale o religioso), è una consapevolezza e un’attenzione che l’editor che decide di usarli deve avere dal principio. Non a caso «Intelligenze artificiali e Pace» è il tema del Messaggio per la Giornata Mondiale della Pace 2024, in cui papa Francesco ha sollecitato un dialogo aperto sul significato delle nuove tecnologie, «dotate di potenzialità dirompenti e di effetti ambivalenti», richiamando «la necessità di vigilare e di operare affinché non attecchisca una logica di violenza e di discriminazione nel produrre e nell’usare i dispositivi, a spese dei più fragili e degli esclusi».

Ma oltre a questi bias impliciti un altro problema è il lavoro umano noiosissimo per nutrire l’AI di data labeling, cioè di catalogazione che permette di convertire una realtà complessa in codice comprensibile alla macchina, spesso tramite piattaforme collaborative che impiegano manodopera sottopagata in Paesi in via di sviluppo, con questioni politiche ed etiche aperte. Il problema di fondo è “dove” e “come” prendere e trattare i dati che nutrono l’AI e sulla base dei quali essa apprende nel suo addestramento, ben oltre le implicazioni di copyright e privacy. Se è vero (come ricorda Gino Roncaglia, studioso della Quarta rivoluzione e dell’Età della frammentazione, per usare le definizione di suoi due titoli) che «la rete generativa non copia, ma crea», è anche vero che la base di dati influenza sostanzialmente il prodotto generato e ciò crea preoccupazioni negli editori legate al contesto normativo: sul processo di raccolta automatizzata dei dati, sull’estrazione e riutilizzo dei testi per quanto riguarda la proprietà intellettuale e i diritti connessi.

Nella convinzione che comunque non serve avversare ma capire, il panorama che si apre per gli editori e per gli autori è denso di implicazioni che riguardano innanzi tutto il concetto stesso di «testo» e la ricerca del senso del sapere, di cui ha recentemente scritto un bel saggio Alessandro Carrera, notando che esso non è «né l’istruzione ricevuta né la somma dei libri letti». Secondo lui l’attuale infatuazione globale verso ChatGPT rende imprescindibile la differenziazione tra cultura, talvolta nozionistica, e ciò che resiste alla cultura, appunto il sapere, che deve diventare un privilegio democratico di tutti per «introdurre alla visione delle idee».

Nell’interazione tra algoritmo e libri serve perciò una tecnologia che sia sociale in un contesto come quello editoriale che è per sua stessa costituzione a servizio della cultura e della società ed è un’intermediazione consapevole, perché il sapere non è mai neutrale. E non serve avere più informazioni ma interpretarle per vivere meglio.

Dopotutto i sistemi massivi di AI sono una rivoluzione cognitiva e non possono fare a meno di un discorso ontologico che abbia al centro l’essenza umana al di là delle interconnessioni tra neuroscienza e robotica. Il requisito di base è che sia sempre la persona a controllare l’AI e non il contrario, perché ogni tecnologia ci può migliorare e cambiare se la usiamo con coscienza.

© Riproduzione riservata
COMMENTA E CONDIVIDI