Senza collaudi, per i ragazzi le chatbox più dannose dei social
giovedì 1 giugno 2023

I social media hanno condotto un gigantesco esperimento psicosociale sulla generazione dei nostri figli. Per ora, i risultati non sono buoni. Se la maggior parte dei genitori sospettava che le reti social “facessero male”, ai loro ragazzi, ora sanno che è vero. La massima istituzione medica statunitense (il Surgeon general) ha aggiunto l’uso costante di Facebook, Instagram e TikTok al fumo, alla guida in stato di ubriachezza e all’obesità nella lista dei «gravi pericoli per la salute e la sicurezza». Guardare per ore foto e video e contare i “mi piace” interferisce con lo sviluppo cerebrale dei giovani, crea dipendenza e aumenta esponenzialmente il rischio di ansia e depressione.

Il tempismo dell’avvertimento con l’uscita della versione 4 di ChatGPT suona come un richiamo a non ripetere l’errore dei social con i robot che ci raccontano storie, ci erudiscono e ci intrattengono come se fossero persone. A sottolinearlo, però, si rischia di passare da reazionari e di essere zittiti dal coro degli entusiasti che osanna il potenziale miracoloso dell’intelligenza artificiale e la capacità umana di separare il grano dalla pula. La storia in effetti insegna che la società si è adattata a ogni nuovo strumento di computo e di comunicazione, assorbendone problemi e vantaggi, anche quando i primi hanno superato i secondi. Ma ci insegna anche che nessuna nuova tecnologia ha realizzato le speranze espresse al suo nascere. Nonostante Internet, Siri e i traduttori automatici, gli esseri umani non sono molto più produttivi, faticano ancora a capirsi, vanno ancora in guerra, devono ancora svolgere lavori tediosi e in troppi hanno ancora minimo accesso a un’istruzione di base. La fretta di catapultarsi verso nuovi orizzonti non è giustificata.

Un altro fatto si è ripetuto nel tempo: spinta dalla logica del massimo profitto, ogni nuova tecnologia di comunicazione e condivisione ha invaso la società prima di essere studiata e compresa. È andata ben diversamente negli ambiti in cui i rischi per gli esseri umani sono visibili e immediati, dove collaudi e controlli sono aumentati in proporzione alla crescita del pericolo. Non c’erano test di sicurezza per le carrozze, ma oggi non immettiamo sul mercato un’auto se non ha superato rigorosi collaudi, né somministriamo medicine non approvate da organismi indipendenti. La riflessione da fare, dunque, non è dirsi che la paura della disinformazione esiste dall’invenzione della stampa, ma chiedersi se da Gutenberg all’intelligenza artificiale i rischi sono aumentati e cercare di capire quali sono.

Per cominciare, i sistemi di apprendimento del linguaggio come ChatGPT non sono pronti a un uso indiscriminato. Sam Altman, Ceo dell’impresa che ha creato GPT, OpenAi, ha ammesso che la nuova tecnologia è «profondamente imperfetta » e che permettere il suo uso di massa è come lanciare un esperimento che può creare «danni significativi» su scala «maggiore di Internet». La sua azienda non ha però nessuna intenzione di rallentare la commercializzazione del suo prodotto. L’unico freno allo sviluppo di IA, per ora, è il suo costo. Addestrare GPT-4, fra raccolta dati, potenza di calcolo, elettricità e manodopera è costato oltre 100 milioni di dollari. Erano 4,6 con la versione precedente. Un progresso esponenziale e accelerato di questo tipo di intelligenza artificiale, dunque, per ora non è possibile, e questo può far guadagnare tempo per studiare che cosa fa ai nostri cervelli interagire con una macchina che scrive, disegna, compone musica e conversa in modi finora di dominio umano. Forse dopo maggiori ricerche alcuni governi decideranno di trattare l'IA come i farmaci, con obbligo di approvazione prima del rilascio pubblico. Forse no. In ogni caso, visto quanto la capacità d’attenzione dei miei figli è stata ridotta dagli schermi luccicanti che ho messo nelle loro mani con le migliori delle intenzioni, rabbrividisco all’idea di lanciare un’intera generazione sull’otto volante dell’IA, senza collaudi né cinture di sicurezza.

© Riproduzione riservata
COMMENTA E CONDIVIDI