Perché dobbiamo collaborare con l’Ia se vogliamo che ci aiuti davvero
L’intelligenza artificiale da tempo è diventata una "buzzword", una parola inflazionata.

L’intelligenza artificiale da tempo è diventata una buzzword, come dicono gli americani. Una parola inflazionata, diremmo in italiano, protagonista di una grande contraddizione che si può osservare nelle aziende che adottano strumenti di intelligenza artificiale generativa: i lavoratori seguono in gran parte le direttive per adottare questa nuova tecnologia, ma in pochi riconoscono la creazione di valore reale. Negli Stati Uniti il numero di aziende con processi completamente basati sull’IA è quasi raddoppiato lo scorso anno, mentre l’utilizzo dell’intelligenza artificiale sul lavoro è raddoppiato dal 2023. Eppure, un recente rapporto del Media Lab del Massachusetts Institute of Technology (MIT) ha rilevato che il 95% delle organizzazioni non vede alcun ritorno misurabile sul proprio investimento in questa nuova tecnologia. Perché? Tanta attività, tanto entusiasmo, ma così poco ritorno, quali sono le ragioni?
Nel rispondere a questa domanda la stessa ChatGPT chiarisce che non va confuso l’utilizzo con l’impatto: «Finché l’Ia sarà vista come un gadget anziché come un processo di apprendimento collettivo, continuerà a generare più PowerPoint che valore». Anche i due Media lab delle prestigiose università americane di Stanford e Mit hanno identificato una possibile ragione nell’attuale uso dell’Ia: i dipendenti utilizzano questi strumenti per creare lavori di bassa qualità e dall’aspetto passabile, che finiscono per creare ancora più lavoro ai colleghi che devono rivedere o utilizzare quel lavoro.
Sui social media, sempre più intasati da post di bassa qualità generati dall’intelligenza artificiale, questo contenuto viene spesso definito “Ai slop”, ossia spazzatura Ia. Lo slop è il nuovo spam, il Financial Times l’aveva riconosciuta come «parola dell’anno 2024», per indicare l’ondata di contenuti artificiali di bassa qualità che stanno saturando il Web. Va ricordato che il superamento degli articoli generati dall’intelligenza artificiale rispetto a quelli che sono opera dell’ingegno umano, secondo lo studio dell’agenzia americana Graphite.ia, è avvenuto già un anno fa.
Questo processo di saturazione si sta espandendo e sta travolgendo anche il contesto lavorativo, con il fenomeno dello workslop. Man mano che gli strumenti di intelligenza artificiale diventano più accessibili, i lavoratori sono sempre più in grado di produrre rapidamente output rifiniti: slide ben formattate, report lunghi e strutturati, riassunti apparentemente articolati di paper accademici. Ma mentre alcuni dipendenti sfruttano questa capacità per rifinire un buon lavoro, altri la usano per creare contenuti che in realtà sono inutili, incompleti o privi dei dati di contesto necessari per la sua comprensione. L’effetto insidioso del workslop è che sposta il peso del lavoro dal creatore al destinatario, costringendo chi legge a interpretare, correggere o rifare il lavoro.
Già nel 2006 il giornalista, esperto di tecnologia, Nicholas Carr pubblicò un saggio provocatorio in cui si chiedeva: «Google ci sta rendendo stupidi?». Quel modello di offloading cognitivo, ossia la delega di compiti cognitivi a strumenti esterni, creava preoccupazioni persino a Socrate sull’utilizzo dell’alfabeto. E oggi riguarda l’intelligenza artificiale e i suoi effetti indiretti su creatività e pensiero critico. È vero che abbandoniamo il duro lavoro mentale a tecnologie come Google o ChatGPT perché è più facile cercare qualcosa online che ricordarlo. Il workslop, però, utilizza unicamente le macchine per scaricare il lavoro cognitivo su un altro essere umano. E questa fa un’enorme differenza nei processi produttivi. Quando i colleghi ricevono workslop, spesso devono assumersi l’onere di decodificarne il contenuto, deducendone il contesto mancante o errato. Ne può conseguire una cascata di processi decisionali complessi e faticosi, tra cui rielaborazioni e scambi spiacevoli con i colleghi, ma anche perdita di tempo produttivo.
In questo senso, è stato stimato dalla Harvard Business Review (HBR), la rivista legata alla Business School dell’ateneo americano, che ogni episodio di workslop comporti costi reali per le aziende: una sorta di tassa invisibile di 186 dollari al mese, che per un’organizzazione multinazionale da 10mila dipendenti si traduce in oltre 9 milioni di dollari all’anno di perdita di produttività. C’è poi un costo ancora più rilevante, quello interpersonale. Il workslop può minare la collaborazione lavorativa, su larga scala. In azienda, diminuisce la stima dei colleghi che inviano workslop e quei colleghi vengono generalmente considerati meno creativi, capaci e affidabili.
Come possono le organizzazioni del lavoro evitare questo risultato? Come possono, invece, ottimizzare l’utilizzo dell'Ia da parte dei dipendenti, garantendo un ritorno misurabile rispetto al significativo investimento in questa tecnologia trasformativa?
Quando i vertici aziendali promuovono l’Ia ovunque e in ogni momento, dimostrano una mancanza di discernimento su come applicare la tecnologia. È facile capire come questo si possa tradurre in dipendenti che copiano e incollano le risposte dell’Ia nei documenti senza alcun pensiero critico. Certo, l’IA può trasformare positivamente alcuni aspetti del lavoro, ma richiede comunque una guida attenta e una continua revisione umana per produrre risultati utili su lavori complessi. Le aziende, dunque, sono chiamate a elaborare le proprie politiche e raccomandazioni su come utilizzare l’Ia, indicando best practice, strumenti e norme di riferimento. Se l’intelligenza artificiale è compito di tutti, è anche, e soprattutto, compito dei leader delle aziende sviluppare delle linee guida per i propri dipendenti, che li aiutino a utilizzare questa nuova tecnologia nel modo più allineato ai valori e alla strategia aziendale.
Si può osservare che il workslop risulti un ottimo esempio di come le nuove dinamiche collaborative introdotte dall’Ia possano ridurre la produttività anziché migliorarla. Eppure molti dei compiti richiesti per lavorare bene con l’Ia – come dare suggerimenti, offrire feedback, descrivere il contesto – sono proprio di natura collaborativa. È aumentata la complessità della collaborazione: nel lavoro odierno abbiamo sempre più bisogno di collaborazione, non solo con gli esseri umani, ma ora anche con le macchine intelligenti.
© RIPRODUZIONE RISERVATA
Temi






