mercoledì 20 aprile 2022
Giorgia Coltella, ceo di Gradient si occupa di analizzare e valutare le immagini dei brand promuovendo l'equità culturale
L'Intelligenza artificiale che va a caccia di discriminazioni visive
COMMENTA E CONDIVIDI

Le fotografie hanno un potere incredibile e giocano un ruolo chiave nel definire come vediamo il mondo e la gente attorno a noi. Un potere che spesso è stato utilizzato da molte aziende per convincere, vendere, creare tendenze o bisogni. Ma che oggi sta diventando sempre più centrale anche per 'fare la differenza', per raccontare la diversità, le infinite possibilità della vita e del genere umano e avere un ruolo davvero strategico nel consolidare un cambiamento sul fronte della sostenibilità ambientale e dell’inclusione sociale, con conseguenze anche sulle scelte economiche. Ma come fare per evitare che pregiudizi e stereotipi possano influenzare le nostre scelte o l’idea che un brand, un prodotto, ma anche una banca o uno specifico investimento finanziario sono in grado di comunicarci? «I sistemi di Intelligenza artificiale a servizio dell’analisi delle immagini sono una potente arma per capire quale tipo di messaggio una foto, un video o un’immagine in generale possono veicolare e quali sono gli aspetti 'critici' da valutare», spiega Giorgia Coltella, Ceo di Gradient, costola di Kellify, società che utilizza l’intelligenza artificiale per l’analisi e la valutazione delle immagini. E Gradient parte proprio dagli stessi presupposti – immagini e Intelligenza artificiale – per misurarei linguaggi visivi promossi dai brandi nell’ottica della diversità e dell’inclusione. Grazie a reti neurali e modelli di apprendimento automatico, Gradient effettua una valutazione supportata dai dati e priva di pregiudizi, valutando il grado di rappresentazione di generi, etnie, forma fisica e fasce d’età nella comunicazione visiva dei marchi. In questo modo è in grado di monitorare 'l’equità culturale' delle aziende, non solo per migliorare la loro immagine verso l’esterno, ma anche per arricchire le sfumature di comunicazione nel rispetto di tutti i criteri ESG oggi fondamentali. «Vogliamo aiutare i brand a comprendere come la diversità sia davvero parte della nostra quotidianità e debba essere un bene da tutelare, non solo a parole, ma anche con i fatti», dice Coltella spiegando che spesso, invece, molte aziende 'tradiscono' una visione sociale raccontata all’esterno da scelte visive – sui propri social, nelle campagne pubblicitarie o sul sito istituzionale – che invece, magari inconsapevolmente, trasferiscono altri messaggi, in alcuni casi persino in netto contrasto con l’idea che di sé si vorrebbe dare all’esterno. Si tratta, spiega Coltella, di un tema di coerenza: «Abbiamo tanto sentito parlare in questi ultimi anni di 'greenwashing' ma poco di 'diversity washing'».

Non si può sbandierare un’attenzione alla diversità ma poi, nei fatti, non attuarla. A volte ci sono aziende che portano avanti una politica di inclusione sociale ma poi non sono in grado di raccontarla e continuano a dare di sé all’esterno un’immagine sbagliata. In questo contesto sarà difficile che possibili dipendenti, investitori o società di rating possano valutare quella realtà in maniera corretta. Quando si parla di ' diversity' non si tratta solo di creare un’armonica presenze fra uomini e donne o fra diverse etnie. Significa anche raccontare tutte le sfumature del genere umano e le sue complessità. Considerando il ruolo crescente che l’Intelligenza artificiale gioca nei processi aziendali, nello sviluppo di beni e servizi e nel modo in cui questi vengono offerti e commercializzati, l’assenza di un principio di diversità e inclusione all’interno dei sistemi di IA utilizzati, potrebbe avere conseguenze significative da un punto di vista sociale, ma anche economico. Ed è per questo che un sistema di Intelligenza artificiale deve anche essere progettato in modo tale da non ignorare i dati solo perché sembrano 'anomali' in base al numero ridotto di casi in cui si presentano. Un approccio non semplice in realtà più diverse e sfaccettate, come conferma Gradient che oggi, oltre che in Italia, opera in Spagna, Stati Uniti e Brasile ed è da poco sbarcata anche in Sudafrica. In tutti i Paesi l’azienda lavora «per generare consapevolezza sulle discriminazioni visuali e cercare di prevenirle» spiega Giorgia Coltella. Ma non esiste una via univoca. Ogni Paese e ogni società ha le sue pecu-liarità: in Paesi come l’Italia il genere è il tema centrale, in Sudafrica, oltre al genere il punto sull’etnia è molto rilevante, mentre negli Stati Uniti il tema etnicorazziale è predominante. «Nelle immagini poi c’è in generale una grande difficoltà sul fronte della disabilità: spesso i brand cadono nello stereotipo che vede le persone disabili rappresentate escusivamente in sedia a rotelle, quando invece esistono anche tanti altri tipi di disabilità che le immagini non ci mostrano», spiega Coltella.

Quando si parla di Intelligenza artificiale, aziende e diversity & inclusion, non si tratta però solo di marketing. C’è molto di più, spiega la numero uno di Gradient: c’è la possibilità di riconoscersi in un modello, di considerarsi 'normale', anche se diversi, perché ci si ritrova in contesti e racconti differenti. E, soprattutto, c’è la possibilità di accettarsi perché non costantemente aggrediti da immagini invasive di perfezione e superficialità, che spesso fanno il giro del web e dei principali social network. «Per questa ragione con Gradient siamo al lavoro per portare avanti anche un progetto in ambito educativo, per fare cultura su questi temi fra gli studenti e nelle scuole», racconta Giorgia Coltella. Le aziende sono un anello di tutta la catena, ma a monte ci sono le persone con i loro pregiudizi e i loro preconcetti che devono essere abbattuti. E in questo, l’Intelligenza artificiale può tendere una mano.

© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: