La "dieta" di un'intelligenza artificiale modella il modo in cui questa guarda il mondo. E i risultati che l'intelligenza artificiale sputa fuori ci restituiscono quel punto di vista sul mondo. Anzi lo perpetuano, lo rafforzano. Oggi la dieta dei nostri strumenti AI è ancora parecchio sbilanciata.
I set di dati utilizzati più spesso per "addestrare" gli algoritmi di intelligenza artificiale provengono da pochi paesi e da pochissimi enti. Più della metà dei set di dati provengono da 12 istituti d'élite e aziende private di Stati Uniti, Germania e Hong Kong. Pochissimi dati arrivano dall'America Latina, pressoché nessun dato dall'Africa.
Questo non significa che interi continenti non stiano immagazzinando dati o sviluppando modelli di apprendimento per l'intelligenza artificiale. Ma significa che hanno un minore accesso a ingegneri e a infrastrutture per l'immagazzinamento di dati e per la potenza di calcolo. L'ascesa verso la partecipazione all'intelligenza artificiale non è uguale per tutti.
E così, al momento, c'è un grande squilibrio tra la provenienza dei dati e il loro uso. In tutto il mondo si usano dati che riflettono per lo più il punto di vista di una manciata di Paesi ed istituzioni - quelli che esercitano già un enorme potere su Internet (e sul mondo).
Il risultato è che i modelli di apprendimento automatico di piattaforme come CHAT-GPT riproducono spesso stereotipi razzisti e sessisti, in gran parte a causa dei loro dati di addestramento.
Questo significa che governi e organizzazioni internazionali avranno la responsabilità di facilitare la creazione di set di dati per garantire più equità e varietà di punti di vista sul mondo.
Noi, per ora, possiamo solo essere consapevoli che se usiamo questi mezzi per lavorare o fare i compiti, gli algoritmi ci restituiscono un punto di vista molto specifico sul mondo.
#AI #ArtificialIntelligence #IntelligenzaArtificiale #Tecnologia #Internet #WillMedia