Intelligenza Artificiale
Etica dell'AI: bias algoritmici e discriminazione nei sistemi automatizzati
Un algoritmo di selezione del personale addestrato su CV storici di un'azienda dove gli uomini sono sempre stati la maggioranza imparerà che essere uomo è un predittore positivo. Non perché sia programmato per discriminare, ma perché i dati di training contengono questo pattern storico.
I bias nei sistemi di riconoscimento facciale sono documentati: tassi di errore significativamente più alti per persone con pelle scura, in particolare donne. Questi sistemi vengono però usati in contesti ad alto impatto come sicurezza aeroportuale e law enforcement.
Le soluzioni includono dataset più diversificati, fairness-aware ML che monitora le metriche di equità durante il training, auditing algoritmico indipendente e — soprattutto — umani nel loop per decisioni ad alto impatto. L'equità nell'AI non è un problema tecnico, è una scelta politica.
💬 Commenti (0)
Nessun commento ancora. Sii il primo!