ALGORITMI Come evitare pregiudizi

ALGORITMI - Chi li studia? Chi li analizza? Chi li realizza? Sono domande alle quali la maggior parte di chi le ascolta non saprebbe rispondere. L'intelligenza artificiale ci appare come un dono misterioso, capace di facilitare e dare ordine a molte incombenze. Ma chi è, CHI sono le persone, gli Umani, che hanno inserito nella "macchina intelligente" i dati necessari alla funzionalità dell'algoritmo? Sono Uomini? Sono Donne? Se in un gruppo di lavoro sono presenti persone condizionate da Pregiudizi o stereotipi quali rischi si corrono? Potremmo avere algoritmi che ripropongono nella scelta gli stessi stereotipi e pregiudizi degli umani che hanno inserito i dati. Uno scenario che dovrebbe far risuonare molti campanelli d'allarme quello adombrato nel corso della bella iniziativa per i 10 anni del GIO (Gender Interuniversitary Observatoriy) che si è tenuta a Roma nella Sala della Protomoteca in Campidoglio giovedì 14 novembre.

È stata la professoressa Tiziana Catarci, Docente ordinaria di Ingegneria Elettronica dell’università La Sapienza di Roma a sollevare la questione. L’interazione Persona/Calcolatore insieme alla Qualità dei dati nei sistemi informativi sono infatti due dei principali temi della ricerca che da anni la professoressa Catarci affronta nei suoi corsi e nelle numerose pubblicazioni nazionali e internazionali.

L’invito rivolto alle studenti presenti al convegno era di iscriversi numerose ai corsi di ingegneria informatica perché si eviti il rischio, grande rischio, che anche i computer e le intelligenze artificiali introiettino stereotipi e pregiudizi di chi li programma.

  • Visite: 342
© 2020 www.power-gender.org
Power&Gender Testata giornalistica online Registrazione tribunale di Roma n° 481/2006 del 13/12/2006 Direttrice responsabile: Eva Panitteri
Edita dall'Associazione Power And Gender