Bias e imperatori…

https://www.repubblica.it/dossier/stazione-futuro-riccardo-luna/2020/08/04/news/perche_l_intelligenza_artificiale_credeva_che_gli_imperatori_romani_fossero_biondi-263664362/

Bias è la parola chiave che ci viene in mente leggendo questo interessante articolo!

L’algoritmo di intelligenza artificiale volto alla ritrattistica degli imperatori romani genera una conclusione errata, tratta da dati che riflettono una visione distorta del mondo.

Anche i nostri assistenti virtuali vivono delle informazioni e della conoscenza che noi trasmettiamo . A loro discolpa, grazie da un lato alla capacità di elaborazione di grandi quantità di dati e dall’altro all’incapacità di empatia, possiamo senz’altro considerarli meno a rischio rispetto a noi di incorrere in unconscious bias (pensiamo ai chatbot recruiter, molto utili in tal senso). Tuttavia è imprescindibile che gli assistenti virtuali rappresentino il mondo chiuso di chi li ha addestrati: chi progetta il chatbot per il proprio sito web, potrebbe essere portato a trasferire un bagaglio di informazioni che, in quanto esperto fruitore del servizio e conoscendo già argomenti e funzioni del prodotto, non rispecchia le esigenze reali degli utenti e a introdurre dunque in buona fede bias nel dataset. Il pericolo può essere arginato facendo per esempio testare gli assistenti virtuali a utenti reali, portatori di una visione del mondo differente da chi ha addestrato il sistema.

Le macchine rispecchiano inevitabilmente la visione dell’uomo, che nella sua affascinante complessità ammette l’errore. Se prescindiamo da questo presupponendo che la macchina ci offra una conoscenza imparziale e corretta del mondo potremmo essere vittime di un altro bias cognitivo, l’automation bias!

Scrivi una risposta

Il tuo indirizzo email non sarà pubblicato.I campi obbligatori sono contrassegnati *