Martedì, 23 Ottobre, 2018

L'intelligenza artificiale, i pericoli per l'uomo

PER INGRANDIRE PER INGRANDIRE
Quartilla Lauricella | 10 Giugno, 2018, 13:45

Dopo la rivolta dei dipendenti, Google si impegna a non utilizzare l'intelligenza artificiale per scopi militari ma continuera' a collaborare con il governo americano e con il Pentagono.

È soltanto in base alle informazioni in possesso dell'intelligenza artificiale che la stessa sarà poi in grado di effettuare classificazioni ed associazioni e fornire un responso, ma a Norman, che prende il nome dal famoso personaggio di Psycho, sono state dato in pasto informazioni particolarmente inquietanti. Il team, composto da scienziati in Germania, Francia, Regno Unito e Stati Uniti, ha utilizzato l'intelligenza artificiale per trasferire le posizioni della testa, le espressioni facciali, i movimenti degli occhi e le palpebre di una persona in un video su un'altra persona completamente diversa in un video separato.

I ricercatori hanno allenato Norman attraverso un database di immagini scovate sul web che raffigurano persone sofferenti o morenti. Questa serie di immagini macabre hanno prodotto un'IA che, stando ai test alle quali è stata sottoposta, mostra le dinamiche tipiche della psicopatia, come la mancanza di empatia, la tendenza all'imbroglio e alla paranoia. Norman Infatti servirà un po' come prova del 9 rispetto a quei rischi possibili nella programmazione e realizzazione di questi schemi di intelligenza artificiale.

Google non ha identifica solo cosa una "buona IA" deve fare, ma anche ciò che non deve fare. Nell'interpretazione delle macchie di inchiostro sulle tavole, Norman non ha elaborato che immagini di morte, esecuzioni capitali, assassini, sangue e incubi di varia natura.

Buonasera, mi chiamo Norman e sono la prima intelligenza artificiale psicopatica.

L'obiettivo dell'esperimento era provare che gli algoritmi AI sono fortemente influenzati dai dati inseriti - e dalle persone che se ne occupano -, e che il loro comportamento può cambiare in profondità. Per esempio Big G nega che userà mai i suoi algoritmi automatici per "tecnologie che causino o abbiano probabilità di causare danno in senso generale" sebbene sia disposta ad abbassare questo limite quando "crediamo che i benefici superino sostanzialmente i rischi" oppure per "armi e altre tecnologie il cui scopo o implementazione principale è di causare o facilitare un danno alle persone".

Risulta quindi scorretto, come avvenuto in passato, definire razzista o sessista un algoritmo, in quanto tutto sembra dipendere dai dati utilizzati per costruire una specifica intelligenza artificiale.

Altre Notizie