Lo sviluppo tecnologico ci sta portando verso un’era sempre più digitalizzata, governata dall’ormai famosa intelligenza artificiale. Ma in che modo questi aspetti si stanno inserendo nella nostra vita professionale? Esiste una strada etica e sostenibile che generi opportunità attraverso l’uso responsabile dell’AI. E un’altra che, invece, lo rende un elemento di rischio.
Quando si parla di etica dell’intelligenza artificiale ci si concentra su fattori che riguardano lo sviluppo dell’umanità intera. Questo è il campo di interesse di Luciano Floridi, professore di filosofia a Oxford tra i massimi esperti di AI. Secondo lo studioso, il pericolo, o meglio, i pericoli sono dietro l’angolo e risiedono nelle modalità e capacità di metabolizzazione delle nuove tecnologie da parte dell’uomo.
Al di là degli aspetti tecnologici legati all’utilizzo dell’AI, starebbe quindi proprio nell’assunzione dell’etica come elemento centrale attraverso il quale interpretare e valutare i diversi utilizzi dei software intelligenti e predittivi. Delegare l’AI a un mero tema di natura tecnica e specialistica rappresenta alcuni rischi. Quali? Come puntualizza Floridi in un’intervista a “Industria Italiana”, l’essere umano sta costruendo tecnologie che facciano cose al posto suo con l’obiettivo di avere performance migliori, con tempi e costi più bassi. Ma siamo sicuri che sia la macchina che si sta adattando all’uomo? Oppure è il contrario?
Chi si adatta a chi è però solo il primo dei problemi. Sempre secondo Floridi: “Se devo impiegare un piccolo software di intelligenza artificiale per fare delle operazioni e per fare in modo che tutto fili liscio e magari devo usare un linguaggio più semplice, o evitare determinate parole, allora il risultato è che la tecnologia mi ha cambiato in peggio, mi ha reso un po’ più stupido”.
Gli esempi pratici del rapporto tra etica, responsabilità e AI sono molteplici. Tra tutti il drammatico caso del Boeing che si è schiantato in Etiopia e che, pare, sia stato governato da un software anti-stallo che interpretando male la situazione abbia attivato procedure di emergenza senza che i piloti avessero la possibilità di modificarle manualmente. Ha avuto solo un problema di software oppure c’è una responsabilità dei piloti? O magari di chi ha fatto il loro training? O forse è colpa di chi ha disegnato, acquistato o autorizzato l’utilizzo del software?
Secondo Floridi, e non si può che essere d’accordo, l’etica, associata correttamente allo sviluppo tecnologico, è in grado di generare valore economico creando un ecosistema migliore in cui il business cresce parallelamente ad uno status migliore delle singole persone.
Ma quando un’azienda si sviluppa e opera secondo etica? Certamente quando segue la legge e produce ricavi che generano un beneficio alla società e a chi ci lavora. Ma c’è di più e riguarda il concetto di restituzione e di responsabilità. Restituzione al territorio e alle comunità di una parte del valore creato e responsabilità per un’attività che ha indubbi impatti ambientali e sociali. Tutti aspetti che devono essere tenuti ben presenti quando si affida a sistemi di intelligenza artificiali processi che impattano inevitabilmente sulle persone e sui contesti relazionali nelle quali operano.