Se da un lato l’intelligenza artificiale aiuta a risolvere diverse problematiche, dall’altro nasconde quesiti etici e morali.
L’intelligenza artificiale (Ai) la utilizziamo ormai quasi senza rendercene conto. E sì, perché è diventata parte integrante della nostra vita quotidiana: quando per esempio utilizziamo un traduttore digitale o un’applicazione presente sul nostro smartphone.
Tuttavia, mentre questa tecnologia avanza, emergono sempre più quesiti etici e morali. Soprattutto quando l’Ai riesce a sostituire e addirittura superare intelligenza e capacità umane.
Intelligenza artificiale
Che cosa si intende per Ai ce lo spiega Alessandro Antonucci, ricercatore Idsa Usi-Supsi che la definisce come «una formula di matematica applicata che si occupa di estrarre conoscenza che sia in grado di guidare algoritmi in maniera intelligente, quanto meno paragonabile con l’intelligenza umana».
Machine learning
Tra le tecniche più diffuse oggi, il machine learning cioè «lo sviluppo di algoritmi partendo dal processamento di dati. Così facendo riescono a produrre sistemi “intelligenti” che sono in grado di classificare, per esempio, un’immagine medica come pericolosa».
Quali sono i vantaggi dell’intelligenza artificiale?
«Sicuramente la replicabilità, perché un algoritmo è in linea di principio infinitamente replicabile. In secondo luogo, se queste tecniche hanno una quantità di dati sufficiente, possono addirittura superare le capacità dell’intelligenza umana». È nota la storia giunta alla cronaca nel lontano 1996, quando Garry Kimovic Kasparov, il più giovane campione al mondo, il 10 febbraio di quell’anno venne sconfitto da Deep Blue, il cervello di silicio creato dal colosso Ibm. Lo mise subito al tappeto, pochi istanti dopo l’inizio della partita.
Quali sono i rischi dell’intelligenza artificiale?
«Il primo rischio è senz’altro l’opacità. La maggior parte di queste tecniche sono molto veloci nel prendere decisioni, ma non sanno spiegare compiono determinate azioni. Il secondo problema è quello della fairness, ovvero gli algoritmi possono attuare una sorta di discriminazione nel fare previsioni. Non è consapevole, ma riflettono dei bias, cioè una mancanza di rappresentatività, riconducibili ai dati da cui sono stati appresi».
© RIPRODUZIONE RISERVATA
Iscriviti alla newsletter