Gli algoritmi hanno un ruolo sempre più importante nella vita dell’uomo, ne guidano le decisioni e ne condizionano le riflessioni. Ma quali sono i rischi che si celano dietro questa evoluzione del rapporto tra macchina e uomo?
Lo spunto di riflessione è offerto da un articolo di Timandra Harkness (già autrice del libro “Big Data. Does Size Matter?” ) pubblicato sulla rivista britannica on line Unherd.
Che parte da una constatazione: gli algoritmi non sono infallibili e spesso commettono errori, quindi la tecnologia non è perfetta. Pensiamo a quelli per il riconoscimento facciale che spesso sbagliano a classificare i volti di donne nere, indicandoli come volti maschili. Ed è già capitato in passato che il riconoscimento di una telecamera si sbagliasse, finendo per accusare di un crimine la persona sbagliata.
Da qui l’articolo arriva al cuore della riflessione: “Non è solo che i programmi non sono abbastanza intelligenti, è che non condividono i nostri valori. Più deleghiamo le nostre decisioni alle macchine e più sarà necessario avere una tecnologia affinata, sofisticata, capace di sobbarcarsi una mole di lavoro sempre maggiore, quindi con un peso maggiore“, scrive l’autrice.
Le macchine hanno imparato a imparare?
Parrebbe di sì. L’ingegneria è andata in quella direzione fin dall’inizio, e ha avuto un discreto successo: il
benchmark è sempre stata la mente umana, punto di riferimento per immaginare e poi progettare un’intelligenza artificiale pensante.
Il successo sta nel fatto che in un ragionamento logico, quindi alla ricerca di una risposta certa, una macchina risulterà fatalmente più veloce di una mente umana nell’elaborazione di tutte le informazioni disponibili.
“Oltre alle macchine, anche i loro creatori umani hanno imparando qualcos’altro: non solo come costruire quelle macchine e su quali dati addestrarle, ma anche su come continuare a conoscere loro cose nuove. L’apprendimento per imitazione, un processo naturale anche per l’uomo fin dall’infanzia, può funzionare per l’Intelligenza Artificiale. Con un metodo chiamato Inverse Reinforcement Learning, l’Intelligenza Artificiale può persino dedurre ciò che un essere umano sta cercando di fare e superare il suo insegnante. Anche in compiti complessi come far volare un drone“, si legge nell’articolo.
Lavorare fianco a fianco
Perché l’interazione uomo/macchina sia quanto più efficace e si basi sulla condivisione di “valori” comuni, la soluzione potrebbe essere quella di non chiedere a un algoritmo di sostituirsi all’uomo in sede decisionale. Ma solo di leggere le sue intenzioni e aiutarlo, come strumento di supporto. Ma anche in questo caso sarebbe difficile creare una sovrapposizione perfetta tra la parte umana e quella tecnologica perché gli esseri umani sono sociali, l’intera società umana si basa su persone che cooperano, imparano gli uni dagli altri, testano e rivedono le loro idee e comunque vivono di profondi disaccordi, alcuni dei quali cambiano nel tempo. Affinché le macchine si allineino ai valori umani, dovrebbero lavorare al nostro fianco, imparando, adattandosi e cambiando.
E’ quello che stanno studiando i centri di Ricerca e Sviluppo dei principali costruttori di macchine al mondo, con l’obiettivo di avvicinarle il quanto più possibile al ragionamento e all’apprendimento umano.
Anche se non sarà facile farlo. La nostra comprensione del cervello, della mente e della persona è stata influenzata nell’ultimo secolo dalla matematica, dalla logica e dall’informatica. Aspetti della vita umana che possono essere quantificati, digitalizzati. Quindi rischiamo di perdere il controllo del mondo, non in favore dell’intelligenza artificiale o delle macchine in quanto tali, ma per colpa dei modelli e delle schematizzazioni che stanno modificando quel che vogliamo. Ma siccome anche gli algoritmi sbagliano (e quindi l’elemento comune che lega l’uomo alla macchina è l’errore), forse questo è un rischio che (per fortuna) non sarà possibile correre.