Recensione del 23 Settembre 2020. La complessità della vita umana e delle scelte di ciascuno non può essere imprigionata in schemi assolutizzanti e ancor meno può essere sottratta al giudizio individuale, all’infinità varietà del tutto, alle idee ricevute, all’immagine del mondo di ciascuno di noi.
Stavolta, amico lettore, ti prendo in castagna. Sono certo che non ci hai mai pensato: l’Intelligenza Artificiale (A.I.) è politicamente scorretta. E’ la conclusione cui sono giunti i gran sacerdoti del progressismo e della correttezza politica. L’ Intelligenza Artificiale, infatti, ha un problema per ora insormontabile: è istruita da esseri umani. Esseri imperfetti, talvolta ossessivi, che realizzano, formano, “addestrano” le sequenze di algoritmi che costituiscono l’Intelligenza Artificiale dei robot e degli apparati cibernetici. Sono loro a inserire dati e informazioni nel “cervello” dell’A.I. Questi matematici, informatici, ingegneri e scienziati, tuttavia, hanno un enorme difetto, agli occhi del bigottismo politicamente corretto: profilano, forniscono informazioni a partire, udite udite, dai loro pregiudizi. La ragione è elementare: coloro che alimentano la macchina sono in genere uomini bianchi. Di conseguenza, non rappresentano la diversità del mondo.
L’identitarismo soggettivo e vittimista miete un’altra vittima, e che vittima: addirittura l’Intelligenza Artificiale, quanto di più avanzato e – apparentemente – oggettivo l’uomo postmoderno abbia inventato. Un esperimento elaborato dalla società di consulenza Biko – ci piacerebbe sapere l’identità di chi lo ha commissionato e orientato- ha concluso che i principali algoritmi utilizzati dal sistema di riconoscimento di immagini di Amazon e Google etichettano in maniera differente uomini e donne. Ohibò. Pare che agli occhi di questi software- l’espressione potrà valere per gli apparecchi artificiali? – se in un’immagine appare una persona che brandisce un martello, si relaziona automaticamente con comportamenti maschili.
Il comunicato di Biko è insieme preoccupante e esilarante: “da un po’ di tempo a questa parte, nonostante la fede (fede: testuale) posta nei presunti superpoteri dell’A.I, abbiamo dovuto constatare che non è obiettiva e neutrale come avremmo desiderato credere. In molte occasioni è inefficace, discriminatoria, sessista e razzista”. Tutti i salmi finiscono in gloria, ed è già molto che tra le accuse non figuri l’onnipresente fascismo. I correttissimi, neutri analisti concludono tristemente che, in fondo, non c’è nulla di strano, giacché gli “umani “- uomini non si può più dire per latenza di sessismo- “presenti, finora, in tutto il ciclo di vita dell’Intelligenza Artificiale, trasferiscono la loro soggettività” e – ahimè- i loro “preconcetti e pregiudizi “alla macchina in tutte le fasi del processo. Che fare, dunque, si interrogano preoccupate le anime belle, tenuto conto che il problema è stato colpevolmente trascurato, travolti dal notevole incremento delle soluzioni tecnologiche che sfruttano le novità nel campo degli algoritmi e dell’apprendimento automatico (machine learning).
Sembra che i “pregiudizi” abbondino in questi sistemi che sono entrati di prepotenza nella vita quotidiana e sanno penetrare nell’individualità di ogni utente. L’obiezione che muoviamo è semplice: l’assenza assoluta di pregiudizi, la neutralità totale, programmatica, è a sua volta un preconcetto, una scelta che trasforma l’uomo di oggi e soprattutto di domani in una tabula rasa riempita esclusivamente da contenuti ricevuti, eterodiretti dai detentori dell’apparato artificiale. Il più indiscutibile e tenace di essi è l’uguaglianza contro natura, tra i sessi, tra le etnie, tra gli individui e le loro idee. Non è uguaglianza, ma equivalenza forzosa imposta da chi ci obbliga a non credere ai nostri occhi e al nostro cervello.
Nel riconoscimento di immagini, lamentano i gran sacerdoti dell’Identico, l’Intelligenza Artificiale trova e identifica oggetti e li associa per “etichette” e categorie, in base alle informazioni ricevute. Dannati “umani”, che imbrogliano i cervelli elettronici a fini di sessismo, razzismo e maschilismo. Troppo poche le categorie di giudizio offerte all’apparato, unite all’opacità delle imprese proprietarie dei software. Questo problema ci sembra più concreto: inquieta più la privatizzazione delle risorse dell’intelligenza artificiale che i criteri di classificazione delle immagini delle reti neuronali artificiali. Il cruccio politicamente corretto è invece scoprire che sotto le categorie “ragazza” e “donna” si ordinano abitualmente immagini di umani di sesso femminile (ahi, ahi, stiamo diventando politicamente corretti, neutrali e avalutativi…) intenti a compiti tradizionalmente associati all’universo delle donne. Un bel guaio, per le menti ossessionate dall’equivalenza! Bisogna essere coscienti, singhiozzano, che “gli umani” sono presenti in tutto il ciclo di vita dell’Intelligenza Artificiale, trasferendovi – dolosamente o meno – i loro preconcetti.
Dunque, l’A.I. non è infallibile (nostro è il sospiro di sollievo) né “neutrale”. Sulla categoria di neutralità abbiamo già detto la nostra. Aggiungiamo che non esiste la neutralità assoluta, ma il concetto si situa inevitabilmente lungo un asse di principi e valori. Quelli del politicamente corretto sono discutibili quanto tutti gli altri e si inseriscono in una griglia dominata dal preconcetto di equivalenza/eguaglianza, indicato “pregiudizialmente” come l’unico universalmente valido. L’Intelligenza Artificiale è un sistema predittivo: non può non tenere conto della realtà com’è anziché dei sogni e delle visioni di qualcuno. Se viene distorta in nome del pregiudizio politicamente corretto, diventa uno strumento di ingegneria sociale, di dominazione e indirizzo, non un meccanismo predittivo.
Più interessante la scoperta di uno studio compiuto dall’università americana Cornell. La precisione nel riconoscimento e nell’interpretazione di oggetti da parte dell’A.I. varia a seconda se le immagini sono di origine statunitense o di altri paesi. Certo, occorre lavorare per migliorare la qualità delle previsioni e delle indicazioni, ma emerge il colonialismo culturale statunitense esteso persino agli algoritmi a taglia unica, globalisti. Due anni fa, divenne popolare in un baleno un’applicazione chiamata FaceApp, che incorpora un sistema di alterazione di immagini capace di attuare filtri di bellezza, cambio di sesso, invecchiamento o ringiovanimento. Un gioco divertente che però, asseriscono gli accigliati guardiani della rivoluzione politicamente corretta, significa che persistono i pregiudizi.
Questo servizio in apparenza innocente e giocoso fa sì che se in un’immagine appare una persona con capelli lunghi e tratti femminili, il software entra in confusione e non è in grado di riconoscere come un trapano l’oggetto che ha nelle mani, scambiandolo magari per un asciugacapelli. Brutte notizie anche da un’altra popolare app, CamFind. Se si elimina un oggetto dalla fotografia, la descrizione cambia significativamente. Il sistema sa categorizzare, ad esempio, un uomo ripreso mentre utilizza una scopa vestito da donna, ma se si cancella la scopa l’immagine è identificata come “maglietta polo da uomo”. Nel sistema di riconoscimento facciale Amazon Rekognition, la foto è etichettata in modo distinto in base al genere apparente e, orrore, produce risultati relazionati con il sesso attribuito alla persona fotografata. Rivincita della natura sulla cultura.
La potenza predittiva dell’A.I. ne esce ridimensionata, con danni commerciali per chi investe su di essa, ma soprattutto dimostra che la complessità della vita umana e delle scelte di ciascuno non può essere imprigionata in schemi assolutizzanti e ancor meno può essere sottratta al giudizio individuale, all’infinità varietà del tutto, alle idee ricevute, all’immagine del mondo di ciascuno di noi. Alla fine, anche il politicamente corretto è un etichetta, un pregiudizio, una distorsione della realtà, un’idea tra le altre. Una buona notizia dal mondo dell’Intelligenza Artificiale.
Roberto Pecchioli il 23 Settembre 2020