Algocrazia

Negli ultimi anni c’è stata una vera e propria fioritura di algoritmi artificiali.

Che ne siamo coscienti o no, la nostra vita (almeno nei paesi ad alto tasso di digitalizzazione) è condizionata e pervasa dagli algoritmi. Gli algoritmi ci propongono quale musica ascoltare (Spotify, YouTube Music, iTunes…), ci suggeriscono quali film vedere (Netflix è certamente il caso più famoso), cosa acquistare (i consigli per gli acquisti di Amazon) e anche quali notizie leggere. Infatti, i vari servizi di intermediazione delle informazioni (Facebook, Linkedin, Google News…) funzionano in base ad algoritmi che ci mettono in evidenza quelle che (secondo loro) sono le notizie più interessanti per noi.

Con gli algoritmi di profilazione abbiamo fatto un salto quantico: dall’algoritmo presentato nella definizione iniziale come procedura strutturata e immobile ad un algoritmo di tipo nuovo, che riesce ad imparare. Il machine learning e il deep learning hanno generato una classe totalmente nuova di strumenti, capaci di modificarsi e di evolversi imparando dai dati. L’algoritmo non è più statico come una ricetta da cucina. Nessuno ha pre-codificato le canzoni che vi verranno proposte la prossima settimana. Sfruttando i dati vostri e di altre persone simili a voi l’algoritmo impara e si modifica continuamente, seguendo anche i vostri cambiamenti di gusti con il passare degli anni.

Si è aperta l’era dell’intelligenza artificiale in azione, che modifica il nostro rapporto con le cose e le persone.

Allargando l’orizzonte da specifici ambiti alla società nel suo insieme, l’aspetto forse più interessante è l’utilizzo degli algoritmi da parte dei governi. Prendendo libera ispirazione da una metafora basata sulla gestione del traffico e utilizzata da A. Anesh, il professore di sociologia che per primo ha parlato di Algocrazia, possiamo parlare di tre modelli con cui i governi stanno utilizzando gli algoritmi e l’intelligenza artificiale:

  1. Modello base (gestionale): gli algoritmi sono utilizzati per realizzare sistemi di gestione di realtà complesse. Nella metafora “stradale” è l’analogo di un sistema computerizzato per la gestione intelligente dei semafori. Il verde e il rosso si alternano non in base ad una rigida logica temporale, ma considerando le condizioni del traffico. Estendendo la metafora possiamo pensare alla gestione del traffico aereo o ferroviario. Questi sono stati i primi algoritmi ad essere introdotti massivamente e ciascuno ne ha apprezzato più volte la potenza e l’importanza. Nessun essere umano potrebbe gestire senza l’ausilio di questi algoritmi i volumi di traffico dei nostri aeroporti.
  2. Modello integrato (gestionale e di controllo): ritornando alla metafora del traffico, è venuta quasi da sé l’introduzione di strumenti e algoritmi di controllo, per identificare e sanzionare gli automobilisti che non rispettavano i semafori. Lo stesso sta avvenendo in molti paesi, dove gli algoritmi sono diventati strumento di controllo della popolazione. Viene naturale pensare alla Cina e al suo progetto Skynet, ma in realtà tutti i paesi si stanno muovendo in questa direzione. Si pensi a quanto ha fatto e sta facendo l’NSA (National Security Agency) americana e i servizi più o meno segreti delle altre nazioni tecnologicamente sviluppate. Gli algoritmi ci osservano, gli algoritmi ci conoscono, gli algoritmi ci controllano.
  3. Modello evoluto (preventivo): il modello preventivo è la vera nuova frontiera. Gli algoritmi che eliminano gli errori alla radice. La metafora stradale ci offre un bell’esempio nelle auto a guida autonoma. Invece che controllare e punire gli umani per i loro molti errori alla guida, mettiamo gli umani in condizioni di non sbagliare più sostituendoli con algoritmi. In altri campi però gli scenari si fanno più inquietanti. L’esperienza di questi anni inoltre dimostra che possono creare danni collaterali importanti dovuti ad errori o problemi su come sono fatti, su come sono alimentati e su come vengono impiegati. Anche se usiamo termini come algoritmi o intelligenza artificiale, non dobbiamo dimenticarci che comunque stiamo parlando di software scritto da sviluppatori umani. E le statistiche di una fonte autorevole come CISQ sugli errori nel software sono impressionanti. Nel report pubblicato nel 2018 CISQ dice che “essendo un prodotto puramente intellettuale, il software è tra le tecnologie che richiedono più lavoro, che hanno la maggior complessità e il più elevato tasso di errori della storia dell’umanità”. I problemi di qualità del software hanno causato nel 2018 danni per 2.8 trilioni di dollari solo negli Stati Uniti. Uno sviluppatore medio introduce dai 100 ai 150 errori ogni 1000 linee di codice.

Il problema che emerge, guardando al futuro è, anzitutto, di ordine etico e riguarda la probabilità che questi algoritmi possano perpetuare ed inasprire bias decisionali, come quelli basati su tratti sociali e razziali.

Come sottolineò già nel 2018 la studiosa Safija Noble in Algorithms of Oppression, i programmatori hanno pregiudizi, così come chi definisce le regole su cui loro lavorano.

Uno dei rischi a lungo termine più probabile potrebbe proprio essere la concentrazione del potere digitale, ovvero la tendenza a limitare il discorso politico e sociale a un numero limitato di piattaforme che hanno la capacità di filtrare le informazioni, accumulando dati e potenzialmente prestandosi alla manipolazione degli stessi, senza che venga di fatto garantita una sufficiente trasparenza su come vengano utilizzati.

Disinformazione e manipolazione sono di fatto un problema che nei social va ad influenzare l’opinione pubblica, riuscendo oggi ad orientarla concretamente ed agire sulla realtà sociale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.