AIS
2022/19
È ormai da molto tempo che viviamo in una società in cui i dati e le tecnologie digitali hanno un ruolo fondamentale. Dal credito alla salute, dall’istruzione al lavoro, dalla comunicazione al consumo, sono sempre più gli ambiti sociali che sono regolati da algoritmi che raccomandano, o prendono, decisioni su numerosi aspetti della nostra vita. Auto a guida autonoma, robot che automatizzano il lavoro di cura e di assistenza, tecnologie che abilitano a nuove forme di apprendimento e di organizzazione del lavoro, dispositivi per il monitoraggio in tempo reale delle condizioni di salute, sensori che governano i sistemi dei trasporti locali, avatar che si relazionano all’interno del metaverso; sono solo alcuni degli esempi che testimoniano quanto oramai gli algoritmi, e i dati che elaborano, siano destinati a diventare sempre più pervasivi. Non c’è dubbio che l’algoritmizzazione, cioè il processo di traduzione in algoritmi di fenomeni a scopo conoscitivo o normativo, abbia generato nuove opportunità, ma che, al contempo, abbia portato alla luce nuove sfide per la società e nuovi rischi. Più in generale, questo processo può essere visto come l’ultimo segnale dello sviluppo della dataficazione della società iniziata molto tempo fa (Espeland e Stevens 1998). Gli stessi discorsi che hanno giustificato la datificazione (efficienza, efficacia ecc.) mutatis mutandis stanno giustificando l’implementazione di algoritmi. Questo corso non si fermerà di certo. Alla costante diffusione degli algoritmi nella società corrisponde però solo una limitata conoscenza del loro funzionamento, e, quindi, degli effetti che questi possono generare sulle persone. Quando si intrecciano svantaggi sociali, alfabetizzazione digitale insufficiente, scarsa conoscenza del coding e accesso limitato alla tecnologia e al web, è più probabile che gli individui, da un lato, sottovalutino i rischi dei sistemi algoritmici e, dall’altro, abbiano poca fiducia nelle tecnologie algoritmiche. Più recentemente, van Dijk (2020) ha raccolto 25 anni di ricerca in questo campo, per affrontare tre presupposti spesso dichiarati sulla relazione tra le tecnologie della comunicazione e dell’informazione (TIC) e le disuguaglianze (le TIC riducono la disuguaglianza sociale; le TIC non fanno differenza; le TIC aumentano la disuguaglianza sociale). Nel bilanciare le prove, alla fine la studiosa afferma che la disuguaglianza digitale oggi non solo riflette, ma tende anche a rafforzare la disuguaglianza sociale. L’algoritmizzazione della società è quindi un fenomeno che non è percepito in modo uniforme, anche perché è l’opacità stessa degli algoritmi a renderlo sfuggente. Il funzionamento degli algoritmi non è direttamente conoscibile, è racchiuso nella «scatola nera». Aprire la scatola nera vuol dire comprendere gli elementi che costituiscono l’algoritmo: gli apparati, le tecniche e le diverse comunità di attori che hanno partecipato al suo assemblaggio. Infatti, malgrado si sottolinei sempre l’aspetto tecnico degli algoritmi, questi sono invece il risultato di un’azione umana. Interessi privati e pubblici sono i fattori essenziali che spingono verso la realizzazione di algoritmi, al fine di automatizzare e rendere possibili determinati processi. Considerare gli algoritmi come il frutto della cultura umana e degli interessi di numerosi attori evidenzia come il codice non sia un prodotto esclusivamente tecnico, ma che esso contenga, al proprio interno, tracce delle influenze socio-culturali degli individui che hanno portato alla sua realizzazione. Ad esempio, è stato notato che i motori di ricerca tendono a perpetuare gli stereotipi di genere e una cultura maschilista, che rinforza l’immagine della donna come oggetto di desiderio sessuale o associata ai ruoli tradizionali di mamma e lavoratrice domestica (Noble 2018; Amato e Aragona 2022). Gli algoritmi non impattano, poi, solo sul singolo utente di internet, ma anche su specifiche categorie di cittadini sempre più spesso costrette ad utilizzare i dispositivi digitali e la rete per usufruire di servizi fondamentali, quali la propria identità digitale, la richiesta di certificati e documenti, le operazioni finanziarie.
In questa interazione tra potere, disuguaglianze e algoritmi si è creato molto spazio per la ricerca sociale, anche se quest’ultima è spesso considerata troppo lenta per stare al passo con l’innovazione tecnologica (Selin 2008). Il motivo per cui è accusata di essere lenta è che la ricerca sociale viene per lo più svolta in autonomia dai campi tecnici che stanno promuovendo l’innovazione algoritmica. Invece, l’analisi degli algoritmi non può e non deve prescindere dai contesti e domìni più tecnici in cui questi vengono prodotti e utilizzati. Contestualizzare l’algoritmizzazione è un prerequisito per comprendere adeguatamente le sue implicazioni di fatto. C’è l’esigenza di studi empirici dettagliati che possano ricostruire le implicazioni e le conseguenze per gli stakeholder rilevanti (Kitchin 2017) e di riflessioni teoriche capaci di disegnare futuri sociotecnici alternativi (Konrad e Böhle 2019). La costruzione di un programma di ricerca sociale sugli algoritmi può avere il merito di riunire alcuni studi diversi e sparsi che da diverse angolazioni analizzano l’algoritmizzazione in divenire. Focalizzandosi, alternativamente, su pratiche, opinioni, effetti e affordance tecnologiche, si può far luce sul circuito che esiste tra i dati, il codice e l’impatto sociale di un certo algoritmo in un contesto specifico. È in questa cornice che si inserisce questo focus sugli algoritmi, che mira anche a ribadire il ruolo dei sociologi in questo campo. Infatti, il futuro dell’applicazione degli algoritmi nella società non dipenderà dalla ottimizzazione di questi strumenti, ma dalla capacità sociologica di produrre evidenze empiriche sulla loro qualità, sul loro funzionamento nella società e sui rischi di generare e automatizzare le disuguaglianze. Solo la ricerca empirica può aiutare a comprendere l’impatto, anticipare i rischi e le conseguenze non etiche, suggerire interventi precoci per evitarle o mitigarle, promuovere la resilienza e valutare che le migliori pratiche di trasparenza siano sviluppate, implementate e apprezzate.
I contributi raccolti in questo focus spaziano dalla riflessione teorica all’analisi empirica. Airoldi, incrociando abilmente concetti della letteratura STS con l’habitus bourdesiano, promuove gli algoritmi di machine learning a oggetti di studio della sociologia, così come qualsiasi altro agente socializzato e socializzante. Di taglio teorico anche il contributo di Felaco, che identifica nella consapevolezza algoritmica, e nella capacità di rilevarla correttamente in tutte le sue dimensioni, un prerequisito essenziale per l’esercizio dei diritti sociali nella società digitale. Vanno invece ad esplorare le tensioni tra le pratiche e i domìni d’uso degli algoritmi altri due contributi del focus, che hanno un taglio più empirico e presentano esperienze di etnografia digitale. Giardullo indaga le pratiche di costruzione di un fatto scientifico nelle piattaforme di Citizen Science, ribadendo la non neutralità degli algoritmi che – anche nel caso della scienza partecipativa – incorporano e promuovono specifici modelli di conoscenza scientifica. Similmente, l’etnografia digitale di Bonini e Murtula sugli host di Airbnb rivela le pratiche del lavoro sulle piattaforme digitali e le strategie di adattamento e resistenza alle logiche algoritmiche. L’ultimo contributo introduce una prospettiva riflessiva sull’uso – ora decostruttivo ora strumentale – degli algoritmi nella produzione di articoli scientifici e nel loro smascheramento. La ricostruzione delle vicende connesse all’algoritmizzazione in questo specifico ambito consente a Stazio di decostruire il nesso tra pratiche prevalenti e paradossi implicati nella loro implementazione. Sia dai risultati delle etnografie, che dagli sviluppi teorici portati avanti negli altri contributi, emergono numerosi spunti riguardo a ciò che è in gioco quando gli algoritmi entrano nelle diverse sfere della società. L’ambizione di chi scrive questa introduzione e di chi ha curato l’edizione di questo focus (Cristiano Felaco e Ciro De Falco) è che, tutti insieme, questi articoli possano ispirare e promuovere ulteriori ricerche critiche sulle complesse relazioni tra attori sociali e tecnologie algoritmiche.
Riferimenti bibliografici
Amato F. e Aragona B. (2022), «Retracing Algorithms. How Digital Social Research Methods Can Track Algorithmic Functioning», in Comunello F., Martire, F. e Sabetta, L. (eds.), What People Leave Behind: Marks, Traces, Footprints and their Relevance to Knowledge Society, Cham, Springer.
Espeland, W.N. e Stevens, M.L. (1998), «Commensuration as a social process», Annual Review of Sociology, 24(1), pp. 313-343.
Konrad, K. e Böhle, K. (2019), «Socio-technical futures and the governance of innovation processes—An introduction to the special issue», Futures, 109, pp. 101-107.
Noble, S. (2018), Algorithms of oppression: How search engines reinforce racism, New York, New York University Press.
Van Dijk, J. (2020), The digital divide, New York, John Wiley & Sons.
- Articolo
- pp:107-109
- DOI: 10.1485/2281-2652-202219-6
-
Focus. Contesti e pratiche della soggettività
-
Focus. Conoscere gli algoritmi
-
La discussione