La adaptive fashion è una nicchia sempre più rilevante del mercato della moda. Si rivolge alle persone con disabilità, alle loro necessità fisiche e ai desideri: lingerie con lacci e chiusure che ne facilitano l'indosso, cuciture su jeans e pantaloni per non irritare la pelle di chi è in sedia a rotelle, chiusure magnetiche per camicie e bluse, bag dedicate a contenere eventuali sacche o cateteri. Un mercato in espansione che punta verso i 392 miliardi di valore complessivo nel 2026, secondo quanto riportato in una ricerca di Coherent Market Insights. Eppure le inserzioni pubblicitarie dei brand che si dedicano alla ricerca/produzione di abbigliamento per corpi con disabilità, non incontrano il favore dell'automatizzazione sul social più famoso di tutti. Nel corso dell'ultimo anno sono stati tanti i piccoli marchi di adaptive fashion che si sono visti rigettare le inserzioni pubblicitarie su Facebook. Motivo? I contenuti - foto, testi, indicizzazione - venivano interpretati come "prodotti medicali e per la salute e servizi che includono strumenti medici" e immediatamente rigettati per violazione degli standard della community. Perché? La risposta sta nella programmazione degli algoritmi di Facebook per le inserzioni. Siamo nel campo dell'intelligenza artificiale e del machine learning. Gli algoritmi regolano e influenzano la vita online/offline, ma non sono mai neutri e obiettivi come a lungo è stato raccontato e fatto credere. Sono persone reali a scrivere i complessi calcoli matematici degli algoritmi, e questi tenderanno a riflettere il paradigma culturale di chi li programma. "Ogni sistema di catalogazione nel machine learning contiene una visione specifica. Ogni singolo sistema" ha riassunto al New York Times Kate Crawford, docente ospite in artificial intelligence and justice all'École Normale Supérieure di Parigi. Il rischio di discriminazione algoritmica c'è. Gli algoritmi possono essere razzisti, omofobi, peccare di disparità di genere, abilismo, ageismo e visioni parziali per N motivi: gli "standard" sono modellati su ciò che è considerato standard, sono spesso la replica di uno schema mentale e culturale preesistente del programmatore (che appartiene in larga parte ad una specifica categoria umana e sociale, pure se le cose iniziano a cambiare) o del committente dell'algoritmo. "Gli algoritmi sono semplicemente automatizzati. E delle supposizioni automatizzate, se non sistemi i problemi, portano a pregiudizi automatizzati" dichiarò la deputata americana Alexandria Ocasio-Cortez nel 2019, durante il Martin Luther King Day, una delle prime politiche ad esprimersi sul tema.

Questo si riflette nella scrittura degli algoritmi più vari: quelli che servono a programmare i software di riconoscimento facciale, misurano la produttività lavorativa, analizzano le immagini di nudo per evitare la pubblicazione di contenuti esplicitamente sessuali, gestiscono i software delle assicurazioni sanitarie o l'accesso ai fondi di welfare per le classi meno abbienti. Ma i primi, riporta Esquire, negli Stati Uniti sono stati accusati di razzismo, come pure i quarti e gli ultimi; i secondi tacciati di eccessivo controllo ed errori madornali nell'effettivo calcolo dell'efficienza lavorativa; i terzi discriminatori perché sessualizzano sistematicamente il corpo delle donne rispetto a quello degli uomini (il caso dei capezzoli femminili censurati su Instagram). Cosa accomuna questi algoritmi? Sono scritti seguendo specifiche richieste di raccolta ed elaborazione automatizzata di determinati dati. Per quanto generalisti possano essere immaginati, resteranno comunque parziali e non inclusivi, replicando bias cognitivi -cultura, pregiudizi, stereotipi, semplificazioni, legami logici e non-logici tra categorie di pensiero- che li allontanano sempre di più dallo sbandierato obiettivo di diversity, equity and inclusion (D.E.I.) che teoricamente si prefiggono di rispettare. In aziende così profondamente capillari nell'influenzare la società attuale (come Instagram e Facebook, entrambe di proprietà di Mark Zuckerberg), l'enorme problema della programmazione degli algoritmi discriminatori non può essere ignorato. Ormai non riguarda soltanto contenuti personali e libertà di espressione, ma impatta a livello commerciale: le piattaforme social hanno superato il concetto di vetrina per diventare veri shop a sé. E gli algoritmi sono un punto cruciale nel dibattito sulla sparizione dei piccoli produttori, specialmente in nicchie di mercato che riguardano il tema della diversità. "È uno dei problemi più comuni. Gli algoritmi risolvono i problemi di efficienza su larga scala, ma nel farlo causano anche altre cose, come colpire i piccoli business" spiega il professore di media, algoritmi e società Tobias Matzner dell'Università di Paderborn, in Germania. Ciò che è accaduto alle inserzioni pubblicitarie delle aziende di adaptive fashion citate dal NYT è un nuovo esempio di discriminazione che impatta pesantemente sulla visibilità. Includere le marginalità negli algoritmi più sofisticati e precisi presuppone uno scardinamento del sistema culturale di programmazione, sostiene l'attivista e modella Sinéad Burke, per garantire una vasta gamma di punti di vista in grado di riscrivere gli standard: "L'accesso deve essere qualcosa in più di semplice accesso digitale. E dobbiamo capire chi comanda nella stanza dove questi sistemi vengono creati".