👀🔎 La scorsa settimana le aziende Big Tech hanno pubblicato i loro primi report su come valutano i rischi sistemici delle loro piattaforme per gli utenti ai sensi del Digital Services Act dell’UE. Ecco cosa abbiamo scoperto finora: 🧵
Il post di People vs BigTech
Il modello di business basato sulla sorveglianza, i sistemi di raccomandazione tossici e le caratteristiche di progettazione che creano dipendenza (il vero modello di business di questi giganti della tecnologia) non sono considerati fonti di rischi sistemici.
Invece, i report si concentrano sul sintomo (comportamento scorretto dell’utente, moderazione inefficace dei contenuti), ignorando la causa principale: una cattiva progettazione della piattaforma.
Ciò nonostante, le prove schiaccianti che questi sistemi causano danni, tra cui la diffusione e l’amplificazione dell’odio, della disinformazione, della divisione e l’invasione della nostra privacy per profilarci e sfruttare le nostre vulnerabilità a scopo di lucro.
Non affrontando i rischi legati alla progettazione della piattaforma e ai modelli di business, le aziende Big Tech hanno ignorato anni di ricerche indipendenti su questo tema, anche da parte dei membri di #PeoplevsBigTech
Le grandi aziende tecnologiche affermano di consultare stakeholder esterni per valutare e mitigare i rischi, ma sembra che nessuna delle +120 organizzazioni in @PeoplevsBigTech, comprese quelle che hanno pubblicato ricerche sui rischi sistemici relativi alle piattaforme di social media, sia stata consultata. La DSA afferma che dovrebbero. Coincidenza?
Ci sono anche lacune nei report, ad esempio Facebook non riesce a spiegare perché identifica alcuni rischi come bassi. Alcuni report non vanno molto oltre ciò che era già di dominio pubblico, con pochissimi dati concreti su metriche ed efficacia.
Sebbene la maggior parte delle aziende Big Tech fornisca informazioni su come mitigano i rischi identificati (alcuni dei quali sono stati suggeriti da gruppi della società civile ed esperti), nessuna di esse fornisce informazioni sull’efficacia di queste misure di mitigazione.
Ad esempio, Facebook cita l’uso di etichette di disinformazione e YouTube evidenzia la funzionalità “Breaking News Shelf” come esempi di misure di mitigazione, ma non ci vengono forniti dettagli significativi sulla loro efficacia.
Abbiamo bisogno di prove che queste misure di mitigazione funzionino (o meno) per poter giudicare se siano efficaci. Finora la ricerca ha dimostrato che le piattaforme dei social media sono progettate per coinvolgere, far infuriare e creare dipendenza, danneggiando la nostra salute mentale. Se ci sono prove del contrario, vogliamo vederle!
Anche la società civile deve essere consultata in modo significativo sui rischi sistemici correlati alle piattaforme dei social media. Avendo pubblicato molte ricerche indipendenti su questo tema, sappiamo una cosa o due sui rischi 😉
Restate sintonizzati per un’analisi più dettagliata dei report nelle prossime settimane 📑 Nel frattempo, potete trovare alcune delle nostre ricerche precedenti relative ai rischi delle piattaforme di social media qui e di seguito:
globalwitness.org/en/campaigns…
panoptykon.org/sites/default/f…
panoptykon.org/sites/default/f…
panoptykon.org/sites/default/f…
en.panoptykon.org/sites/defaul…
Ringraziamo il servizio di The Reader App per l’unroll
@piratepost @eticadigitale
Certo che aspettarsi che sia Big Tech a fornire report onesti, dettagliati e che possano evidenziare un suo fallimento nel proteggere gli utenti è proprio ingenuo. Gli ci vorrebbe un bell’audit indipendente.