Valigia BLU Intelligenza artificiale, filtri e contenuti sui social: “L’odio resterà. A sparire saranno i diritti e le libertà degli individui”
Intelligenza
artificiale, filtri e contenuti sui social: “L’odio resterà. A sparire
saranno i diritti e le libertà degli individui”
Ricorda di citare la fonte: https://www.valigiablu.it/europa-copyright-facebook-censura/
Licenza cc-by-nc-nd valigiablu.it
Ricorda di citare la fonte: https://www.valigiablu.it/europa-copyright-facebook-censura/
Licenza cc-by-nc-nd valigiablu.it
Intelligenza
artificiale, filtri e contenuti sui social: “L’odio resterà. A sparire
saranno i diritti e le libertà degli individui”
Ricorda di citare la fonte: https://www.valigiablu.it/europa-copyright-facebook-censura/
Licenza cc-by-nc-nd valigiablu.it
Ricorda di citare la fonte: https://www.valigiablu.it/europa-copyright-facebook-censura/
Licenza cc-by-nc-nd valigiablu.it
L’approvazione
nelle scorse ore della contestata riforma europea sul copyright da
parte del Comitato Affari Legali del Parlamento UE, se confermata in
assemblea plenaria, segnerà una rivoluzione copernicana per la
creazione e condivisione di contenuti in rete. Se fino a oggi le
piattaforme digitali si presumevano non responsabili dei contenuti
dei propri utenti, ed erano chiamate a rispondere solo in seguito a
segnalazione di contenuti illeciti già pubblicati, da ora saranno
costrette a intervenire prima ancora che vengano pubblicati. I
critici le chiamano censorship machines, macchine da censura. E hanno
ragione: nel nome della tutela del diritto d’autore, si instaura un
meccanismo per cui ogni contenuto deve passare il vaglio preventivo
di una serie di algoritmi — opachi e ignoti al legislatore come
all’opinione pubblica — il cui compito è creare una sorta di
barriera all’ingresso alla rete. Se al check-point algoritmico si
presenta per esempio un video che, in tutto o in parte, corrisponde a
un contenuto protetto sulle liste fornite dai titolari del copyright,
allora va bloccato prima ancora della pubblicazione. Anche se la
normativa europea non lo chiama così, si tratta in tutto e per tutto
di un sistema di filtraggio. Idea pericolosa in sé, ma che lo
diventa ancor più se si pensa che si tratta di un controllo a priori
per nulla trasparente, dai contorni vaghi e senza che si comprenda di
quali meccanismi di tutela e appello disponga chi si vede rimuovere,
e automaticamente, contenuti perfettamente leciti. Le piattaforme che
gestiscono “grandi quantità” di materiale in upload, in una
radicale inversione di marcia rispetto all’impianto legislativo che
aveva retto fin dal 2001, diventano a questo modo sceriffi del web
intenti a schedare ogni contenuto immesso in rete, confrontarlo con
quelli protetti da diritto d’autore, e intervenire in caso di
violazioni — se vogliono evitare di pagare le conseguenze di un uso
illecito dei propri servizi da parte degli utenti. E questo potrebbe
finire per riguardare ogni tipo di contenuto, dai video satirici a
quelli amatoriali ma che contengono in sottofondo, per esempio, un
passaggio di una canzone protetta da copyright. Perfino i meme, che
tipicamente si riappropriano di materiale proveniente da film, serie
tv e altri prodotti di massa, sono a rischio. Come hanno scritto 70
tra gli esperti di Internet più autorevoli al mondo in una lettera
aperta al presidente del Parlamento Ue, Antonio Tajani, la nuova
norma, “richiedendo alle piattaforme digitali di condurre un
filtraggio automatico di tutti i contenuti che l’utente carica, (…)
compie un passo senza precedenti verso la trasformazione di Internet
da una piattaforma aperta per condividere e innovare a uno strumento
per la sorveglianza e il controllo automatico degli utenti”. Grave,
gravissimo. Ma ancor più grave, e francamente sorprendete, è che la
ratio adottata dal legislatore europeo sia perfettamente coerente con
quanto stanno annunciando tutte le principali piattaforme
tecnologiche. Che si dipingono sempre meno come soggetti neutri,
semplici mediatori tra i bisogni dell’utenza e la loro
realizzazione, e sempre più come agenti attivi delle sorti
collettive. Se per anni, insomma, l’idea che questi “intermediari”
della comunicazione — come li chiamano i giuristi — fossero
responsabili delle azioni dei loro iscritti era anatema, oggi non lo
è più. E no, non è una buona notizia. Grazie, dibattito sull’odio
e le bugie in rete! Far capitolare i colossi del digitale non è
stato semplice. Ci sono voluti mesi, anni di tortura mediatica,
basata spesso più su pregiudizi che su evidenze solide, su quanto
odio ci fosse sui social media, quante bugie, quanti troll e bot
scientificamente addestrati e coordinati per influenzare il consenso
e la politica, quanti cyber-bulli, quanti estremisti, quanti
terroristi. Ma alla fine, il lungo, estenuante dibattito sul “lato
oscuro” della rete ha partorito il suo mostro. E lo ha fatto in
diretta, mentre gli occhi del mondo erano puntati sul fondatore di
Facebook, intento a rispondere alle domande dei senatori statunitensi
che lo stavano accusando, a reti unificate, per gli abusi della
fiducia degli utenti nel caso Cambridge Analytica. “In passato ci è
stato detto che piattaforme come Facebook, Twitter, Instagram sono
neutrali. Che non sono responsabili dei contenuti degli utenti. Lei è
d’accordo”, chiede il senatore John Cornyn a Zuckerberg in un
passaggio che resterà nella storia, “che Facebook e gli altri
social media non siano piattaforme neutrali, ma che siano in parte
responsabili di quei contenuti?” La risposta di Zuckerberg lascia
di stucco. “Sono d’accordo”, ammette per la prima volta, “siamo
responsabili dei contenuti”. Significa che Facebook è una media
company, un editore come tutti gli altri? Niente affatto,
naturalmente. Ma la torsione che prende l’argomento di Zuckerberg è
quasi perfino peggiore. Perché segna il passaggio da un approccio
reattivo alla moderazione dei contenuti, in cui la piattaforma
interviene solo a seguito di segnalazione, a un approccio proattivo.
Tradotto: sì, il numero uno di Facebook è d’accordo con l’idea
che certi contenuti sgraditi o illeciti debbano essere rimossi prima
ancora di vedere la luce sulla piattaforma, e sulla base di sistemi
di riconoscimento e intervento sui contenuti del tutto indipendenti
da ogni richiesta da parte di utenti o titolari di diritti. Sembra un
dettaglio, ma è una rivoluzione — la stessa promossa dall’Unione
Europea, per altro. Per capire perché, giova riportare un altro
passaggio dalla testimonianza di Zuckerberg al Senato USA; quello in
cui la sua logica è spiegata più chiaramente: Stiamo attraversando
un più ampio mutamento filosofico nel modo in cui concepiamo la
nostra responsabilità come azienda. Per i primi 10-12 anni, l’ho
immaginata principalmente come un costruire strumenti che, messi
nelle mani delle persone, avrebbero consentito loro di fare cose
buone. Ciò che però penso di avere imparato ora da molte questioni
— non solo la privacy dei dati, ma anche le fake news e
l’interferenza straniera nelle elezioni — è che dobbiamo
assumere un ruolo più proattivo e una visione più ampia della
nostra responsabilità. Costruire strumenti non è abbastanza.
Dobbiamo assicurarci che siano usati per fare del bene. E ciò
significa che dobbiamo ora avere una visione più attiva nel
monitorare l’ecosistema, nel controllarlo e nell’assicurarci che
tutti i membri della nostra community stiano usando questi strumenti
in modo buono e sano. È il riflesso del complicarsi della stessa
mission dell’azienda: connettere il mondo non basta più a
garantire, come agli esordi, che sia più “aperto”. Ora bisogna
agire attivamente affinché si creino relazioni “significative”,
perché le persone usino la piattaforma per sentirsi parte di una
comunità, confrontarsi in modo costruttivo e imparare l’una
dall’altra nel rispetto delle reciproche differenze. Il
tecno-entusiasmo degli inizi ha lasciato il posto, dopo infiniti
scandali, alla consapevolezza che Facebook non è necessariamente un
agente del bene, del multiculturalismo, dei diritti e della
democrazia. Al contrario: affinché ciò si realizzi, serve fatica.
Servono misure precise per intervenire sui difetti che incentiva e
correggerli. Ammesso sia possibile. Ed è su come Zuckerberg
concepisce quegli interventi che il discorso si lega ai filtri
preventivi imposti dall’Unione Europea. Il CEO di Facebook non è
improvvisamente impazzito: se è disposto ad assumersi la
responsabilità del buon uso della piattaforma da parte dei suoi
utenti, è perché è convinto di avere la panacea, in tasca. Una
medicina che cura ogni male, e che si chiama “intelligenza
artificiale”. Non è un caso che in quella testimonianza ripeta il
concetto più di 30 volte. Trovare profili falsi? C’è l’AI.
Rimuovere l’hate speech prima che porti a violenze e abusi? Di
nuovo, c’è l’AI. Impedire alla propaganda di ISIS e dell’estrema
destra che risorge, come una Fenice, dalle ceneri del Novecento, di
diventare virale; intercettare un post o una diretta video in cui il
protagonista minaccia il suicidio, prima che lo compia; contrastare
persecuzioni a sfondo razziale o di genere; spegnere i bulli. Per
tutto questo, c’è l’intelligenza artificiale. O meglio, ci sarà.
Al momento però c’è una promessa di risposta a ogni problema, di
una medicina per ogni male. E dunque sì, può dire Zuckerberg, siamo
e saremo in grado di controllare preventivamente che i contenuti
degli utenti non violino il diritto d’autore, la privacy o la
dignità altrui, e non foraggino messaggi estremisti, perché grazie
alla magia degli algoritmi di moderazione, sempre più intelligenti,
potremo gestire molti più contenuti, molto più rapidamente, e con
tassi di precisione sempre maggiore. Ormai lo assumono di passaggio
anche gran parte dei resoconti giornalistici sulla materia. Come
fosse autoevidente, necessario. Un destino. “Siamo responsabili dei
contenuti” diventa dunque: “i nostri algoritmi saranno
responsabili dei contenuti, e saranno talmente infallibili che, di
fatto, non saremo responsabili di nulla”. Sì dunque al controllo
preventivo: tanto il filtro funzionerà talmente bene che i contenuti
leciti resteranno online indisturbati, e quelli illeciti non vedranno
nemmeno la luce del monitor. Così i genitori infuriati, le donne
perseguitate, i bambini esposti a decapitazioni e violenze, i
giornalisti preoccupati per il perdere senso della verità saranno
finalmente soddisfatti. E con loro, la politica, sempre a caccia di
un capro espiatorio alla moda. Se non fosse un incubo, sembrerebbe
una fiaba: e vissero tutti felici e contenti. Gli sceriffi automatici
conquistano Silicon Valley E quando scrivo tutti, intendo proprio
tutti. Perché il cambio di paradigma teorizzato da Zuckerberg
investe già l’intera Silicon Valley. E non solo a parole: nei
fatti. Si prenda il primo rapporto trimestrale sulla moderazione dei
contenuti su YouTube, pubblicato lo scorso aprile. Al suo interno si
legge che il social network ha rimosso, tra ottobre e dicembre 2017,
otto milioni di contenuti, per la maggior parte di spam e
pornografici. Ma soprattutto che di quegli otto milioni, 6,7 “sono
stati segnalati per la revisione da macchine, piuttosto che da
umani”. Non solo, si legge: il 76% di quei contenuti ritenuti
sospetti da algoritmi sono stati rimossi prima ancora di essere stati
visualizzati una sola volta. E i tassi di automazione sono cresciuti
vertiginosamente, in poco tempo: “Nel giugno del 2017”, scrive
Google, “il 40% dei video rimossi per violenza estremista sono
stati eliminati prima di ricevere una sola segnalazione umana. Una
percentuale rapidamente cresciuta al 76% nell’agosto 2017, e
all’83% nell’ottobre 2017. A dicembre 2017, il 98% dei video
rimossi per violenza estremista sono stati identificati dai nostri
algoritmi di machine learning”. Per Google, ciò non significa meno
revisione umana. Al contrario, le segnalazioni algoritmiche
consentiranno di velocizzare di molto il processo, sostiene
l’azienda, potenziando le circa 10 mila unità in carne e ossa
dedicate alla moderazione. Come Facebook, il colosso si muove ancora
nell’interregno in cui l’intelligenza artificiale non è
abbastanza intelligente da fare da sola, e dunque — vista l’urgenza
e le pressioni di media e politica — ecco moltiplicarsi gli staff
di revisori. Ma sono misure tampone. Il futuro sarà l’AI in ogni
cosa, come dimostrano le rispettive conferenze in cui, ogni anno,
Google e Facebook danno squarci sul loro futuro, l’I/O e l’F8.
Nell’ultima, Google ha addirittura immaginato un assistente
virtuale, Duplex, capace di interagire al telefono con esseri umani
per prenotare, per esempio, un ristorante, senza che l’umano
all’altro capo della cornetta si possa accorgere di avere a che
fare con una voce sintetica. Anche Twitter ha recentemente annunciato
una novità che risponde alla stessa logica del primato della
moderazione “intelligente”: mettere in campo algoritmi che
garantiscano la “salute” — stesso termine usato da tutti e tre
i colossi social — delle conversazioni online. L’idea di Twitter
è tuttavia più raffinata, e pericolosa: usarli non per rimuovere
contenuti illeciti, in violazione delle condizioni di utilizzo, ma
per diminuire la visibilità di contenuti leciti, ma da parte di
soggetti i cui comportamenti “distraggano e sottraggano” gli
utenti da un sano e regolare dibattito pubblico. La domanda che
immediatamente sovviene è: ma chi decide quali meritano di finire
catalogati nella categoria dei disturbatori da penalizzare, e con
quali criteri? Twitter parla di nuovi “segnali” da dare in pasto
ai propri algoritmi di moderazione, così da ottenere il massimo
risultato in modo automatico, senza il bisogno delle segnalazioni
degli utenti. Un profilo che non ha confermato il proprio indirizzo
mail, una stessa persona che crea più profili contemporaneamente, o
la continua menzione di profili che non la seguono sono tutti segnali
definiti sospetti. Ma il confine tra “salute” di una
conversazione e “censura” di chi usa i toni più accesi o
imprevedibili è labile. E non ci si può chiedere, con Mathew
Ingram, quanti profili e tweet perfettamente legittimi finiranno per
essere ingiustamente penalizzati da questa nuova trovata anti-troll.
Il tutto aggravato dal fatto che Twitter, come ammette la VP per
fiducia e sicurezza, Del Harvey, a Slate, non ha in previsione una
procedura per avvisare gli utenti colpiti. Potremmo essere nella
lista nera di qualche algoritmo a nostra insaputa, senza nemmeno
sapere per quale ragione. Le domande si moltiplicano, e le risposte
non sembrano convincere. Eppure intanto il mondo tecnologico sembra
ancora una volta avere deciso per tutti noi: la moderazione o sarà
automatica e intelligente, o non sarà. Giornali come l’Economist,
il New York Times e il Guardian, ma anche piattaforme come Wikipedia,
hanno cominciato a sperimentare lo strumento di moderazione
intelligente di Jigsaw e Google, Perspective, per “trovare pattern
nei dati che consentano di individuare linguaggio offensivo o
molestie online, e dare un punteggio ai commenti basato sull’impatto
percepito che possono avere su una conversazione”, così da
facilitare la vita ai moderatori umani. Strumenti di moderazione
“intelligente” sono all’opera in ogni campo, ovunque. Il
sistema Utopia AI viene impiegato per gestire il più importante
marketplace online di Svizzera, tutti.ch, 12,5 milioni di utenti al
mese, e la piattaforma sociale finlandese, Suomi24. Smart Moderation
ha già moderato un miliardo di messaggi in servizi in tutto il
mondo, da oltre un milione di utenti. La piattaforma di
live-streaming, Twitch, ha implementato nel 2016 AutoMod, un filtro
algoritmico alla sezione commenti che consente agli utenti di
impostare il livello di civiltà della conversazione — e
all’algoritmo di rimuovere in automatico contenuti inopportuni. E
strumenti come Crisp vantano già la perfezione o quasi, garantendo
un tasso di accuratezza superiore al 99%. L’algoritmo per la
civiltà, alla fine dell’arcobaleno Ma siamo proprio sicuri che
questi sistemi “intelligenti” siano poi così intelligenti? Ci
sono molte ragioni di dubitarne. La prima è concettuale: non esiste
né esisterà mai un algoritmo per rimuovere il male, l’idiozia e
la violenza dal mondo. Per quanto una macchina possa essere smart,
nessuna lo sarà mai abbastanza da garantire il prodursi di
conversazioni civili e razionali. L’essere umano è fallibile e
preda delle emozioni — ed è bene lo resti. Chiunque invece pensi
l’opposto da un lato terrorizza, perché vuole una società di
politicamente corretti, conformisti, e soprattutto di schiavi della
volontà di moderatori automatici inconoscibili, proprietà di
colossi privati e sottratti allo scrutinio pubblico. Dall’altro,
ricorda la ricerca, vana, della pignatta d’oro in fondo
all’arcobaleno: un miraggio. Poi c’è la cronaca, i fatti. I
molteplici casi in cui gli algoritmi di moderazione falliscono. La
loro rozzezza, per esempio, ha portato a confondere violenza
terroristica e documentazione di crimini di guerra, e dunque alla
rimozione di testimonianze di atrocità compiute in Siria
potenzialmente cruciali per punirne i responsabili. Su YouTube,
grazie alla svolta verso la moderazione intelligente, “proattiva”,
900 profili di gruppi e individui che stavano documentando la guerra
siriana sono spariti dalla sera alla mattina. In un altro caso, un
banale errore di traduzione automatica ha portato all’arresto di un
perfetto innocente. Un uomo palestinese che, un mattino, pubblica una
foto che lo ritrae appoggiato a un bulldozer, con un semplice
commento: “buongiorno”. L’AI di Facebook, tuttavia, lo traduce
con “attaccali” in ebraico, e “colpiscili” in inglese, e
tanto basta perché l’uomo attiri le attenzioni della polizia
israeliana, fino all’arresto e al rilascio solo ore più tardi,
compreso il malinteso. Quanto all’uso dell’automazione per
tutelare il copyright, gli esperti concordano: i sistemi attuali sono
nella migliore delle ipotesi “imperfetti”, restando incapaci di
situare ogni contenuto nel suo contesto, comprendendone la semantica,
l’ironia, le sottigliezze. Sono solo una parte infinitesimale dei
problemi che si possono presentare una volta che i filtri algoritmici
preventivi diventino la norma, addirittura di legge. Si pensi a
quanto sta accadendo in Germania, dove una contestatissima legge
“anti-fake news” — in realtà, contro i contenuti illeciti o
ritenuti tali — impone la rimozione di post inappropriati entro
poche ore, pena una multa fino a 50 milioni di euro. Bella minaccia,
a cui Facebook ha scelto come è naturale di rispondere con un
eccesso di rimozioni: meglio un contenuto lecito in meno che milioni
e milioni di euro in multe da pagare. E allora ecco pagine satiriche,
o post con posizioni politiche estreme, magari, ma consentite sparire
senza troppe spiegazioni. È il destino che ci aspetta arrendendoci
alla moderazione automatica, e ai filtri che dovrebbero impedire al
male di venire al mondo: più decisioni arbitrarie estrapolate dal
contesto, meno trasparenza, più rapidità nella rimozione anche al
prezzo di rimozioni errate, più autocensura per timore che l’ironia
o la critica non siano considerate accettabili. L’odio, insomma,
resterà. A sparire saranno i diritti e le libertà degli individui.
Il caos digitale non si elimina, ma si può guardare meglio Che si
può fare? Prima di tutto, contrastare in ogni modo e con ogni mezzo
l’approvazione definitiva della norma europea sul copyright. È
inaccettabile che nel nome del diritto d’autore si sacrifichi ogni
altro diritto. Soprattutto, è urgente rifiutare la logica
sottostante: che le piattaforme debbano essere responsabili dei
contenuti dei loro utenti. Fare di Facebook un editore non risolve i
problemi dell’editoria, ma in compenso fornisce un incentivo
formidabile a Facebook per diventare un censore, molto più di quanto
non lo sia già. Non solo. I contenuti di propaganda terroristica
hanno un valore, per chi studia e comprende i gruppi terroristici,
per esempio. I post di odio di un neofascista parlano del modo in cui
il neofascismo opera e si diffonde. E non tutti gli insulti sono un
peccato capitale: a volte la conversazione può scaldarsi, come nella
vita reale, senza che ciò configuri un reato o pregiudichi del tutto
la possibilità di dialogo. Ciò non significa che allora vada tutto
bene così com’è e che si debba annegare nella bassezza umana.
Significa però che l’idea di eliminarla dal campo visivo non la
redime o corregge, e ci toglie ogni possibilità di capire come si
stia presentando oggi, effettivamente, quella bassezza. Ancora,
significa che meglio di rimuovere dal campo visivo un ostacolo è
vederlo più a fondo. E no, dare in pasto ad algoritmi la gestione
del confine tra dicibile e indicibile non è un buon modo di
riuscirci. La nuova promessa utopistica di Silicon Valley, che l’AI
gradualmente farà delle distese di erbacce social altrettanti campi
fioriti, va dunque a sua volta contrastata, con nettezza. Anche solo
perché consente, come dimostrato dalle testimonianze di Zuckerberg
negli Stati Uniti e a Bruxelles, risposte di comodo che non
affrontano le specificità dei singoli problemi posti. Non si può,
poi, lamentare che i social ci privano della democrazia perché ci
sorvegliano troppo e poi firmare una cambiale in bianco per farci
sorvegliare ancora di più, addirittura spingendo il controllo alla
fase di pubblicazione dei contenuti. Né è possibile sostenere
ragionevolmente che la soluzione al problema, oramai palese,
dell’opacità degli algoritmi di selezione e moderazione dei
contenuti sia aumentare i poteri di quegli algoritmi sulle nostre
vite, senza ottenere in cambio alcuna trasparenza aggiuntiva. Non che
i giganti web non abbiano cominciato a pubblicare — solo a seguito
di inchieste e rivelazioni giornalistiche, peraltro — i criteri
seguiti davvero nella moderazione dei contenuti, o rapporti per la
trasparenza che dettagliano cifre e percentuali su rimozioni umane e
automatiche. È che in assenza di un modo per verificarli, quei dati
non significano assolutamente nulla. Per questo siamo costretti a
fidarci di Twitter quando annuncia che con il nuovo sistema per
ridurre la visibilità dei disturbatori c’è stato “un calo del
4% nelle segnalazioni di abusi da ricerche e dell’8% dalle
conversazioni”. O di Facebook, quando dice, allo scorso Personal
Democracy Forum, che l’AI è più precisa delle segnalazioni degli
utenti del 60% nel contrasto dell’hate speech. Serve, insomma, più
trasparenza e meno fideismo cieco. Un modo per cominciare a
incamminarsi sulla strada giusta sarebbe osservare quantomeno i
principi stabiliti a maggio 2018 da organizzazioni come EFF, ACLU e
Open Technology Institute in materia di moderazione dei contenuti.
Più informazioni sulle rimozioni, più strumenti nelle mani degli
utenti per comprendere gli errori eventualmente commessi, e la
possibilità di fare appello alle decisioni delle piattaforme nel
caso fossero ancora convinti di essere nel giusto sono solo il punto
di partenza, ma sono già qualcosa. E se proprio una parte del lavoro
deve essere svolta da algoritmi, che ci si ponga almeno il problema —
sollevato dai massimi rappresentati ONU — di coniugare rimozione
automatica e diritti umani. Se davvero il futuro impone una
collaborazione di intelligenza umana e artificiale nel tenere a freno
i nostri istinti più bassi, gli sforzi devono concentrarsi su
sviluppare algoritmi a misura d’uomo, più che piattaforme digitali
a misura di algoritmo.
Ricorda di citare la fonte: https://www.valigiablu.it/europa-copyright-facebook-censura/
Licenza cc-by-nc-nd valigiablu.it
Ricorda di citare la fonte: https://www.valigiablu.it/europa-copyright-facebook-censura/
Licenza cc-by-nc-nd valigiablu.it
Intelligenza
artificiale, filtri e contenuti sui social: “L’odio resterà. A sparire
saranno i diritti e le libertà degli individui”
Ricorda di citare la fonte: https://www.valigiablu.it/europa-copyright-facebook-censura/
Licenza cc-by-nc-nd valigiablu.it
Ricorda di citare la fonte: https://www.valigiablu.it/europa-copyright-facebook-censura/
Licenza cc-by-nc-nd valigiablu.it


Commenti
Posta un commento