Apple consente a Parler di tornare nell'App Store dopo le nuove promesse di moderazione

0
68

Apple prevede di consentire a Parler di tornare nell'App Store, dopo aver eliminato il social network rivale di Twitter a gennaio per le accuse che era stato utilizzato dagli insurrezionalisti del Campidoglio degli Stati Uniti il ​​6 gennaio per pianificare atti violenti. Apple e Google hanno scelto di rimuovere l'app dai rispettivi negozi di download, mentre Amazon Web Services ha estromesso Parler dai suoi server.

Ha provocato accuse di censura dell'industria tecnologica e riacceso le discussioni sulla libertà di parola in America. Parler ha trascorso parecchie settimane effettivamente offline mentre cercava di ricostruire su una piattaforma di hosting alternativa; da allora, funziona senza un'app ufficiale nell'App Store.

Questo, però, sembra destinato a cambiare. In una lettera al Congresso, Apple ha confermato che avrebbe consentito a Parler di tornare nell'App Store se il social network avesse deciso che lo desiderava, essendo stata convinta dalle nuove politiche sull'incitamento all'odio e l'incitamento alla violenza.

La mossa per rimuovere Parler a gennaio è stata "una decisione indipendente", ha ribadito Apple nella lettera, indirizzata al Sen. Mike Lee e al Rep. Ken Buck e pubblicata da quest'ultimo su Twitter. L'azienda di Cupertino "non si è coordinata né si è consultata in altro modo con Google o Amazon in merito a tale decisione", insiste Apple.

A titolo di spiegazione, Apple indica due delle sue regole per le app di terze parti. La linea guida 1.1.1 afferma che le app devono essere libere da contenuti discriminatori o offensivi, incluso qualsiasi cosa che possa umiliare, intimidire o danneggiare individui o gruppi mirati. La linea guida 1.2, nel frattempo, stabilisce i requisiti per le app con contenuti generati dagli utenti per fornire una moderazione sufficiente per gestire la linea guida 1.1.1.

"Il team di revisione delle app di Apple ha trovato un numero significativo di post sull'app Parler che violavano chiaramente la linea guida 1.1.1, inclusi post che incoraggiavano la violenza, denigravano vari gruppi etnici, razze e religioni, glorificavano il nazismo e chiedevano violenza contro persone specifiche, "Apple spiega nella lettera. "Il volume e i tipi di contenuti proibiti disponibili nell'app Parler indicavano inoltre che Parler non era conforme alla linea guida 1.2 poiché le loro pratiche di moderazione erano chiaramente inadeguate a proteggere gli utenti da questo contenuto dannoso e pericoloso."

Parler, afferma Apple, è stato avvertito di queste preoccupazioni all'indomani dell'evento terroristico del Campidoglio degli Stati Uniti, in cui i rivoltosi hanno preso d'assalto l'edificio a Washington DC Tuttavia la società non è riuscita a definire un piano per migliorare sufficientemente la moderazione, e come tale l'app è stata rimossa dall'App Store. Quelli con esso già installato sul proprio dispositivo iOS sono stati in grado di continuare a utilizzarlo, sottolinea Apple, e Parler era accessibile tramite il browser, almeno fino a quando Amazon non ha deciso di estrarre i suoi server.

Ora, avendo apparentemente convinto Apple che prenderà sul serio la moderazione, Parler potrà tornare nell'App Store.

"Nel periodo trascorso da quando Apple ha rimosso l'app Parler dall'App Store, il team di revisione delle app di Apple ha intrattenuto conversazioni sostanziali con Parler nel tentativo di rendere l'app Parler conforme alle Linee guida e ripristinarla nell'App Store", scrive Apple . "Come risultato di queste conversazioni, Parler ha proposto aggiornamenti alla sua app e alle pratiche di moderazione dei contenuti dell'app", continua la lettera.

"Apple prevede che l'app Parler aggiornata sarà disponibile immediatamente non appena Parler la rilascerà", conclude la società.

I dettagli esatti delle nuove politiche di moderazione sono sconosciuti a questo punto, e al momento della pubblicazione le linee guida della comunità attualmente pubblicate da Parler sono datate 14 febbraio 2021. Parler aveva precedentemente affermato di aver volontariamente "indirizzato contenuti violenti dalla sua piattaforma all'FBI per indagini più di 50 volte ", ha riferito il NYT, provocando proteste da parte di alcuni utenti.