Grane legali per Facebook. Quando i social media diventano veicolo di contenuti illeciti

di a cura di Carlo Piana - 17 novembre 2016

La responsabilità dell’hosting provider -- ovvero chi ospita contenuti e servizi scelti e caricati da terzi --  continua a essere un tema caldo. Anche le cronache di stampa mettono in luce casi di responsabilità che a non tutti sono ben chiari, come per la vicenda del video virale che ha portato al suicidio una giovane donna napoletana.

 

 

Partiamo da quest’ultimo caso. Poche settimane fa, a qualche giorno dal tragico esito della vicenda, avevo scritto su queste pagine l’articolo "Don’t feed the algorithm. L’oblio sfuggente e le dure dinamiche di Internet" in cui sviluppavo qualche riflessione sulle dure dinamiche di un medium come Internet, governato da algoritmi ancora prima che da scelte umane. Certo, gli algoritmi sono fatti da esseri umani e comunque non fanno altro che agire sui dati relativi alle azioni e scelte degli esseri umani (azioni e scelte che si manifestano sotto forma di click). Ma non vi è dubbio che gli algoritmi amplificano certi “effetti collaterali” già conosciuti negli altri media (si veda ad esempio l’effetto Barbra Streisand); e la velocità e la globalità tipiche di Internet fanno tutto il resto.

La curiosità, il cinismo e la stupidità invece… be’ quelli rimangono squisitamente di competenza umana.

 

L’ordinanza del 4 novembre

A conferma che l’oblio è ancora lontano a venire (con buona pace dei parenti della vittima), in questi giorni si torna a parlare della vicenda poiché il Tribunale di Napoli Nord lo scorso 4 novembre ha emesso un’ordinanza di reclamo (leggi il testo integrale su JurisWiki.it) nella vertenza tra Facebook Ireland e gli eredi della defunta, che chiedevano un più ficcante controllo e filtraggio di eventuali link o commenti lesivi.

Il giudice da un lato ha riconosciuto a Facebook la posizione di Internet Service Provider (ai sensi della Direttiva 2000/31/CE), dall’altro ha stabilito che fosse obbligo di Facebook rimuovere i contenuti offensivi che erano stati segnalati dagli utenti. Questo il cuore del provvedimento:

 

Non ritenendosi sussistente un dovere di Facebook di verificare in via anticipata il contenuti dei post e dei commenti immessi dagli utenti, non appare di conseguenza configurabile a suo carico il dovere di inibire, in via generale un caricamento sulla sua piattaforma “di ogni video, immagini, notizie o articoli riferiti alla persona della ricorrente” essendo, invece, possibile impedire, nell’ottica del dovere di controllo “successivo” (perché preceduto da una denuncia in cui sono stati individuati gli URL o i link dal contenuto lesivo) e “mirato” (perché diretto a impedire nuovi caricamenti degli URL o link già segnalati), il solo nuovo caricamento degli stessi specifici links comunicati, [...] piuttosto che del contenuto degli stessi per le ragioni ampiamente esposte.

 

Quindi in realtà nulla di particolarmente rivoluzionario per i giuristi che si occupano di questa materia; ma comunque, visto che la giurisprudenza italiana su questa materia non è poi così copiosa, si tratta di un’importante conferma e di un’utile precedente giurisprudenziale.

Tra l’altro, qualcuno ha giustamente fatto notare che il video, pur essendo stato rimosso dai canali principali, continua a ricomparire qua e là nei molti siti hard che prevedono la possibilità da parte degli utenti di caricare direttamente dei contenuti. Sempre in virtù del principio che l’utente che carica si assume la responsabilità di ciò che carica e che il service provider non ha un obbligo di validare a priori i contenuti. Quindi il meccanismo sarà sempre quello: gli utenti che sono entrati in possesso del video lo caricheranno, qualcuno farà la segnalazione, il service provider interverrà rimuovendo il contenuto ed eventualmente bannando l’utente… fin quando qualche altro utente, in qualche altro sito, ripubblicherà nuovamente il video. Così fino al benedetto momento in cui il contenuto perderà interesse per i navigatori e finalmente potrà cadere nell’oblio.

Ora si tratta di capire come verrà eseguita l’ordinanza, la quale - come sempre accade in questi casi - prevede che Facebook “impedisca l’ulteriore caricamento dei medesimi link [Ndr: il dispositivo dell’ordinanza parla in effetti di ‘link’ e non di ‘contenuti’ o ‘file’] fissando in 100 euro dovuti alla reclamata [Ndr: cioè la giovane donna defunta, ora rappresentata dai suoi eredi] per ogni violazione e inosservanza nonché per ogni giorno di ritardo nell’esecuzione del provvedimento, fino al limite massimo di 10mila euro”. Certo, 10mila euro da un lato sono una magra consolazione per una famiglia che ha perso tragicamente una figlia e dall’altro rappresentano una somma davvero irrisoria per un colosso multinazionale come Facebook. Ma la questione potrebbe ulteriormente complicarsi se, come paventa qualcuno, risultasse pure che la società di Zuckerberg sia obbligata a fornire i dati degli utenti che hanno caricato i contenuti oggetto dell’ordine di rimozione, come previsto dal comma 2, lettera b, dell’art 17 D. Lgs. 70/2003.

 

Istigazione a delinquere tramite Facebook: cosa dice la Cassazione?

Ad ogni modo i grattacapi giudiziari per Zuckerberg e soci non finiscono qui.

Sempre sul fronte italiano e sempre in questi ultimi giorni, la Cassazione ha avuto modo di esprimersi ulteriormente sul tema della diffusione di contenuti “delicati” attraverso il grande social network. Qui siamo più sul piano penalistico della istigazione a delinquere (art. 280 codice penale) compiuta attraverso attività di proselitismo su Facebook, ma ovviamente l’imputato non è Facebook bensì l’utente che si ha pubblicato ripetuti post che inneggiavano al terrorismo islamico. Si legge nella sentenza (Cass. Pen. 46178/2016), l’attività investigativa svolta dagli inquirenti ha rilevato

 

“alcune frasi postate sui profili Facebook riconducibili all'indagato, ovvero commenti a immagini cruente, proposizioni di esortazione o di incitamento, e sottolineando che tali scritti, senza limitarsi esprimere sentimenti di approvazione verso fatti di terrorismo islamico, attuati da gruppi che si ispiravano all’integralismo religioso, incitavano a intraprendere atti sovversivi di vero e proprio terrorismo e di affermazione della violenza anche più truce e spietata”.

 

La sentenza non si occupa di una eventuale responsabilità a carico della società di Palo Alto, che in questo caso sembra essere effettivamente un semplice e asettico service provider; ma di certo la vicenda mette in guardia sulla delicatezza del tema del controllo di ciò viene veicolato attraverso le piattaforme social.

 

Negazione dell’Olocausto su Facebook: responsabilità penale di Zuckerberg?

C’è poi il fronte germanico, con un altro tema iper-delicato: la negazione dell’Olocausto e l’apologia del nazimo; lo stesso tema con cui a inizio anni 2000 si era inaugurato il nuovo filone giurisprudenziale della regulation di Internet e della legge applicabile a questo nuovo mezzo di comunicazione (mi riferisco al caso LICRA v. Yahoo!). Tutti avranno notato che il social network pullula di pagine e gruppi con evidente spirito antisemita o razzista in generale. Proprio per questo, a Monaco di Baviera il tribunale ha aperto un fascicolo penale a carico di Zuckerberg in persona e di altri suoi dirigenti responsabili per l’area tedesca. L’accusa? Non fare abbastanza per filtrare e arginare i messaggi offensivi che circolano sul social network. Vedremo con grande curiosità quali evoluzioni ci saranno, dato che sarebbe uno dei primi casi al mondo di condanna penale dovuta alla gestione poco accurata di una piattaforma social; cosa che desterebbe più di un motivo di perplessità alla luce del consolidato principio comunitario dell’assenza di un obbligo di sorveglianza.

 

Il sistema di controllo inadeguato?

In più casi ho segnalato l'inadeguatezza del sistema di controllo (o dovremmo dire “di censura”?) sui contenuti implementato da Facebook, il quale troppe volte si trova a rimuovere contenuti palesemente legittimi e tutelati dalle norme sulla libertà di espressione (oltre che a quelle del buon senso), salvo poi trovarsi a dover fare pubblica ammenda (come nel caso della rimozione della famosa foto “Napalm Girl” e del quadro “L'origine du monde”) ; “non rispetta gli standard della comunità” dice l’avvertimento che riceve l’utente. In compenso, il social network pullula di contenuti (se non interi profili o pagine) evidentemente in violazione di norme giuridiche, in quanto incitano all’odio e alla violenza, hanno sfondo razzista o sessista, riportano immagini pornografiche, violano la privacy di persone ignare (spesso anche minorenni). Un “due pesi due misure” di cui ancora non riesco a capire bene le motivazioni.

Il problema è più evidente in Facebook per ovvie ragioni di dimensioni e trasversalità dell’utenza (è pur sempre la “nazione” più popolosa al mondo con i suoi 1,7 miliardi di utenti sparpagliati più o meno in tutto il globo e le sue 140 lingue); ma le stesse valutazioni possono valere per Twitter, Instagram, YouTube e altri grandi social media.

 

Simone Aliprandi

@simonealiprandi

 

- - - - - - -

Articolo sotto licenza Creative Commons Attribuzione – Condividi allo stesso modo 4.0

 


0 Commenti :

Commento

Captcha

A CURA DI CARLO PIANA

/media/5648275/piana.png
DIRITTO NUOVE TECNOLOGIE
Account twitter Account LinkedIn Feed RSS

Rubrica in collaborazione con Simone Aliprandi e Alberto Pianon di Array Avvocato esperto di diritto delle nuove tecnologie, si occupa di tutela del software, informatica nei servizi pubblici, antitrust, marchi e nomi a dominio e molto altro.

Noto per l'impegno per il software libero e le libertà digitali, è editor della International Free and Open Source Software Law Review. Nel 2008 ha fondato Array, network di legali specializzati in ICT law - http://arraylaw.eu

Impresa
Se le leggi offrono poca ospitalità alla sharing economy: i problemi sollevati da AirBnB
30 novembre 2016

Grane legali per Facebook. Quando i social media diventano veicolo di contenuti illeciti
17 novembre 2016

"Secondary ticketing” o bagarinaggio 2.0?
3 novembre 2016

ARCHIVIO