Facebook individua gli aspiranti suicidi: un altro disastro

4' di lettura

Qualcuno ha istinti suicidi? Facebook lo sa, e interviene. Il social network entra sempre di più nelle nostre vite. E non sono bastati i devastanti scandali dello scorso anno. L’intrusione dei big data nelle nostre esistenze non si ferma, anzi. L’ultimo allarme arriva dagli Stati Uniti, ma riguarda tutti noi. Ripeto: tutti. Anche se – ma funziona? – l’Europa a inizio 2019 ha invitato l’azienda di Zuckerberg a bloccare il servizio nel vecchio continente.

Facebook individua aspiranti suicidi

L’Ai che scansiona gli utenti a rischio suicidio

Nel 2017 Facebook ha iniziato a utilizzare l’intelligenza artificiale per prevedere quando alcuni utenti avrebbero deciso di suicidarsi. All’inizio il programma è stato attivato solo negli Stati Uniti. Ora è esteso in tutto il mondo. Funziona in questo modo: l’Ai scansiona i contenuti degli utenti e quando identifica qualcuno ad alto rischio suicidio, il team di Fb avvisa la polizia. Da quando è partito il “servizio” sono stati segnalati 3mila e 500 utenti. Per tutti loro è partito il “controllo benessere” da parte delle forze dell’ordine.

Qualcuno dirà: beh, che c’è di male, in questo caso l’intrusione nella vita altrui potrebbe portare solo benefici. Non è proprio così. E per tanti motivi. Oltre ad essere vagamente inquietante, come tanti film su futuri distopici governati da rigide e implacabili intelligenze artificiali.

Così Facebook individua aspiranti suicidi

Un programma passato sotto traccia

C’è un punto. Da due anni le attività di Facebook sono sotto la lente di ingrandimento di molti governi del mondo, eppure il programma per prevenire i suicidi è passato sotto traccia. Nessuna parola, nessun riferimento, nessuna protesta. Anche se – come è evidente – viola un bel po’ di regole. Severe e stringenti, come tutte le normative mondiali che si occupano di salute pubblica. Cose che Facebook ignora allegramente, muovendosi in un limbo, sospeso tra legalità e illegalità. Semplificando: emette diagnosi senza avere nessuna competenza medica.

I falsi positivi costretti al ricovero in ospedale

Senza contare i tanti rischi connessi a questa pratica. Ne elenchiamo alcuni: i falsi positivi, con la conseguenza che persone perfettamente equilibrate vengono poi costrette a ricoveri in ospedale e ad assumere forzatamente farmaci (magari antidepressivi). Ci sono stati casi di scontri anche violenti con la polizia, perquisizioni e intrusioni nella propria abitazione, discriminazione sociale per essere stati etichettati come persone a rischio suicidio.

A queste contestazioni Facebook ha già risposto. In modo pilatesco, come al solito. Ha dichiarato che questa tecnologia di previsione del suicidio non può essere definita uno strumento di screening sanitario. In realtà – secondo il social network – si limiterebbe a fornire un aiuto per le persone bisognose. Non è proprio così.

Così Facebook individua aspiranti suicidi

Più alto è il punteggio e più sei a rischio

Facebook assegna agli utenti dei punteggi. Più sono alti e più l’utente è a rischio suicidio. Una pratica – come ricorda il ricercatore Mason Marks – che è simile a quella adottata per i veterani di guerra americani nella prevenzione dei suicidi. Un programma che è disciplinato da regole molto stringenti.

Si crea quindi un paradosso: Facebook, nessuna regola. Uno studio reale, sottoposto a norme severe. C’è qualcosa che non funziona.

La questione è complessa. Ma deve essere affrontata. Le leggi attuali (in tutto il mondo), non sono sufficienti a proteggere i consumatori. Ma non solo. Il programma anti suicidi di Facebook riflette una tendenza ormai evidente nelle società tecnologiche: stanno assumendo il ruolo dei medici o di aziende che hanno sempre realizzato dispositivi medici.

Così Facebook individua aspiranti suicidi

Per leggere i dati serve sempre competenza medica

Ora, nessuno può impedire ai big data di investire anche nella “ricerca medica”. Il problema si pone sull’utilizzo dei software brevettati: in mani non competenti possono fare disastri. Una questione che sembra fin troppo chiara: la medicina la può praticare solo un medico. Non basta un algoritmo o l’intelligenza artificiale: quelli sono e lo saranno ancora di più nel prossimo futuro dei supporti importanti. Ma le diagnosi, diagnosi poi su presunti istinti suicidiari, davvero non possono essere affidate al team di Facebook, a una Ai che elabora dati, e all’intervento della polizia.

Già basta (e avanza), il micidiale software che identifica dalle vostre foto se siete omosessuali, e che sta provocando disastri nei Paesi dove l’omosessualità è ritenuta una pratica da punire e condannare (vedi la Russia, e non solo).

Gruppo WhatsApp offerte di lavoro, bonus, concorsi e news

Ricevi ogni giorno gratis i migliori articoli su offerte di lavoro, bandi, bonus, agevolazioni e attualità. Scegli il gruppo che ti interessa:

  1. Telegram - Gruppo esclusivo

  2. WhatsApp - Gruppo base

Seguici anche su Google | Facebook | Instagram



Come funzionano i gruppi?
  1. Due volte al giorno (dopo pranzo e dopo cena) ricevi i link con le news più importanti

  2. Niente spam o pubblicità

  3. Puoi uscire in qualsiasi momento: la procedura verrà inviata ogni giorno sul gruppo

  4. Non è possibile inviare messaggi sul gruppo o agli amministratori

  5. Il tuo numero di cellulare sarà utilizzato solo per inviarti notizie