Una class action è stata avviata il 26 giugno scorso nei confronti di Google e dell’Università di Chicago, o meglio il Medical Center dell’Università di Chicago. Sono accusate di aver condiviso dati identificativi dei pazienti nell’ambito di una partnership che era partita nel 2017. Essa aveva come obiettivo rendere Google capace di prevedere con precisione eventi medici. Ad esempio se i pazienti saranno ricoverati, quanto rimarranno e se la loro salute si sta deteriorando.

All’epoca, in un post sul blog, Google aveva dichiarato che sarebbero state utilizzate “cartelle cliniche non identificate” provenienti da Chicago. Le cartelle, sempre secondo Google, sarebbero state “private di qualsiasi informazione di identificazione personale”.

In realtà, sembra che la de-identificazione sia stata un fallimento. I registri non erano sufficientemente anonimizzati e mettevano potenzialmente a rischio la privacy dei pazienti, si afferma nella causa. Per esempio l’Università aveva condiviso con Google centinaia di migliaia di record di pazienti degli anni tra il 2009 e il 2016. Essi includevano informazioni su date come l’ospedalizzazione e le dimissioni dall’ospedale e anche le note dei medici.

Informazioni che si sarebbero potute utilizzare per identificare i singoli individui, se incrociate con i dati localizzati raccolti da Google’s Android mobile OS.

Non solo, ma le informazioni contenute nei file erano davvero numerose e comprendevano l’altezza, il peso e i segni vitali delle persone. Se soffrivano di malattie come il cancro o l’AIDS; e registrazioni di recenti recenti procedure mediche, tra cui trapianti e aborti.

L’interrogativo è ovvio quanto disturbante. Le aziende tecnologiche sono o non sono adatte a gestire i dati sanitari, ora che si affacciano a una delle aree più promettenti e più redditizie dell’IA, ovvero la diagnosi dei problemi medici?

Negli ultimi anni, aziende come Microsoft, Apple e Google hanno proposto tutti i loro servizi alle istituzioni mediche. Promettono di aiutare a organizzare i dati medici e di poter utilizzare queste informazioni per sviluppare nuovi strumenti diagnostici per l’intelligenza artificiale. Ma questi piani incontrano sempre più spesso resistenze da parte dei difensori della privacy. Si teme infatti che questi dati forniranno ai giganti della tecnologia una visione senza precedenti sulle vite dei loro clienti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *