A tenor de los resultados de una revisión reciente sobre riesgo de reidentificación a partir de datos anonimizados de dispositivos wearables (DW), la respuesta es no. Y es que compartir los datos generados por los DW puede resultar beneficioso para la investigación biomédica, pero también plantea una serie de cuestiones sobre privacidad.
Los autores del trabajo definen la reidentificación como el acto de determinar la identidad de un individuo a partir de datos anonimizados, desprovistos de identificadores. A menudo, el proceso implicará revincular el conjunto de datos anonimizados con un conjunto de datos con identificadores para poder reconocer a usuarios presentes en ambos.
A partir de esta premisa, los investigadores estadounidenses se plantean si la aplicación de algoritmos de aprendizaje automático a un conjunto de datos públicos o a datos compartidos en base a acuerdos de intercambio de datos con terceros podría permitir la reidentificación de los usuarios. Los resultados de la revisión, que incluyó un total de 72 estudios, se han publicado en The Lancet Digital Health.
El riesgo de reidentificación es elevado incluso a partir de pequeñas cantidades de datos
Una herramienta diseñada para evaluar la calidad de los estudios y el riesgo de sesgo clasificó a la mayoría de los estudios incluidos (64) como de alta calidad, y el resto (8) como de calidad moderada. No se detectó sesgo en ninguno de ellos.
Entre la veintena de modalidades sensoriales de DW mencionadas en los estudios, las más frecuentes fueron el electroencefalograma (EEG; n=17), la unidad de medición inercial (IMU; n=15) y el electrocardiograma (ECG; n=8). La muñeca fue la ubicación más frecuente del DW (26), seguida de la cabeza (16) y el pecho (13).
En conjunto, los estudios que informaron de tasas de identificación correcta (CIR; n=57) arrojaron porcentajes de entre el 86% y el 100%, sugiriendo que el riesgo de reidentificación es elevado. Además, la duración mínima de los datos para la permitir la reidentificación varió entre uno y 300 segundos, incluso para mediciones como el ECG, que no se considera que genere información identificable, lo que sugiere que pequeñas cantidades de datos son suficientes para suponer un riesgo para la privacidad a pesar de la anonimización.
Los autores concluyen que estos resultados refuerzan la necesidad de replantear los métodos de intercambio de datos capaces de promover avances en la investigación y, al mismo tiempo, garantizar la privacidad de los usuarios.
Referencia
Chikwetu L, Miao Y, Woldetensae MK, Bell D, Goldenholz DM, Dunn J. Does deidentification of data from wearable devices give us a false sense of security? A systematic review [published online ahead of print, 2023 Feb 14].
Lancet Digit Health. 2023;S2589-7500(22)00234-5.
doi:10.1016/S2589-7500(22)00234-5
OAD-ES-AMG-0001