La privacidad diferencial de Apple no es tan privada como Apple asegura

La privacidad diferencial de Apple no es tan privada como Apple asegura

A mediados del año pasado Apple hizo un anuncio del cual no pude más que hacerme eco. Frente a un ecosistema cada vez más interesado en los beneficios del tratamiento de datos, la compañía pretendía competir con un machine learning limitado basado en el paradigma de la privacidad diferencial.

Y como estoy en mi santa casa, me parafraseo para no volver a explicar lo mismo dos veces:

(La privacidad diferencial es) un sistema estadístico que separa identidad de contenido, de manera que a priori es posible explotar información sin exponer la identidad de quien la ha generado.

Para ello hace uso de técnicas de ofuscación como el hasing (cifrado) de datos, el subsampling (hacer uso únicamente de parte de los mismos) y la inyección de ruido, que permite anonimizar volúmenes de información, como expliqué en su día.

El término fue acuñado ya por 2006 por los investigadores Cynthia Dwork, Frank McSherry, Kobbi Nissim y Adam Smith en un paper (EN/PDF) bajo la tutela de Microsoft, y es aplicado a día de hoy en numerosos entornos, aunque de manera muy específica, como ocurre con el sistema RAPPOR (EN) o la Navegación Segura utilizada por Chrome para compartir información de consumo de manera anónima.

Ya en su momento comenté que la medida me parecía todo un acierto. Es importante que empresas de la talla de Apple apuesten por acercar a la electrónica de consumo la tecnología de machine learning sin que ello suponga un lastre para los derechos de privacidad del usuario.

Sin ir más lejos, la semana pasada aplaudía la decisión de algunos trabajadores de Google al plantearse la creación de sistemas de inteligencia artificial en local, con una funcionalidad muy limitada y capaz de operar en hardware de bajo rendimiento.

Ahora bien, el problema sigue siendo el mismo de siempre:

 El presentar un entorno de explotación de datos anónimo con fines identificativos (ofrecer inteligencia al usuario en base a sus datos es un ejemplo) supone una carga considerable de recursos y una merma de la eficiencia de todo el sistema.

Si a ello sumamos la intención de, en la medida de lo posible, realizarlo dentro de los límites del hardware local, el problema aumenta exponencialmente, al afectar negativamente al uso del mismo, y aumentar considerablemente el gasto de batería según el uso que vayamos a darle.

(Cómo mola eso de citarse a uno mismo, je)

En fin, que vuelvo al tema después de leer estos días un estudio presentado en colaboración de la Universidad del Sur de California, la de Indiana y la de Tsinghua, cuyo paper puede consultar por aquí (EN/PDF), y que viene a señalar un handicap más en la estrategia de los de Cupertino: al parecer la privacidad diferencial implementada en los sistemas operativos de Apple no es tan privada como pudiera pensarse.

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas