Blog Lab

PrIvAcIdAd e IA: mitos y realidades

Laura Davara

Socia de Davara&Davara ( www.davara.com ), Doctora en Derecho, Directora del Máster de Protección de datos de la Universidad Europea de Madrid y autora del “Libro definitivo sobre redes sociales: claves para padres y educadores” y de “El móvil que todo lo sabía: cuentos para familias en la era digital”.

“PrIvAcIdAd e IA”: No es una errata, el escribirlo así está hecho completamente aposta. Si te fijas las únicas vocales de “Privacidad” son la I y la A, efectivamente, las que componen “Inteligencia artificial”. Y es que están vinculadas hasta en el nombre ¿casualidad? No lo sé, pero lo que quiero es que no se te olvide nunca que la privacidad debe estar presente siempre en toda relación que tengamos con la IA, como siempre dice mi padre, el profesor Davara (considerado “el padre de la protección de datos en España”) “debemos llevar la privacidad en el ADN”.

Y es que, de la misma manera que es imposible escribir “privacidad” sin incluir la letra I y la letra A, ambas cuestiones son -fueron y han de ser- inseparables. Por eso, en este post, te quiero desterrar 3 mitos contándote las 3 realidades correspondientes que forman “el top three” del binomio “Inteligencia artificial y privacidad”.

Primer mito: “borro el chat y ya”. Para explicaros esto os voy a contar una anécdota que prácticamente nadie conoce: de pequeña, cuando a lo mejor me portaba un poco mal o contestaba mal a mi padre, le cogía la frente y le pasaba mi mano por encima como si fuera una goma de borrar, en plan “ya no te acuerdas de lo que ha pasado porque te lo he borrado”. Y, mi padre, con toda la ternura del mundo, “hacía como que se le había olvidado” y empezábamos de cero. Pues bien, los sistemas de inteligencia artificial no tienen esa ternura -ni son tu padre, ni te quieren, ni le importas…- y, por tanto, no podemos pensar que si borramos un chat es “como si nada hubiera pasado”. Y es que, eliminar una conversación visible no equivale a borrar todas las copias, memorias, registros o conservación por cuestiones legales (si te interesa este tema, en el siguiente enlace puedes profundizar en la obligación de conservar chats “incluso los borrados”) que pueden seguir existiendo en los sistemas del proveedor durante un plazo, ni a “desentrenar” lo que un modelo ya aprendió de datos anteriores.

Y es que, la realidad que encontramos como respuesta a ese mito de “borro el chat y ya” es que “ese borrado” no es una supresión del chat como tal, sino que lo que hace es quitarla del historial y, normalmente, “marcarla para purga tras una ventana de retención técnica, a menudo 30 días” (lo entrecomillamos porque fue la respuesta literal de Perplexity al ser consultado sobre el borrado y conservación de chats). Aunque, tal y como te comentábamos, si hay una orden judicial, el chat debe ser conservado. Además, no debemos confundir borrar el chat con borrar las memorias. Y es que, de nuevo, antes de utilizar sistemas de IA, tener una formación y conocimiento básico sobre estas cuestiones deviene esencial.

Segundo mito: “Cuántos más datos, mejor funciona la IA y, además, es objetiva”. Sé que te puede sorprender, pero es un mito porque no es completamente cierto. Y, además, es un “mito doble” puesto que contempla dos cuestiones relacionadas pero independientes. Comencemos por la primera: “cuántos más datos le facilitemos a la IA, mejor funcionará”. Y es que, también aquí, se cumple ese famoso dicho de “Más vale calidad que cantidad”. O, dicho de otra manera, al utilizar inteligencia artificial, el principio de minimización previsto en el artículo 5 del RGPD debe brillar por su presencia -no por su ausencia-.

En este punto, la realidad es que sea cual sea el sistema de IA que utilices, debes tener presente ¿qué datos mínimos necesito para conseguir la finalidad que estoy buscando? No solo por protección de datos -que también- sino porque muchos campos que introducimos en el prompt o bien aportan poca información de valor y se limitan a aumentar el “ruido” o llegan a introducir sesgos que luego den como resultado información incorrecta -de nuevo, si quieres profundizar sobre este aspecto, te animamos a consultar esta Guía de OpenAI-, sesgada e incluso vulneren derechos fundamentales.

Resolviendo ahora “la cara b” del segundo mito o, dicho de otra manera, la supuesta objetividad de la IA, hemos de decir que este es uno de los mitos que más extendido está puesto que, como decía un profesor mío “menos mal que no existe la justicia objetiva porque si existiera no podríamos quejarnos de los árbitros en un partido entre nuestro equipo y su eterno rival, ni del profesor que te tiene manía ni de tantas y tantas cosas que nos hacen la vida más divertida”.

Más allá de la broma -o no- de mi profesor, ni nosotros ni la IA somos objetivos, pero el problema es que la IA “puede parecerlo” y, sobre todo, nos han hecho creer que es así. En este sentido, lo cierto es que para desterrar este mito la educación y alfabetización digital -tanto de menores como de adultos- cobra, si cabe, más importancia que en el mito anterior.

Y es que la “no objetividad” de la IA no es una cuestión baladí, sino todo lo contrario. De alguna manera, podríamos afirmar que esa “no objetividad” es inherente a cómo aprende la propia inteligencia artificial y a cómo se despliega puesto que depende de datos (datos que, ya de por sí, pueden estar sesgados), de objetivos, de diseño del sistema y de variables proxy. En esta ocasión, acudimos a Perplexity para que, guiado por varios prompts que le he ido proporcionando, explique de manera sencilla cómo influyen esas variables en la “no objetividad” de la IA. Y esta es su respuesta: “Las variables proxy son medidas sustitutivas que se usan cuando la variable que de verdad interesa no está disponible o es difícil de medir; por ejemplo, usar “código postal” como sustituto del nivel socioeconómico, o “coste sanitario anual” como sustituto de la “necesidad clínica”. Si la proxy está correlacionada de forma desigual con atributos protegidos (sexo, raza, edad), el modelo puede discriminar, aunque nunca “vea” directamente esos atributos, y por eso la IA no es objetiva por sí misma: depende de qué datos y proxies se elijan y de cómo se optimice el sistema”. Por tanto, es fundamental que, tanto en las familias, como en las escuelas, como en las universidades, las empresas y el Sector Público se facilite una formación -práctica y realista- sobre inteligencia artificial en la que se explique, de verdad, qué es, para qué se puede utilizar, qué características tiene, qué límites, qué riesgos, qué normativa hay que cumplir…

El tercer mito que queremos abordar es “la IA no tiene tanto poder, es una máquina”. Y es que, la IA, en mi opinión, tiene el poder que queramos darle. O, como dice ese famoso meme “me preocupa que estemos haciendo a la IA cada vez más lista y los humanos nos estemos volviendo más tontos”. Y es que, aquí, se abren un sinfín de temas que me gustaría poner sobre la mesa pero que, por lo limitado del espacio, solo esbozaré para llamar a la reflexión: por un lado, veo en todas las formaciones que imparto en colegios cómo niños de 8-10-12-14 años me dicen que acuden a ChatGPT a contarle que han discutido con un amigo o que tienen un problema porque “ChatGPT siempre tiene tiempo para ellos; o porque sabe todo porque se ha leído todos los libros del mundo; o porque se preocupa por mí y entiende perfectamente lo que me pasa”. Por otro lado, veo cómo Instagram -Meta- lanza una suerte de “crea tu propia IA” y apenas nadie pone el foco en leerse las condiciones de uso y la política de privacidad ni se para a plantearse el por qué Meta está ofreciendo ese servicio ¿gratis? -si quieres saber un poco más, puedes pinchar en este enlace. Y, por último, veo cómo se publica el Reglamento de Inteligencia Artificial y todavía hay quien dice que hasta que no se apruebe la Ley española, la AEPD no tiene nada que decir y poco menos que la normativa es un impedimento cuando, en mi opinión, es el amparo y protección que los usuarios necesitamos. Eso sí, necesitamos saber cómo y cuándo acudir a ella y, por supuesto, también hemos de poner en juego la parte de privacidad y ciberseguridad que está en nuestra mano.

Pero no, señores, esto no es así, y la propia AEPD ya se ha encargado de recordar que “ya puede actuar ante sistemas de IA prohibidos que traten datos personales”. Por tanto, acabo como empecé: prIvAcIdAd e IA han de estar unidas en la realidad, en la norma y ¡en nuestro día a día! Por eso, como siempre digo: ¡utiliza la tecnologÍA solo si te hace mejor!

Los contenidos, opiniones o comentarios publicados en este sitio web son responsabilidad exclusiva de sus autores y no reflejan ni sustituyen las comunicaciones oficiales, visión o directrices de la AEPD.