0 opiniones
ChatGPT: ¿un riesgo para la privacidad?
La historia nos ha enseñado que, si queremos proteger nuestra intimidad, siendo nosotros los principales interesados en esa tarea, el trabajo, el muro de contención inicial, debe estar en nosotros
ChatGPT, la inteligencia artificial de OpenAI especializada en el diálogo a través del modelo de lenguaje GPT-3, puede presumir de cifras récord.
Se estima que en los dos primeros meses desde su lanzamiento se registraron cerca de 100 millones de usuarios, lo que coloca a ChatGPT como la plataforma web con mayor crecimiento de usuarios de la historia. Y éstas no parecen cifras infladas interesadamente.
ChatGPT ha entrado en muchísimas empresas y hogares de todo el mundo. Lo mismo está siendo utilizada por un estudiante de primaria para aprender a hacer raíces cuadradas que está ayudando a un desarrollador de una empresa multinacional a depurar el código fuente de un aplicativo.
Pocos se han podido resistir al encanto de esta nueva herramienta pero aun menos se han parado a reflexionar sobre un riesgo inherente a su utilización: ¿cómo puede afectar a la privacidad de la personas este tipo de inteligencia artificial?
No debemos olvidar que ChatGPT está en constante aprendizaje. Aprende de muchas fuentes y una de ellas es de nosotros mismos, de nuestra interacción con ella, de los datos que le suministramos en los diálogos. Cada vez que le preguntamos por algo o le ponemos en contexto de alguna situación, ChatGPT registra y, de alguna manera, trata toda esa información, aunque en ella haya datos personales.
Y lo hace además sin darnos cuenta, sin habernos advertido previamente de ello, más allá de algunas referencias perdidas en las múltiples páginas de sus condiciones del servicio. Ignoramos que la información que le suministramos servirá para alimentar su base de datos de conocimiento de una forma que no podemos alcanzar a comprender y con efectos impredecibles.
Esto fue precisamente un punto de preocupación para la autoridad de protección de datos italiana, que constató una falta de información a los usuarios de ChatGPT en relación al tratamiento de los datos personales que pudieran estar volcando en sus conversaciones.
Tal fue la preocupación de este garante italiano que a finales de marzo de 2023 dictó una resolución para prohibir a OpenAI el tratamiento de los datos personales de los ciudadanos establecidos en territorio italiano hasta que por parte de esta compañía se aportaran garantías y elementos que permitieran colegir un cumplimiento de la normativa de protección de datos europea.
Podremos estar o no de acuerdo con la contundencia de las medidas adoptadas en Italia, pero donde todos deberíamos coincidir es en no dejar de prestar atención al impacto en la privacidad y en la protección de los datos personales que tiene la popularización de estas herramientas. Y, en mi opinión, esto no está sucediendo. Estamos tan maravillados con los fuegos artificiales de esta tecnología que no nos dejan ver qué hay detrás.
Al igual que con el auge de las redes sociales, durante muchos años se insistió desde los entusiastas de la privacidad en utilizarlas con precaución, no volcando y compartiendo excesiva información personal en ella; advertencias que, y a los hechos me remito, no calaron en la ciudadanía.
No debemos confiar en que la empresa propietaria de la inteligencia artificial de turno vaya a establecer mecanismos eficaces y garantías adecuadas para proteger nuestros datos personales. Sin duda no querrá que existan fugas de información, pero son pocas las grandes empresas tecnológicas que ponen el centro de gravedad en la protección de un derecho como es el de la protección de datos, pues no es menos cierto que no es un derecho existente en todos los ordenamientos jurídicos, siendo además que su contenido y alcance tampoco es armonioso entre los distintos Estados del planeta.
Tampoco debemos confiar en que el legislador redacte leyes que nos protejan; los avances tecnológicos han demostrado que nuestras leyes suelen ir por detrás en el tiempo del impacto de esos avances, y cuando pretenden regularlos o bien ya es demasiado tarde o simplemente han evolucionado a otra cosa o los gobiernos han cedido a las presiones y esas normas se quedan cortas en cuanto a la protección al ciudadano.
La historia nos ha enseñado que, si queremos proteger nuestra privacidad, siendo nosotros los principales interesados en esa tarea, el trabajo, el muro de contención inicial, debe estar en nosotros. Solo mediante una ciudadanía educada en la cultura a la protección de su propia privacidad y sus propios datos personales podrá defenderse de la vorágine tragadatos en la que se ha convertido gran parte de internet.
En este contexto, las tecnologías de procesamiento del lenguaje natural como ChatGPT emergen como el nuevo campo de batalla para la privacidad.
Desbloquear para comentar