IAG y privacidad en el seguimiento de los prompts

Hablar de privacidad e Inteligencia Artificial Generativa (IAG), es una preocupación central, por cinco elementos particulares:

Necesidad de protección de datos personales 
Los sistemas de IAG pueden entrenarse usando grandes volúmenes de datos, algunos de los cuales pueden incluir información personal o sensible. Garantizar la privacidad significa proteger los datos de los usuarios de ser utilizados sin su consentimiento o de forma inapropiada.

Cumplimiento de regulaciones y marcos legales
Existen normativas internacionales, como el Reglamento General de Protección de Datos (GDPR) en Europa o la propia Ley de Inteligencia Artificial de la Unión Europea (EAIA) que exigen que las empresas y organizaciones manejen los datos personales de forma segura y respetuosa con los derechos de los individuos. La falta de cumplimiento puede resultar en sanciones severas.

Prevención de sesgos y mal uso
Sin medidas adecuadas de privacidad, los datos sensibles pueden ser mal utilizados o reflejar sesgos, lo que podría generar algoritmos discriminatorios o que violen la privacidad de ciertos grupos.

Confianza del usuario
Las personas son más propensas a interactuar con tecnologías de IAG si sienten que sus datos están protegidos. Salvaguardar la privacidad fomenta la confianza y promueve una adopción ética de la tecnología.

Riesgo de fuga de información
La IAG puede generar contenido nuevo a partir de datos existentes. Si estos datos incluyen información privada, existe el riesgo de que la IA exponga sin querer detalles personales en sus respuestas o creaciones, lo que pone en riesgo la confidencialidad.

Podemos decir, de manera general, que proteger la privacidad en la IAG es fundamental para evitar el mal uso de los datos, garantizar la ética en su implementación y cumplir con los marcos legales establecidos para la protección de la información personal. En este sentido, es fundamental que como usuarios de Inteligencia Artificial, generemos mecanismos de autoprotección y regulación, particularmente hablaremos de la desactivación del seguimiento a los prompts en ChatGPT.

Manejo de consultas en la IAG
Cada vez que usamos chatbots, debemos ser conscientes de que las conversaciones no son privadas por razones como:

  • Las IAG guardan los prompts, ya que estos son base para el entrenamiento, la mejora de las respuestas y la personalización de las salidas.
  • Aunque no todas las IA lo explicitan, se puede inducir que los prompts son revisados. Tal revisión puede hacerse a través de operadores humanos o bots; sin embargo solo Gemini de Google hace énfasis con la leyenda: «No introduzcas nada que no quieras que vea un revisor humano ni que use Google».

  • Las IAG permiten consultas directas a documentos y por ende la información de cualquier archivo, documento o PDF al ser subido, pasa a formar parte de la base de datos de la IA.
  • Aunque existe normativa en torno a la protección de datos, hay cuestiones que son superadas por los mecanismos de la Inteligencia Artificial, por ende, quedan al margen de la ley y no son necesariamente resueltas.

Se puede concluir que al usar chatbots de IAG, la privacidad no está garantizada, ya que los mensajes se almacenan y pueden ser revisados para mejorar las respuestas y aunque existen leyes de protección de datos, estas no siempre abarcan completamente los avances tecnológicos de la IA, lo que deja algunos vacíos legales en la protección de la información.

Sugerencias de protección en la IAG
Con base en lo anterior, se vuelve fundamental que cuando interactuemos con los diferentes modelos de IA se adopten medidas preventivas:

Cuida el contenido de los prompts- básicamente esto se resume a no poner nada que no queramos que un revisor humano vea o use. Lo anterior va desde evitar las “bromas” con temas sensibles, hasta proporcionar direcciones, nombres o fechas.

No alertes a la IAG- es común que la IAG tenga bots que alerten al sistema cuando se usan determinadas palabras (keywords), sobre todo las que induzcan respuestas sexistas, xenófobas, elitistas o que transgredan.

Desactiva el seguimiento de prompts- si desea que su contenido no se use para formar a los modelos de IA, lo mejor es que lo explicite. En el caso del ChatGPT, es recomendable revisar cómo se usan los datos para mejorar el rendimiento del modelo y de considerarlo pertinente desactivar el seguimiento a nuestras consultas. Hacerlo es sencillo y solo nos toma tres pasos:

Paso I. Dé clic en el perfil de su cuenta y vaya al apartado de configuración

Paso II. Vaya a -Controles de datos- y diríjase a -mejorar el modelo para todos-

Paso III. Desactive el botón de -mejorar el modelo para todos- y después ¡listo!

Ejemplos para considerar desactivar el seguimiento de prompts:

Al producir nuevo conocimiento
Imagine que como parte de una autoevaluación de su próximo artículo de investigación, utiliza la IAG y sube parte de su manuscrito para mejorar la redacción o profundizar en sus ideas, mientras su cuenta tiene habilitado el seguimiento de mejora del modelo, ¿qué puede pasar? En principio el texto ya forma parte de la base de datos de la IAG y además, como el proceso de publicación suele demorarse, más usuarios que consulten un tema similar tendrán acceso a sus ideas, de manera que puede auto comprometer la originalidad.

Al emplear información sensible
Imagine que es un periodista y una fuente le proporcionó información confidencial, al tener poco tiempo para construir su nota, decide subir los PDF con los datos para eficientar la identificación de patrones y tendencias. Ahora supongamos que otro periodista hace consultas con una línea similar, ¿sabía que estos datos podrían usarse como parte de la respuesta? Sí, probablemente no tendrán el mismo contexto pero sí la misma procedencia.

Al reducir la sobrecarga de datos y rendimiento del sistema
En proyectos con un alto volumen de interacciones, desactivar el seguimiento de prompts evita la acumulación de grandes cantidades de datos, lo que podría ser innecesario o difícil de gestionar. En algunos casos, al desactivar el seguimiento, se optimiza el rendimiento del sistema, ya que no requiere guardar ni procesar un historial continuo de interacciones, lo que puede acelerar las respuestas.

Ahora, ¿qué pasa si considera la desactivación del seguimiento a prompts y la herramienta que está usando no lo ofrece? Lo primero que debería valorar es cambiar de herramienta, ya que no hay transparencia del manejo de los datos. En general, además de usar la estructura correcta del prompt y aplicar hiperparámetros, también puede desactivar el seguimiento de los prompts para mejorar su interacción con cualquier modelo de Inteligencia Artificial Generativa.