Chatbots vs protección de datos personales

Elon Musk, CEO de Tesla ha comparado la inteligencia artificial generativa con un arma nuclear en cuanto a lo peligrosos que son

.
 .  (Foto: iStock)

La inteligencia artificial apareció en nuestras vidas como un opción para simplificar tareas repetitivas y eficientar nuestros procesos, tal es el caso de los chatbots, que parecieran una alternativa eficaz para la atención de usuarios. No obstante, en días recientes expertos en tecnología se pronunciaron en contra de estos y pidieron "retroceder" un poco en su desarrollo porque, entre otras cosas, podrían estar vulnerando nuestros datos. 

Incluso el modelo de lenguaje extenso (LLM) ChatGPT indicó que la IA generativa, como cualquier otra tecnología, tiene el potencial de plantear riesgos para la privacidad de los datos si no se usa de manera responsable. Y no hace falta mucha imaginación para ver el potencial de una empresa para dañar rápidamente una relación ganada con tanto esfuerzo con los clientes a través del mal uso de la IA generativa. Pero si bien la tecnología es novedosa, los principios de la ley de protección de datos siguen siendo los mismos, y existe una hoja de ruta clara para que las organizaciones innoven de una manera que respete la privacidad de las personas. 

El CEO de la marca enfatizó que los reguladores y la sociedad deben involucrarse con la tecnología para protegerse contra posibles consecuencias negativas para la humanidad.

La advertencia se produjo cuando OpenAI lanzó la última versión de su modelo de lenguaje AI, GPT-4 , menos de cuatro meses desde que se lanzó la versión original y se convirtió en la aplicación de consumo de más rápido crecimiento en la historia.

De hecho, Elon Musk, CEO de Tesla ha comparado la inteligencia artificial generativa con un arma nuclear en cuanto a lo peligrosos que son. 

En ese sentido,  la Information Comissioner´'s Office (ICO) destacó que las organizaciones que desarrollan o usan IA generativa deben considerar sus obligaciones de protección de datos desde el principio, adoptando un enfoque de protección de datos desde el diseño y por defecto .

"Esto no es opcional: si está procesando datos personales, es la ley", puntualizó. 

Al respecto recomendó a los desarrolladores hacerse las siguientes preguntas en caso de estar generando inteligencia artificial que procese datos personales: 

  • ¿Cuál es su base legal para procesar datos personales? 
  • ¿Es usted un controlador, controlador conjunto o un procesador? Si está desarrollando IA generativa utilizando datos personales, tiene obligaciones como controlador de datos. Si está utilizando o adaptando modelos desarrollados por otros, puede ser un controlador, un controlador conjunto o un procesador
  • ¿Ha preparado una Evaluación de impacto de la protección de datos (DPIA)? 
  • ¿Cómo garantizará la transparencia?
  • ¿Cómo mitigará los riesgos de seguridad? 
  • ¿Cómo limitará el procesamiento innecesario?
  • ¿Cómo cumplirá con las solicitudes de derechos individuales?
  • ¿Utilizará IA generativa para tomar decisiones únicamente automatizadas? 

"Realmente no puede haber excusa para entender mal las implicaciones de privacidad de la IA generativa. Trabajaremos arduamente para asegurarnos de que las organizaciones lo hagan bien", concluyó.