Compartir información sensible con ChatGPT puede derivar en respuestas anormales que son señal de alerta
Interactuar con una inteligencia artificial como ChatGPT puede parecer sorprendente y transformador, gracias a su capacidad para responder rápidamente, comprender contextos complejos e incluso redactar textos completos. Sin embargo, es crucial recordar que la IA carece de conciencia, emociones y opiniones propias. En este sentido, ESET Latinoamérica, señala que ciertas preguntas pueden generar respuestas imprecisas, inadecuadas o incluso riesgosas.
La firma subraya que discernir qué preguntas no formular a una IA no solo implica una cuestión de cortesía digital, sino también una estrategia para optimizar el uso de esta potente herramienta. Esto se vuelve aún más relevante al considerar que, según diversas encuestas, las consultas más habituales a las IA abordan temas personales significativos, como “¿Cómo mejorar mi salud mental?”, “¿Cuál es el método más eficaz para perder peso?” o incluso “¿Cómo iniciar un negocio exitoso?”
“Al hablar de seguridad y privacidad, hay información que se debe evitar incluir al realizar consultas en ChatGPT. Por defecto, ChatGPT utiliza la información que se le proporciona para entrenar su modelo, a menos que se modifique esta configuración o se utilicen chats temporales. Si un ciberdelincuente consigue acceder a una cuenta de ChatGPT, tendrá acceso a toda la información que se comparta con la herramienta, incluidos los datos sensibles que se hayan introducido en las conversaciones. ”, enfatiza Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.
Según ESET, estas son algunos temas clave que se deben evitar al interactuar con ChatGPT:
Información confidencial y sensible
datos personales, bancarios o contraseñas: nunca se deben compartir estos datos en conversaciones con IA, ya que no son entornos cifrados seguros. Esta información podría quedar expuesta, dado el creciente comercio ilegal de cuentas de ChatGPT robadas en la dark web
datos confidenciales o de la empresa: los empleados deben abstenerse de compartir informes financieros, estrategias empresariales, información de clientes o proyectos confidenciales. La IA no distingue automáticamente entre datos públicos y privados, lo que representa un riesgo para la seguridad corporativa. Además, las plataformas de IA no están autorizadas para tratar esta información. Para proteger los datos y cumplir con las políticas internas, se deben utilizar únicamente las herramientas designadas por la organización
¿Quieres saber más? ¡Sigue a IDC en Google News!
Asesoramiento profesional y decisiones importantes
asesoramiento médico, legal o financiero: aunque la IA tenga la capacidad de aclarar conceptos generales, no puede reemplazar a profesionales cualificados. Buscar diagnósticos médicos, asesoramiento legal o apoyo para tomar decisiones financieras basadas únicamente en la IA, es arriesgado, ya que podría carecer del contexto completo y la evaluación personalizada necesaria. Es crucial consultar a médicos, abogados o asesores financieros para obtener orientación específica y responsable
toma de decisiones personales importantes: la IA puede ayudar a organizar ideas, pero no debe ser la única base para hacer determinaciones cruciales sobre la vida personal, carrera o bienestar. Estas resoluciones requieren considerar aspectos emocionales y subjetivos que la IA podría no comprender completamente. Se recomienda buscar la guía de expertos y personas de confianza (mentores, terapeutas, consejeros) para elegir de manera informada
Interacciones humanas y subjetividad
opiniones, preferencias o sentimientos humanos: la IA utiliza lenguaje natural pero en realidad carece de conciencia, emociones u opiniones reales. Si se busca una conexión emocional, es mejor hacerlo directamente con personas que genuinamente puedan tratarte de manera empática, objetiva y sensata
                                        
“Al interactuar con herramientas como ChatGPT, destacan que es importante centrarse en la seguridad digital y el uso responsable. Entender qué preguntas no se deben hacer a una IA ayuda a preservar la privacidad, garantizar la exactitud de la información y proteger los datos sensibles. Además, utilizar la IA como herramienta complementaria, en lugar de como fuente definitiva de respuestas, contribuye a tomar decisiones más informadas y seguras. Siguiendo las pautas anteriores, se podrá sacar el máximo partido a esta tecnología sin poner en riesgo tu seguridad ni la de los demás.”, finalizó Gutiérrez Amaya.