Riesgos de la IA si no te capacitas

Para cerrar la brecha, las organizaciones deben implementar urgentemente medidas de mejora de habilidades a escala

.
 .  (Foto: Nauphilus)

De acuerdo con la cuarta edición del estudio global anual de Adecco “Global Workforce of the future report 2023” el 70% de los trabajadores ya utilizan Inteligencia Artificial Generativa (GenAI) en el lugar de trabajo, menos de la mitad reciben algún tipo de capacitación sobre GenAI por parte de sus empleadores

Ello a pesar de que  57% de los trabajadores en general expresaron que les gustaría recibir capacitación en IA, lo que es una oportunidad para que los empleadores conozcan a los trabajadores donde quiera que se encuentren.

“El mundo del trabajo está pasando de una economía basada en el empleo a una economía basada en las habilidades, y este cambio se está acelerando con la rápida adopción de la IA generativa. En un mundo cambiante por la tecnología, el talento sigue siendo una verdadera ventaja competitiva; las empresas que se centran en su gente tienen más probabilidades de garantizar la preparación de sus organizaciones para el futuro”, afirmó

Y es que para los trabajadores la inteligencia artificial es sumamente positiva, 62% de los trabajadores tienen una perspectiva positiva sobre la IA, lo que impulsa su adopción. Solo el 7% de los trabajadores cree que la GenAI podría causarles la pérdida de sus empleos, aunque estimaciones recientes indican que más de 300 millones de empleos en todo el mundo se verán afectados por la IA de alguna manera.

“Para cerrar la brecha, las organizaciones deben implementar urgentemente medidas de mejora de habilidades a escala”, destacó Adecco. 


Riesgos de ciberseguridad al utilizar GenIA sin capacitación 

Mientras la inteligencia artificial generativa cobra auge en las empresas y en el día a día a los trabajadores,la neutralidad y falta de una verdadera consciencia de esta IA provoca que este gran potencial también puede ser utilizado para hacer el mal.

.
 .  (Foto: IDConline)

De acuerdo con Checkpoint,  esos son los siete principales peligros y malos usos de la inteligencia artificial generativa en el ámbito de la ciberseguridad:


  • Distribución de malware: al aprovecharse del objetivo principal de estas herramientas, que buscan ayudar a los usuarios, los ciberdelincuentes generan elementos como virus o troyanos. Unos códigos maliciosos depurados que incrustan en documentos, correos electrónicos e incluso páginas web para maximizar el alcance de sus ataques e infectar los ordenadores de sus víctimas
  • Phishing: con una gran cantidad de ejemplos disponibles, la IA permite crear unas comunicaciones falsas mucho más realistas y convincentes que hacen que la tarea de distinguir los verdaderos correos legítimos se convierta en un verdadero reto. Y es que el objetivo de estos no es otro que engañar a los usuarios para hacer que se sientan seguros y proporcionen información sensible como contraseñas o datos de pago como tarjetas de crédito
  • Ingeniería social: diseñadas para ser lo más humano posible, ChatGPT puede ser utilizado para hacerse pasar por personas reales con el fin de manipular a los usuarios para que realicen acciones perjudiciales para ellos mismos o sus empresas, engañar a un usuario para que proporcione información de su cuenta
  • Filtración y robo de datos: la IA generativa puede ser utilizada para crear documentos o correos electrónicos falsos que parezcan legítimos, lo que puede ser utilizado para engañar a los usuarios y hacer que revelen sus credenciales o datos sensibles
  • Desinformación y propaganda: ChatGPT puede ser utilizado para generar noticias falsas y propaganda que pueden ser utilizadas para engañar y manipular a las personas. Esto puede ser usado para dañar reputaciones, sembrar discordia, e incluso incitar a la violencia
  • Difamación y suplantación: con herramientas como estas, cada vez más accesibles y asequibles, hay una creciente preocupación de que distinguir entre archivos auténticos y deep fakes sea casi imposible, capaces de crear fotografías, vídeos e incluso audios falsos.
  • Amenazas internas: la inteligencia artificial puede ser utilizada maliciosamente para crear documentos o correos electrónicos falsos que parezcan provenir de usuarios autorizados, lo que puede ser utilizado para obtener acceso a datos o sistemas sensibles

Para contrarrestar los peligros que la inteligencia artificial plantea en el ámbito de la ciberseguridad, se requiere un enfoque holístico que combine la tecnología avanzada, la educación de los usuarios, la regulación efectiva y la colaboración continua entre expertos.