Créditos de la imágen: Foto de kokouu de Getty Images y LOPSTUDIO™ editadas en Canva.
JUE 07/08
TDC 18.6192
MAR 10/06
INPC 140.7800
DOM 01/06
RECARGOS FEDERALES 1.47%
SAB 01/02
UMA 113.14
El uso de inteligencia artificial en las empresas requiere de regulación y estrategias enfocadas en ética y gobernanza
Aunque al menos un 73 % de las empresas en Norteamérica busca emplear a mayor escala el uso de inteligencia artificial (IA), solo un 58 % ha realizado una evaluación de riesgos legales o éticos, indicaron datos de PwC consultados por la consultora tecnológica, Grupo Stefanini.
Lo anterior es relevante porque "la adopción creciente de IA para procesar grandes volúmenes de datos personales y corporativos ha llevado a reforzar políticas internas de seguridad, que contemplan autenticación multifactor, auditorías periódicas y trazabilidad de los datos", enfatizó la consultora en u comunicado fechado al 17 de julio de 2025.
Además, enfatizó en que los sectores más sensibles que deberían considerar el impacto de la aplicación de la tecnología y la seguridad son el financiero, la salud y el gobierno.
¡Síguenos en Google News!
¿Cómo enfrentar los riesgos del uso de la IA?
De acuerdo con Grupo Stefanini, México es uno de los países donde la regulación de la inteligencia artificial "todavía está en construcción", lo cual urge la necesidad de atender los riesgos que existen entorno al uso de tecnología y transparencia en los algoritmos empleados.
Asimismo, datos de un estudio de Compliance Week recopilados por la consultora, encontraron que 95 % de las compañías que ya usan IA, aún no cuenta con esquemas formales de gobernanza, y "muchos corporativos enfrentan barreras técnicas y culturales para construir modelos éticos sostenibles".
De acuerdo con la Country Manager de Stefanini México, Antonio Paulo, “es necesaria la formación continua, auditorías externas y herramientas que nos permiten monitorear y corregir posibles sesgos", por eso hoy el foco está en cómo las empresas integran "desarrollos desde una perspectiva ética, transparente y alineada con buenas prácticas de gobernanza".
Considerando que "la tecnología debe estar al servicio de las personas y no al revés", Grupo Stefanini, destacó que tanto la IA como las empresas tienen trabajar para "co-crear juntos un futuro digital más ético, inclusivo y humano".
Actualmente, México forma parte de las mesas de trabajo del Centro Mexicano de Inteligencia Artificial (CENIA), donde se buscan establecer estándares éticos regionales para conseguir una legislación que atienda las barreras y retos que la tecnología puede provocar.
Y al final, el punto medular en las compañías es capacitarse para alcanzar el desarrollo responsable de la inteligencia artificial, de forma que se reduzcan los riesgos pero se amplíen también las oportunidades que la tecnología representa.