Créditos de la imágen: Imagen generada por la IA de Gemini
LUN 20/04
TDC 17.2447
MAR 10/03
INPC 145.5440
MIE 01/04
RECARGOS FEDERALES 2.07%
DOM 01/02
UMA 117.31
Sin una base ética sólida, la tecnología corre el riesgo de amplificar desigualdades estructurales en lugar de optimizar el progreso social.
Mónica López, líder de ESG para Latinoamérica en EPAM NEORIS y Saúl Marenco, Managing Director, Norte de México en EPAM NEORIS, aseguraron, en un comunicado, que las preguntas alrededor de la inteligencia artificial se enfocan en todo lo que puede realizar, sin embargo, la pregunta que realmente definirá el futuro es otra: ¿podemos confiar en las decisiones que estamos empezando a delegar en ella?
La plataforma de investigación, Neuro-class, explicó que el miedo a la inteligencia artificial refleja tanto preocupaciones reales como algunas infundadas. A medida que la tecnología continúa transformando diversos aspectos de la vida cotidiana, comprender las dimensiones psicológicas y sociales que originan dichos miedos se ha vuelto fundamental, aunado a la necesidad de fomentar una ciudadanía informada que no se deje llevar por el alarmismo.
ÚNETE A IDC en nuestro canal de Whatsapp
Para enfrentar la incertidumbre que genera el uso de la tecnología, es esencial implementar marcos regulatorios sólidos y prácticas éticas que respondan a los riesgos reales asociados con el desarrollo de sistemas inteligentes.
“La clave está en adoptar un enfoque equilibrado que reconozca tanto las oportunidades como los desafíos que plantea la IA, orientando su uso hacia el bienestar colectivo y el progreso social”, añadió el sitio web.
El uso de la inteligencia artificial ya no se centra únicamente en los avances tecnológicos
Los líderes de ESG expresaron que la inteligencia artificial hoy optimiza diagnósticos médicos, mejora las cadenas de suministro y permite a las organizaciones gestionar recursos con una precisión sin precedentes, sin embargo, también ha surgido un dilema más profundo.
Dejó de tratarse únicamente en la capacidad tecnológica de las herramientas y se convirtió en un tema de juicio, responsabilidad y confianza.
Mónica López y Saúl Marenco detallaron que cada algoritmo implementado no es solo una herramienta, también es una declaración de principios; porque define qué datos son considerados relevantes, qué variables se priorizan, qué riesgos se aceptan y qué valores están dispuestos a proteger. La IA no solo automatiza procesos, amplifica la lógica de quienes la diseñan.
Aunque muchas empresas hablan de implementaciones avanzadas de inteligencia artificial, pocas han logrado llevarlas a la realidad operativa. De hecho, diversos análisis señalan que la gran mayoría de los pilotos fracasan porque las organizaciones evitan las conversaciones necesarias sobre gobernanza, lo que termina generando fricciones que impiden escalar.
Escalar soluciones de la IA implica rediseñar las estructuras de decisión, integrar la tecnología en flujos operativos y sostenerla en el tiempo con arquitecturas, datos y procesos preparados para su evolución continua.
No se trata sólo de definir principios, sino de integrarlos en la forma en que los sistemas se diseñan, implementan y operan. Desarrollar un modelo robusto de gobernanza para IA puede tomar cerca de 18 meses; la verdadera madurez en inteligencia artificial no depende del algoritmo, sino del marco institucional que lo respalda.
Desafíos al desarrollar un modelo de gobernanza para inteligencia artificial
Los especialistas de ESG afirmaron que el desafío se vuelve más complejo porque los sistemas de IA aprenden de los datos disponibles y dicha información refleja condiciones de las sociedades que los generaron.
Los sesgos históricos, las desigualdades estructurales y las decisiones humanas pueden incorporarse en los modelos sin que quienes los utilizan sean plenamente conscientes de ello, cuando esto sucede, la IA no corrige estos patrones, sino los amplifica.
Por esta razón, hay un enfoque que propone que los sistemas de IA deben cumplir con principios fundamentales como legalidad, transparencia, robustez técnica, seguridad, no discriminación y una supervisión humana efectiva.
La innovación tecnológica ya no puede evaluarse únicamente por su sofisticación técnica, también debe medirse por su capacidad de generar legitimidad y confianza.
Integrar la tecnología en una estrategia ESG incluye establecer comités de gobernanza, definir roles de supervisión, implementar arquitecturas tecnológicas auditables, desarrollar políticas de datos alineadas con los derechos digitales y capacitar a las organizaciones para ejercer una supervisión humana significativa.
“La diferencia entre las organizaciones que simplemente adoptan inteligencia artificial y aquellas que lideran en la economía digital dependerá de algo mucho más complejo: la capacidad de construir y sostener confianza en el tiempo, a medida que estos sistemas escalan, evolucionan y se vuelven cada vez más importantes en la operación del negocio”, concluyeron.