En México, más del 40% evalúa riesgos de IA, pero menos de la mitad aplica principios éticos para escalar con confianza.

Por Astrid Ruiz

Las empresas de México se encuentran en un punto de inflexión respecto a la adopción de la Inteligencia Artificial (IA), pasando el foco de la simple innovación y disrupción hacia una pregunta mucho más compleja, decisiva y crucial: cómo escalar la IA con confianza. El eje de la conversación ahora se centra en la regulación, la protección de datos, la trazabilidad y la gobernanza, temas esenciales para medios, empresas y el sector público.

Estrategia y ética: el reto de las empresas de México y la IA

A pesar de que el 70% de las empresas mexicanas percibe la IA como un motor para optimizar costos y automatizar procesos (según un estudio de KPMG, una de las cuatro firmas de servicios profesionales más grandes del mundo), solo el 27% posee una estrategia bien definida y alineada con su visión de negocio.

Además de esto, si bien más del 40% evalúa los riesgos de la IA, menos de la mitad ha implementado principios éticos para su uso.

Todo este cambio se está dando en un contexto de adopción acelerada con una rápida integración de la IA generativa en áreas clave, como atención al cliente, análisis financiero, automatización de procesos legales, marketing y optimización energética. Con esto se ha evidenciado una brecha: la velocidad tecnológica con que las empresas de México integran la IA avanza más rápido que la de los marcos de control, cumplimiento y gestión de riesgos de las organizaciones.

La confianza como ventaja competitiva

Para Alejandro Zubiria, Consultor de Trust para Latinoamérica, el debate ya no es si se usará la IA o no, sino bajo qué condiciones de confianza. «El verdadero reto es asegurar que la IA sea explicable, auditada y alineada con principios claros de uso responsable», asegura.

En los primeros ciclos de la adopción, el enfoque inicial fue tratar la IA como una herramienta experimental, con equipos aislados que probaban modelos, pruebas pilotos y automatizaciones sin un marco integral real. Sin embargo, esto ya no es viable, dado que la IA impacta en decisiones sensibles como otorgamiento de créditos, selección de personal, análisis de riesgo, cumplimiento regulatorio y manejo de información confidencial.

En este contexto, la noción de Trust es fundamental. Implica, por un lado, asegurar que los sistemas de IA cumplan con estándares de seguridad, gobernanza y privacidad, y por otro, ofrecer a los usuarios y clientes la certeza sobre cómo se usan sus datos y cómo se toman las decisiones automatizadas.

Zubiria enfatiza «la ventaja competitiva no va a estar en quién adopta primero la IA, sino en quién logra integrar con reglas claras y sostenibles. Las compañías que ignoren el componente de confianza enfrentarán frenos operativos, riesgos legales y pérdida de reputación»

Un futuro de adopción responsable

México está en una posición muy particular dentro del ecosistema de Latinoamérica, con talento técnico, una amplia base empresarial y una creciente conversación regulatoria alrededor de los datos, la ciberseguridad y la IA. No obstante, el país tiene un importante reto: armonizar la innovación con la certidumbre jurídica, especialmente en sectores altamente regulados, como financiero, energético, salud y servicios profesionales.

Según los especialistas, los próximos dos años serán decisivos. La manera en que las empresas de México aborden la gobernanza de la IA determinará si el país se consolida como un centro de adopción responsable o si tendrá que enfrentar fricciones que ralentice su crecimiento tecnológico.

Como concluye Zubiria, «la confianza no es un freno a la innovación; es la condición que permite escalar. México tiene la oportunidad de construir un modelo donde la IA impulse productividad y competitividad, sin sacrificar transparencia ni control».

El mensaje para 2026 es claro: la IA ya forma parte de la infraestructura crítica de las empresas. Más allá de la tecnología, la fase siguiente es estratégica: construir confianza alrededor de ella.

Compartir en:​