En muy poco tiempo, el tema de la inteligencia artificial (IA) ha pasado de ser un debate sobre el futuro a una realidad implementada en el diario operar de las entidades financieras en todo el mundo, y en el futuro su adopción será, sin dudas, exponencial. Hoy en día la IA permite evaluar crédito y perfiles de riesgos, detectar fraudes, monitorear transacciones sospechosas, optimizar portafolios y automatizar reportes regulatorios, entre muchas otras funciones. Esta transformación promete grandes beneficios para las entidades financieras, sus usuarios, reguladores y los mercados, resultando a la vez en el principal riesgo que enfrenta el sector en esta nueva realidad global.
Avance regulatorio global. La evidencia más clara de esta realidad es el auge regulatorio mundial, impulsado por el uso masivo de IA en finanzas, donde los reguladores responden para mitigar riesgos reales, como sesgos algorítmicos o fallos en tiempo real. Europa, por ejemplo, adoptó una Directiva sobre IA, que clasifica sistemas según su nivel de riesgo e impone obligaciones específicas. Estados Unidos, por su parte, fortaleció su marco de gestión de riesgos con los estándares del National Institute of Standards and Technology (NIST). Reino Unido ha optado por principios flexibles, pero exigentes, mientras Asia avanza con enfoques sectoriales variados, por citar: China ha emitido regulaciones sobre el uso de algoritmos y de IA en servicios financieros digitales; y, Singapur ha publicado principios para el uso de IA y el análisis de datos en el sector financiero. En América Latina, aunque el proceso aún se concentra en iniciativas nacionales y debates sobre el enfoque a adoptar, los reguladores financieros están observando activamente y tomando decisiones específicas respecto de la IA.
En la actualidad no se trata de si llegará la regulación, sino de cuándo, si cuenta con el enfoque adecuado y si estaremos preparados. Y es que, a diferencia de otros sectores, en el sistema financiero no hay espacio para improvisaciones; la confianza del público, la estabilidad del sistema y la reputación institucional son la base de su desarrollo y sostenibilidad.
El riesgo de lo invisible. Uno de los principales desafíos de la IA radica en sus riesgos invisibles, que se manifiestan cuando el daño ya es evidente. Un ciberataque tradicional deja huellas inmediatas, pero un modelo algorítmico defectuoso puede operar por meses sin detección del problema.
Pensemos en un caso concreto: una entidad financiera implementa un modelo de análisis de créditos automatizado basado en IA, procesa miles de solicitudes en minutos. Sin embargo, ¿y si ciertos perfiles están siendo sistemáticamente rechazados sin una razón objetiva? ¿El modelo tiene sesgos? ¿Está replicando patrones históricos discriminatorios? ¿Se validaron los resultados del ambiente de prueba, antes de ponerlo en producción? ¿El consejo sabe siquiera que ese modelo existe? Este escenario puede replicarse en muchas otras funciones derivadas del uso de la IA.
A lo anterior podemos sumar la homogeneización del riesgo; si todas las entidades del sistema utilizan modelos similares, basados en los mismos datos y con lógica similar, una falla podría amplificar crisis sistémicas, en lugar de mitigarlas. Por eso, la IA no representa solo un riesgo operativo más, sino estratégico y potencialmente sistémico. Y esto es lo que implica la necesaria acción directa del consejo.
Gobernar el código. La participación del consejo –y de sus miembros– en el relacionamiento de la entidad financiera con la IA es necesaria e indelegable. Si bien no se trata de lo que los consejeros se conviertan en programadores, sino de que órgano asegure un “mínimo digital razonable” como mecanismo de buscar en uso correcto, ético y seguro de la IA. Preguntas como las siguientes resultan esenciales: ¿usamos IA en decisiones críticas? ¿Tenemos políticas claras de gobernanza tecnológica? ¿Existe validación independiente de los modelos? ¿Contamos con mecanismos de intervención humana cuando el impacto es significativo? ¿Recibimos reportes periódicos sobre riesgos digitales?
Retos particulares para los consejos financieros:
Los consejos deben liderar la gobernanza de IA más allá de delegar en equipos técnicos. Aquí, cinco prioridades clave:
- Integrar la IA en la conversación estratégica. Esta debe formar parte de la agenda regular del consejo, con métricas claras y responsabilidades definidas.
- Exigir políticas formales de gobernanza. Se requiere de un marco formal y escrito que establezca principios de uso, criterios de validación y protocolos de supervisión.
- Garantizar proporcionalidad. Ponderar en su justa dimensión los diferentes modelos utilizados, para que la adopción y supervisión se establezca en función del grado de riesgo y materialidad, tomando en consideración ámbitos sensibles como créditos, inversiones, cumplimiento, datos personales, usuarios, entre otros.
- Fortalecer la coordinación interna. La IA es un tema transversal: no solo impulsa la innovación, sino que requiere integrar riesgos, cumplimiento, auditoría y ciberseguridad. La gobernanza efectiva requiere visión completa.
- Promover cultura de responsabilidad. La automatización que la IA aporta no elimina la responsabilidad; sino que la redistribuye. En última instancia, siempre parte y regresa al consejo y sus miembros.
Adicionalmente, el consejo debe asegurar que cuenta con la competencia digital suficiente para ejercer supervisión informada sobre estos sistemas, ya sea mediante capacitación continua de sus miembros o incorporando perfiles con experiencia tecnológica. A su vez, resulta necesario establecer mecanismos rigurosos de debida diligencia y supervisión de proveedores externos de soluciones de IA. La auditoría técnica independiente debe poder formar parte del proceso de validación periódica de modelos críticos, complementando las funciones de auditoría interna tradicional. Finalmente, el consejo debe aprobar planes de contingencia ante posibles fallas algorítmicas, sesgos detectados o incidentes relacionados con IA, asegurando capacidad de respuesta rápida y efectiva.
La transparencia es clave, comunicar sobre el uso de IA hacia reguladores, socios y usuarios y demás partes interesadas es esencial en el gobierno corporativo moderno.
En nuestro país, la Administración Monetaria y Financiera se encuentra alineada con la tendencia internacional de incorporar la inteligencia artificial dentro de la agenda regulatoria y supervisora, así como en la propia operatividad del sistema financiero.
En ese contexto, el Gobernador del Banco Central, Héctor Valdez Albizu, en ocasión del septuagésimo octavo aniversario de la institución, destacó la relevancia estratégica de la IA para el banco central, señalando que se encuentran evaluando experiencias de distintos bancos centrales a nivel internacional con el propósito de identificar y adoptar mejores prácticas en la materia.
De igual forma, en una presentación realizada el pasado año, el Superintendente de Bancos, Alejandro Fernández W., subrayó que la inteligencia artificial está transformando la gestión eficiente de los procesos internos y la atención al cliente, modificando la manera en que las entidades estructuran y desarrollan sus modelos de negocio para innovar y competir, y fortaleciendo la supervisión financiera y la gestión del riesgo mediante análisis predictivos avanzados. A su vez, enfatizó, de manera atinada, que la IA no sustituye la prudencia ni el juicio humano en procesos complejos o de naturaleza ética.
En definitiva, la IA ofrece eficiencia y desarrollo de las entidades financieras y sus mercados, así como inclusión financiera, mejor gestión de riesgos, reducción de costos, mejora de la supervisión y el robustecimiento de los procesos de cumplimiento, entre otros muchos. Sin embargo, estos potenciales grandes beneficios no deben ser óbice para la falta de prudencia. La verdadera fortaleza de una institución financiera no se mide solo por qué tan rápido adopta tecnología, sino también por cómo la gestiona y gobierna. En ese equilibrio el consejo de administración tiene un rol neurálgico e insustituible.





