En los últimos años casi todas las organizaciones están implantando organizaciones y estructuras de Gobierno de Datos en sus operaciones. Eso es así porque han reconocido los beneficios que esperan obtener con la iniciativa:
- Mejora de la efectividad de los equipos de analítica avanzada y, por lo tanto, impacto positivo en negocio.
- Reducción de costes mediante, entre otros, la optimización de las fuentes de datos, la aplicación de Business Rules corporativas y la unificación de arquitecturas técnicas de tratamiento de datos, entre otras acciones.
- Mitigación de riesgos relacionados con los datos: Data Quality, cumplimiento regulatorio.
- Impulso de la cultura de datos (Data Centric).
Sin embargo, en la mayoría de casos el gobierno de los datos no incluye bajo su responsabilidad a los usos de los datos y, específicamente, los componentes AI usados en la organización.
Bajo la denominación de componentes AI se incluyen un conjunto de tratamientos heterogéneos. En general se trata de sistemas que se basan en técnicas de machine learning o deep learning. La idea básica y común a todos ellos es que las reglas de decisión se infieren a partir de los datos disponibles, no están codificadas por un humano como en los sistemas tradicionales. Es decir, los tratamientos AI actúan muchas veces con una lógica de tipo caja negra (“black box”). A diferencia de las reglas codificadas por humanos, el “por qué” de una decisión de un sistema de AI puede no ser ni intuitivo ni fácil de entender.
Aparte de la falta de transparencia hay otras limitaciones en el uso de componentes AI:
- El mundo cambia constantemente y los patrones o relaciones de un sistema AI podrían no ser válidos: validez temporal.
- Los datos de entrenamiento de componentes AI pueden ser diferentes a los de la realidad: sesgo de datos.
- Los componentes AI se comportan de forma diferente en diferentes universos de aplicación: sesgo algorítmico.
En estos escenarios el resultado de un componente AI puede ser incorrecto o inadecuado pero las organizaciones continúan usándolos, a menudo, sin ser conscientes de la situación.
Las mejoras en la precisión de los sistemas de AI están directamente relacionadas con la cantidad y calidad de los datos disponibles, así como en la precisión de la tarea a resolver.
A medida que crece el uso de componentes AI también crece el reconocimiento de sus fortalezas y sus limitaciones. Los Gobiernos están creando nuevas regulaciones y recomendaciones para prevenir los daños causados por malos usos de AI. Un uso incorrecto de componentes AI puede exponer una organización a riesgos de tipo operacional, regulatorio, legal y reputacional. Asimismo es importante alinear los componentes AI con los valores corporativos.
La naturaleza específica de los componentes AI requiere de la implantación de controles y contrapesos efectivos para asegurar que los componentes AI funcionan tal como se pretende y cumplen con los principios éticos de la organización. Este es el objetivo principal del Gobierno de la AI.
El Gobierno de AI es relevante para los ciudadanos y clientes tanto de organizaciones públicas como privadas. Idealmente, debe formar parte de las iniciativas ESG (Environmental, Social and Governance) de las organizaciones. Compromete a la organización en el cumplimiento de los principios éticos y asegura un uso responsable de los componentes AI.
El Gobierno AI se constituye como un marco global que gestiona el uso que la organización hace de los componentes AI y utiliza para conseguirlo un conjunto de procesos, metodologías y herramientas. El objetivo del Gobierno AI no es solo asegurar el uso efectivo de componentes AI sino también la gestión y mitigación de los riesgos, el aseguramiento del cumplimiento regulatorio y legal y el uso ético de los componentes AI.
Cada organización es diferente y debe adaptar el marco de Gobierno AI a sus especificidades. Sin embargo hay algunos elementos que son comunes a toda iniciativa de Gobierno AI y que deben ser considerados:
- Fijar Objetivos estratégicos y obtener el compromiso de la AADD
- Derivar indicadores que permitan medir el avance hacia los objetivos
- Determinar roles y responsabilidades y fijarlos en una Política corporativa
- Establecer el Modelo Operativo y los circuitos de gestión
Y todo ello teniendo en cuenta que la iniciativa debe avanzar de forma coordinada en la organización:
- Empezar de forma simple, solo inventario y algunos metadatos (owner, objetivo, entorno técnico, …)
- Obtener implicación activa de los stakeholders: owner, AANN, DPO, legal, AI manager, …
- Incorporar elementos de compartición (feature store, golden sources, muestras validadas de entrenamiento, planificador, …)
Como cualquier iniciativa es importante objetivar el avance en elementos de medición que permita. El Gobierno de AI debe considerar los grupos de métricas siguientes:
- Datos: origen, calidad, latencia
- Seguridad: uso, brechas de seguridad,
- Coste/Beneficio: se debe medir el valor creado por los componentes AI y también el coste que supone su funcionamiento y operación
- Sesgos: dado que es uno de los principales riesgos en el uso de componentes AI, deben ser monitorizados.
- Acountability: claridad en las responsabilidades sobre los componentes AI dentro de la organización.
- Auditoría: los componentes AI deben estar preparados por defecto para generar la información suficiente como para revisar las decisiones tomadas y el camino de razonamiento que ha llevado a esas decisiones. Dar transparencia a la Back Box.
- Tiempo: el impacto de los componentes AI debe ser proyectado en el tiempo.