Cuatro principios para lograr implementar una IA responsable
Publicado por Scott Zoldi, Director de Analítica (CAO) de FICO en 04/12/2024 en ArtículoLa IA responsable consiste en cuatro principios que aseguran que la IA sea segura, confiable e imparcial, además de robusta, explicable, ética y auditable.
Por: Scott Zoldi, Director de Analítica (CAO) de FICO. Foto: cortesía. Portal ERP México.
En la actualidad, la tecnología de inteligencia artificial (IA) se encuentra detrás de las decisiones que afectan profundamente a todas las personas. Aunque esto representa grandes oportunidades, también aumenta los riesgos.
Esta situación ha dado lugar a un mayor enfoque en la práctica de la IA responsable, que implica cumplir una serie de principios y normas de desarrollo de modelos de IA corporativos para operativizar implementaciones de IA que produzcan resultados de negocio de alto impacto dentro de fronteras éticas y legales importantes. Se trata de la IA explicable, la IA ética, la IA robusta y la IA auditable.
Principio 1: IA explicable
Las redes neuronales y otros métodos de machine learning pueden hallar relaciones no lineales complejas en los datos, lo que conduce a una gran capacidad predictiva –que es uno de los componentes de la IA–. Pero, aunque las ecuaciones matemáticas de los algoritmos de machine learning de "caja negra" suelen ser sencillas, a menudo es difícil derivar una interpretación humanamente comprensible de las soluciones que generan. La capacidad explicativa del modelo debe ser el objetivo principal en las implementaciones de la IA responsable.
La capacidad explicativa del modelo se enfoca en ofrecer una interpretación humanamente comprensible de las características latentes que los modelos de machine learning aprenden, así como en el momento de la puntuación, cuando los clientes se ven afectados por el machine learning dentro del sistema de toma de decisiones de la IA en general.
Te puede interesar: Tres maneras de justificar la inversión en transformación digital ante la alta dirección
Una IA explicable debe facilitar que los humanos respondan a preguntas importantes, tales como:
- ¿El modelo se desarrolló de forma adecuada?
- ¿Una relación podría atribuir imparcialidad?
- ¿Cuáles son los riesgos de utilizar el modelo de IA?
- ¿Cuándo o en qué circunstancias se degrada el modelo de IA?
La última pregunta ilustra el concepto de la IA humilde, donde los científicos de datos determinan la aptitud del desempeño de un modelo en situaciones diversas, o en circunstancias en las que no funcionará, como cuando hay baja densidad en los datos históricos de entrenamiento.
Necesitamos entender mejor los modelos de IA porque, cuando utilizamos las puntuaciones que un modelo produce, asumimos que estas son igualmente válidas para todos los clientes y todos los escenarios de puntuación, y éste no siempre es el caso. Esta situación puede llevar fácilmente a que se tomen decisiones importantes basadas en una cobertura de información imperfecta en los modelos de IA. La capacidad explicativa es fundamental.
Especialmente en los entornos cambiantes, las características latentes deben revisarse continuamente para detectar posibles sesgos.
Principio 2: IA ética
El machine learning identifica relaciones entre los datos para ajustarse a una función objetivo específica (o meta). Con frecuencia, formará proxies para las entradas evitadas, y estos pueden mostrar sesgos. Desde el punto de vista de un científico de datos, la IA ética se logra al tomar precauciones para exponer lo que el modelo subyacente de machine learning ha aprendido como características latentes, y evaluar si éstas pudieran atribuir sesgos.
Un proceso de desarrollo riguroso, en conjunto con la visibilidad de las características latentes, ayuda a garantizar que los modelos analíticos funcionen de manera ética. Las características latentes deben revisarse continuamente para identificar sesgos en los entornos cambiantes.
Los modelos de IA ética deben evaluarse y los sesgos deben eliminarse. Las arquitecturas de machine learning interpretables permiten extraer las relaciones no lineales que suelen estar ocultas en el funcionamiento interno de la mayoría de los modelos de machine learning. La participación humana en el proceso garantiza que se supervise el funcionamiento de estas características latentes, que se conduzcan pruebas específicas de sesgos en las características latentes entre diferentes grupos y que se implementen metodologías para prohibir los sesgos atribuidos detectados y el reajuste de los modelos de machine learning. Es fundamental recordar constantemente que los datos en los que se entrenó el modelo de IA por lo general están implícitamente llenos de sesgos sociales.
Consideremos estas preguntas importantes:
- ¿Cómo logra su compañía una IA ética?
- ¿Qué tecnologías de IA tienen permitido utilizar en su organización y cómo se probarán para asegurar que sean adecuadas para el mercado?
- ¿Actualmente supervisan cada modelo de IA? De ser así, ¿qué es lo que supervisan?
- ¿Cuáles son los umbrales predefinidos para indicar que un determinado modelo de IA debe dejar de usarse?
- ¿Su organización es consistentemente ética con su IA?
- ¿Su compañía ha colocado algunos modelos bajo el paraguas de la IA responsable (debido a que están regulados y, por lo tanto, son de alto riesgo), mientras que otros simplemente no se desarrollan con base en el estándar de IA responsable
- ¿Cómo se establecen esas líneas divisorias?
- ¿Hay ocasiones en que es aceptable no ser responsable en el desarrollo de la IA? De ser así, ¿cuándo?
Al desarrollar modelos de IA ética, el sesgo y la discriminación se evalúan y eliminan, y deben reevaluarse continuamente una vez que el modelo esté en operación. Un proceso de desarrollo riguroso, aunado a la visibilidad de las características latentes, ayuda a garantizar que los modelos analíticos funcionen de manera ética. Las características latentes deben revisarse continuamente para identificar cambios en el sesgo.
Principio 3: IA robusta
La IA robusta es una metodología de desarrollo bien definida; el uso adecuado de datos históricos, de entrenamiento y de prueba; una definición sólida de rendimiento; una selección cuidadosa de la arquitectura de los modelos, y procesos para las pruebas de estabilidad, simulación y gobernabilidad de los modelos. Es importante que las organizaciones de ciencia de los datos se adhieran a estos factores y los apliquen como una norma de la IA.
Principio 4: IA auditable
La IA auditable significa "desarrollarla bien desde el principio" y conforme a las normas corporativas definidas para el desarrollo de modelos de IA, cuyo cumplimiento debe demostrarse. Los modelos deben crearse con base en un estándar de desarrollo de modelos aplicable a toda la empresa, con repositorios de código compartidos, arquitecturas de modelo aprobadas, variables sancionadas y normas establecidas para pruebas de sesgo y estabilidad de modelos. Esto reduce considerablemente los errores en el desarrollo de modelos que, de otro modo, se expondrán en la producción, reduciendo el valor comercial anticipado y afectando a los clientes negativamente.
Cuando las condiciones cambian, la IA auditable permite a los científicos de datos determinar cómo responderán las operaciones, así como verificar si la IA sigue siendo imparcial y confiable o si deben ajustarse las estrategias que hacen uso del modelo. La IA auditable se ejecuta y codifica a través de una cadena de bloques de gobernanza del desarrollo de modelos de IA formada durante el proceso de desarrollo del modelo, la cual conserva todos los detalles del modelo y está disponible de inmediato cada vez que cambian los entornos de los datos. La IA auditable no es una serie de "buenas intenciones", sino un registro inalterable del cumplimiento del estándar para el desarrollo de modelos de IA, que permite a las organizaciones desarrollarlos correctamente con base en ese estándar, brindar pruebas inmutables de su cumplimiento y producir activos que cumplan con los requisitos regulativos y de gobernanza.
A medida que el mundo empresarial pasa del uso teórico de la IA a la toma de decisiones a escala de producción, la IA auditable se vuelve esencial, enfatizando la implementación (y uso) de un estándar claramente definido para el desarrollo de modelos de IA que asegura que ningún modelo se lance a producción sin cumplir todos los aspectos y requisitos de dicho estándar.
La IA auditable permite que la IA responsable sea una realidad, ya que establece un riguroso proceso de auditoría que documenta el cumplimiento del estándar de gobernanza de desarrollo de una compañía durante la producción del modelo. Esto evita investigaciones aleatorias y retrospectivas después de concluido el desarrollo del modelo. Además, ofrece beneficios adicionales: si las empresas identifican con precisión y lo antes posible cuándo un modelo empieza a fallar, y lo detienen al momento, pueden ahorrarse innumerables problemas, así como evitar el daño reputacional y las demandas legales que surgen cuando la IA falla fuera del laboratorio de ciencia de datos.