Falta urgencia en uso responsable de inteligencia artificial pone en riesgo a las empresas

Ana Sagara
Ana Sagara Septiembre 24, 2021
Updated 2021/09/24 at 11:50 AM

El estudio de Corinium y FICO  analiza cómo las organizaciones globales están implementando la inteligencia artificial y cómo la están utilizando de forma ética, transparente, segura y en beneficio de sus clientes.

FICO, compañía global de analítica predictiva y la ciencia de los datos, publicó recientemente su informe “State of Responsible AI” de la compañía de inteligencia de mercado Corinium, el cual muestra que, pese a la mayor demanda y uso de herramientas de IA, casi dos tercios (65 %) de los participantes no pueden explicar la manera en que los modelos de IA toman decisiones y realizan predicciones. El estudio encontró que la falta de consciencia sobre el uso responsable de la IA resulta preocupante, ya que el 39 % de los miembros del consejo de administración y el 33 % de los equipos ejecutivos, tienen un conocimiento limitado acerca de la ética en la IA.

Alcance

Conducido por Corinium y patrocinado por FICO, el estudio State of Responsible AI consistió en entrevistar a 100 ejecutivos de datos y análisis de nivel C; así como a líderes de opinión del MIT, AI Truth, The Alan Turing Institute, el Fondo Económico Mundial y FinRegLab, para conocer cómo las organizaciones están implementando la IA, y si la están utilizando de forma ética, transparente, segura y en beneficio de sus clientes.  

Mientras que el personal de cumplimiento (80 %) y el equipo de TI y análisis de datos (70 %) tienen un mayor conocimiento de la ética en la IA y del uso responsable de IA, el resto de la organización tiene un conocimiento limitado. Por lo tanto, a la mayoría de los participantes (73 %) se les ha dificultado obtener apoyo de los ejecutivos para priorizar la ética en la IA y las prácticas responsables de la misma.

“A lo largo de los últimos 15 meses, más y más empresas han invertido en herramientas de IA; sin embargo, no han elevado la importancia de la gobernanza y responsabilidad de la IA a nivel directivo”

Scott Zoldi, director de análisis en FICO.

¿Quiénes son los responsables?

Por otra parte, casi la mitad (49 %) de los participantes señalaron que han asignado un mayor número de recursos a los proyectos de IA en los últimos 12 meses, seguido por la productividad del equipo (46 %) y la capacidad predictiva de los modelos de IA (41 %). En contraste, solo el 39 % ha dirigido más recursos a la gobernanza de la IA durante el desarrollo de los modelos, y el 28 % ha priorizado el mantenimiento y supervisión constante de los modelos de IA.

A pesar de la adopción de la IA, sigue habiendo falta de conocimiento sobre este tema. El estudio muestra que no hay consenso en los ejecutivos respecto a las responsabilidades de la compañía en materia de IA.  

La mayoría de los participantes (55 %) coinciden en que los sistemas de IA para el consumo de datos deben cumplir con normas éticas básicas y que los sistemas utilizados para las operaciones back-office también deben ser explicables. Sin embargo, esto puede reflejar, en parte, el desafío de lograr que los empleados utilicen tecnologías nuevas, así como cuestiones éticas mayores.

Aún más preocupante, cerca de la mitad (43 %) de los participantes afirman no tener más responsabilidad que cumplir las normas sobre la gestión ética de los sistemas de IA, cuyas decisiones pueden afectar de manera indirecta el sustento de las personas —p. ej., los modelos de segmentación de audiencia, los modelos de reconocimiento facial y los sistemas de recomendaciones—.

“La única manera de generalizar el uso de la IA dentro de la economía digital es que las empresas la integren en el nivel operativo de sus empresas. Los participantes clave, como los encargados de tomar decisiones, los miembros del consejo y los clientes, entre otros, necesitan saber cómo se utiliza la IA dentro de sus empresas, los posibles riesgos y los sistemas que ayudan a gobernarla y supervisarla. Los desarrolladores de IA son fundamentales para ayudar a educar a las partes interesadas y exhortarlas a verificar los procesos de los modelos de IA”.

Cortnie Abercrombie, fundadora y CEO de AI Truth.

Combatir la imparcialidad de la IA

¿Qué pueden hacer las empresas para cambiar esta situación? Combatir la imparcialidad de los modelos de IA es un primer paso esencial, pero muchas empresas no lo hacen de forma eficaz: el 80 % de los ejecutivos enfrentan dificultades para establecer procesos que garanticen el uso responsable de la IA.

En la actualidad, solo una quinta parte de los participantes (20 %) supervisan activamente la imparcialidad y ética en sus modelos en desarrollo, mientras que menos de una cuarta parte (22 %) afirman que su organización cuenta con un consejo de ética en la IA para considerar las cuestiones de imparcialidad y ética en la IA. Uno de cada tres (33 %) cuenta con un equipo de verificación para evaluar los modelos recién desarrollados, y solo el 38 % ha integrado medidas de mitigación de imparcialidad en sus procesos de desarrollo de modelos.  

Sin embargo, evaluar la imparcialidad de los resultados del modelo es la salvaguardia más popular en la comunidad empresarial: el 59 % de los participantes afirman que la utilizan para aislar y evaluar las funciones latentes del modelo y detectar imparcialidades; la mitad (50 %) asegura que cuenta con una definición matemática codificada para la imparcialidad de los datos, y que revisa activamente las fuentes de datos desestructurados para detectar imparcialidades.

Las empresas reconocen que las cosas deben cambiar: la gran mayoría (90 %) coincide en que los procesos ineficientes de supervisión de modelos representan un obstáculo para la adopción de la IA. Por fortuna, cerca de dos tercios (63 %) de los participantes, consideran que la ética en la IA y el uso responsable de la IA serán un elemento central de la estrategia de su organización dentro de dos años.

El informe presenta varias mejores prácticas que ayudarán a las organizaciones a construir un camino hacia el uso responsable de la IA, algunas de las cuales son: 
  • Establecer prácticas que protejan a la empresa contra las amenazas a su reputación por el uso irresponsable de la IA
  • Encontrar un equilibrio entre la necesidad de ser responsable y la necesidad de lanzar innovaciones al mercado rápidamente  
  • Obtener el apoyo de los directivos para priorizar la ética en la IA y el uso responsable de la misma
  • Desarrollar políticas que puedan aplicarse a futuro, en anticipación a normas más estrictas, sobre la IA
  • Contar con los recursos necesarios para asegurar que los sistemas de IA se desarrollen y gestionen de forma responsable
TAGGED: ,
Share this Article