miércoles, 16 de agosto de 2023

La inteligencia artificial provocará la próxima crisis financiera, según la CNMV de EEUU



Inteligencia artificial. (Pexels)




Gary Gensler, presidente de la Comisión de Bolsa y Valores de EEUU, advierte que la IA estará en el centro de las futuras crisis económicas, y los reguladores no están preparados para evitarlo




La inteligencia artificial está transformando de forma vertiginosa nuestra sociedad, y las consecuencias de su implementación en nuestra economía son aún terreno desconocido. Sin embargo, algunas voces ya alertan de que el riesgo de enfrentarnos a un nuevo colapso financiero provocado por estos algoritmos de aprendizaje automático es real. Uno de ellos es el presidente de la Comisión de Bolsa y Valores de EEUU, Gary Gensler, que asegura que “la IA estará en el centro de las futuras crisis financieras y los reguladores no van a poder adelantarse”.

En una entrevista para el medio Bloomberg, Gensler, que es el regulador actual más importante y poderoso de EEUU, indica que el riesgo más evidente de la IA en los mercados financieros es que los algoritmos de caja negra —que funcionan bajo sistemas herméticos donde los usuarios no pueden ver el funcionamiento interno del algoritmo— se descontrolen y terminen vendiendo lo mismo al mismo tiempo, causando un colapso en el mercado.

El presidente de la Comisión de Bolsa y Valores (SEC) ya lleva años advirtiendo que la IA puede ser realmente peligrosa si no se controla a tiempo. En un artículo publicado en 2020, mientras era profesor del MIT, Gensler avisó de los riesgos del deep learning, un sistema de aprendizaje automático y de inteligencia artificial, en la estabilidad financiera. El documento sostiene que los regímenes reguladores existentes aún no están preparados para hacer frente a este peligro.


Sistemas homogéneos

Uno de los peligros de la inteligencia artificial en los mercados financieros es la homogeneización, según el experto. Esto podría ocurrir como consecuencia del llamado “efecto aprendiz”, que se da cuando la gente cualificada para gestionar este tipo de sistemas proviene de las mismas escuelas, comparten antecedentes y establecen fuertes lazos de afinidad. "Simplemente, no hay tanta gente capacitada para construir y gestionar estos modelos y tienden a tener antecedentes bastante similares", explica Gensler en el estudio.

Este riesgo también puede ser creado por la propia normativa. Si los reguladores ejercen un control sobre lo que las IA pueden y no pueden hacer, eso podría aumentar el peligro de que todas acaben haciendo lo mismo al mismo tiempo, y eso también multiplica la probabilidad de que la mayoría de empresas opten por utilizar los mismos servicios ofrecidos por un pequeño número de proveedores.


Sistemas opacos e impredecibles

Como las IA evolucionan de forma impredecible, es muy difícil conocer sus mecanismos de comportamiento, y uno de los grandes riesgos que esto implica es que puedan llegar a desarrollar conductas discriminatorias hacia los humanos. Por ejemplo, una IA que ayer no era racista podría serlo hoy sin que nos diéramos cuenta a tiempo para evitarlo. Además, las normas serían completamente opacas e incontrolables, ni siquiera se podrían regular retrospectivamente, lo que hace casi imposible que los reguladores puedan evitar un futuro colapso.


Efecto rebaño

"Es probable que los modelos creados a partir de los mismos conjuntos de datos generen predicciones muy relacionadas que procedan al unísono, provocando aglomeraciones y rebaños", escribe Gensler. Lo que aumenta el peligro de colectivizar cualquier debilidad inherente que pueda haber en ese conjunto de datos. El político también cree que la demanda de enormes fuentes de datos puedan generar monopolios y que estos se conviertan en “puntos únicos de fallo” provocando un fallo global en todo el sistema.

Además, indica Gensler, incluso los mayores conjuntos de datos son peligrosamente incompletos: "El uso de internet, los datos de los dispositivos portátiles, los datos telemáticos y los datos de GPS y teléfonos inteligentes simplemente no tienen horizontes temporales lo suficientemente largos como para cubrir un solo ciclo financiero completo", señala el experto.


Cómo podemos evitarlo

Para Gensler, la respuesta regulatoria más efectiva sería el aumento de la cantidad de capital que las instituciones financieras necesitan mantener para el uso de herramientas de IA. Los reguladores podrían exigir que los sistemas de inteligencia artificial se sometan a pruebas, que disuadan o prohíban a las empresas que tomen medidas que no puedan explicarse y así ralentizar el ritmo de aumento, pero, advierte Gensler, “aun así es muy poco probable que puedan evitar que incremente el riesgo sistémico”. Aunque se apliquen normas reguladoras, dice, estas serían aún “insuficientes para la tarea” que tenemos entre manos.