Dinero, mercados y aprendizaje automático: analizando los riesgos de la IA adversaria

Blog

HogarHogar / Blog / Dinero, mercados y aprendizaje automático: analizando los riesgos de la IA adversaria

Jun 29, 2023

Dinero, mercados y aprendizaje automático: analizando los riesgos de la IA adversaria

Es imposible ignorar el papel fundamental que la inteligencia artificial (IA) y su subconjunto, el aprendizaje automático, desempeñan hoy en el mercado de valores. Mientras que la IA se refiere a máquinas que pueden realizar tareas que

Es imposible ignorar el papel fundamental que la inteligencia artificial (IA) y su subconjunto, el aprendizaje automático, desempeñan hoy en el mercado de valores.

Mientras que la IA se refiere a máquinas que pueden realizar tareas que normalmente requerirían inteligencia humana, el aprendizaje automático (ML) implica aprender patrones a partir de datos, lo que mejora la capacidad de las máquinas para hacer predicciones y decisiones.

Una de las principales formas en que el mercado de valores utiliza el aprendizaje automático es en el comercio algorítmico. Los modelos de ML reconocen patrones a partir de grandes cantidades de datos financieros y luego realizan operaciones basadas en estos patrones: miles y miles de operaciones, en pequeñas fracciones de segundo. Estos modelos de comercio algorítmicos aprenden continuamente, ajustando sus predicciones y acciones en un proceso que ocurre continuamente, lo que a veces puede conducir a fenómenos como caídas repentinas, cuando ciertos patrones provocan un ciclo de retroalimentación, enviando a ciertos segmentos del mercado a una caída libre repentina.

El comercio algorítmico, a pesar de sus inconvenientes ocasionales, se ha vuelto indispensable para nuestro sistema financiero. Tiene enormes ventajas; que es otra forma de decir que a algunas personas les hace ganar muchísimo dinero. Según la empresa de servicios tecnológicos Exadel, los bancos podrán ahorrar 1 billón de dólares de aquí a 2030 gracias al comercio algorítmico.

Sin embargo, esa dependencia de los modelos de aprendizaje automático en las finanzas no está exenta de riesgos, incluso riesgos que van más allá de las caídas repentinas.

Una amenaza importante y subestimada para estos sistemas es lo que se conoce como ataques adversarios. Estos ocurren cuando actores malévolos manipulan los datos de entrada que se envían al modelo de ML, lo que hace que el modelo haga malas predicciones.

Una forma de este ataque adversario se conoce como “envenenamiento de datos”, en el que los malos actores introducen “ruido” (o datos falsos) en la entrada. El entrenamiento con estos datos envenenados puede hacer que el modelo clasifique erróneamente conjuntos de datos completos. Por ejemplo, un sistema de fraude con tarjetas de crédito podría atribuir erróneamente actividad fraudulenta donde no la ha habido.

Estas manipulaciones no son sólo una amenaza teórica. Los efectos del envenenamiento de datos y los ataques adversarios tienen amplias implicaciones en diferentes aplicaciones de aprendizaje automático, incluidos los modelos de pronóstico financiero. En un estudio realizado por investigadores de la Universidad de Illinois, IBM y otras instituciones, demostraron la vulnerabilidad de los modelos de pronóstico financiero a ataques adversarios. Según sus conclusiones, estos ataques podrían dar lugar a decisiones comerciales subóptimas, lo que provocaría pérdidas del 23 al 32 por ciento para los inversores. Este estudio destaca la gravedad potencial de estas amenazas y subraya la necesidad de contar con defensas sólidas contra los ataques adversarios.

La reacción de la industria financiera a estos ataques ha sido a menudo reactiva: un juego de golpear al topo en el que las defensas se levantan sólo después de que ha ocurrido un ataque. Sin embargo, dado que estas amenazas son inherentes a la estructura misma de los algoritmos de ML, un enfoque más proactivo es la única forma de abordar de manera significativa este problema actual.

Las instituciones financieras deben implementar métodos de prueba y evaluación sólidos y eficientes que puedan detectar debilidades potenciales y protegerse contra estos ataques. Dicha implementación podría implicar procedimientos de prueba rigurosos, emplear "equipos rojos" para simular ataques y actualizar continuamente los modelos para garantizar que no se vean comprometidos por actores maliciosos o datos deficientes.

Las consecuencias de ignorar el problema de los ataques adversarios en el comercio algorítmico son potencialmente catastróficas, desde importantes pérdidas financieras hasta daños a la reputación de las empresas o incluso perturbaciones económicas generalizadas. En un mundo cada vez más dependiente de los modelos de lavado de dinero, el sector financiero debe pasar de ser reactivo a ser proactivo para garantizar la seguridad y la integridad de nuestro sistema financiero.

Joshua Steier es analista técnico y Sai Prathyush Katragadda es científico de datos en RAND Corporation, una organización no partidista y sin fines de lucro.

Copyright 2023 Nexstar Media Inc. Todos los derechos reservados. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse.