Veriff
LibraryFraud centerFraud guidesCinco formas de abordar los riesgos de la IA en las finanzas de EE. UU. para 2025

Cinco formas de abordar los riesgos de la IA en las finanzas de EE. UU. para 2025

El sector financiero continúa liderando la adopción de IA, impulsado por décadas de uso de aprendizaje automático y un creciente interés en IA generativa. Con una inversión masiva de 35 mil millones de dólares en IA solo en 2023, la industria se está preparando para una innovación aún mayor, con la banca liderando el camino.

Header image
Author
Aleksander Tsuiman
Head of Product Legal & Privacy
December 18, 2024
Fraud
Finserv
Share:
On this page
Introducción
Preocupaciones regulatorias
Paso 1: Mantenerse adelante de las regulaciones de IA en evolución
Paso 2: Abordar los riesgos de sesgo y discriminación
Paso 3: Fortalecer la privacidad y seguridad de los datos
Paso 4: Aumentar la transparencia operativa
Paso 5: Equilibrar la innovación con la regulación
Conclusión: Construyendo un futuro resiliente

Introducción

El auge de la IA generativa ha reavivado el interés público en la inteligencia artificial, posicionando al <a href="https://aiindex.stanford.edu/report/">sector financiero como un líder en la adopción de IA en diversas industrias.</a> Esto se debe en gran parte al uso generalizado de IA tradicional, como el <a href="https://www.ecb.europa.eu/press/financial-stability-publications/fsr/special/html/ecb.fsrart202405_02~58c3ce5246.en.html">aprendizaje automático (ML), que ha sido un elemento básico en el sector desde finales de la década de 2000</a>. Aunque la IA generativa es menos prevalente hoy en día, se espera que gane terreno en la industria en los próximos años. En 2023, el sector de servicios financieros invirtió alrededor de <a href="https://www.statista.com/statistics/1446037/financial-sector-estimated-ai-spending-forecast/">35 mil millones de dólares en IA</a>, con la banca liderando el camino, contribuyendo aproximadamente con <a href="https://www.statista.com/statistics/1446052/worldwide-spending-on-ai-by-industry/">21 mil millones de dólares.</a>

La inteligencia artificial (IA) está revolucionando los servicios financieros, trayendo avances en áreas como la detección de fraude, el soporte al cliente, la analítica predictiva y la gestión de riesgos. Se ha convertido en una herramienta crucial en múltiples divisiones comerciales dentro de las instituciones financieras, cada una utilizándola de maneras únicas. En 2023, el segmento de operaciones vio la <a href="https://www.statista.com/statistics/1446225/use-cases-of-ai-in-financial-services-by-business-area/">mayor adopción de IA,</a> seguido de cerca por el riesgo y el cumplimiento 

Preocupaciones regulatorias

Sin embargo, la adopción rápida de IA trae desafíos regulatorios complejos. Navegar por el paisaje regulatorio de IA en evolución es crítico para que los proveedores de servicios financieros mantengan una ventaja competitiva mientras aseguran el cumplimiento y los estándares éticos.

Con planes de <a href="https://apnews.com/article/artificial-intelligence-rules-trump-congress-republicans-1d766b1ecbc4e880b61a7dcbb291565d">revocar la Orden Ejecutiva de IA de 2023 del Presidente Biden</a> y reducir las barreras regulatorias, el paisaje regulatorio está destinado a volverse menos predecible. Mientras que estas propuestas han suscitado un debate entre expertos de la industria sobre su viabilidad, señalan una tendencia más amplia de priorizar la innovación sobre una regulación intensa, lo que probablemente influenciará el sector de servicios financieros.

Esta guía describe cinco pasos que las instituciones financieras pueden tomar para abordar efectivamente los riesgos regulatorios de la IA mientras maximizan su potencial:

Paso 1: Mantenerse adelante de las regulaciones de IA en evolución

La regulación de IA en EE. UU. es fragmentada, con iniciativas a nivel estatal como <a href="https://leg.colorado.gov/bills/sb24-205">Colorado</a>, Utah y California marcando el ritmo. Colorado y Utah han implementado leyes interindustriales que abordan los riesgos de IA, tomando inspiración del marco de la UE. <a href="https://www.veriff.com/fraud/guides/us-data-privacy-protection">La Ley de Privacidad del Consumidor de California (CCPA)</a> enfatiza la transparencia en los sistemas de IA, particularmente para modelos a gran escala y contenido sintético.

Como se mencionó anteriormente, los cambios en el liderazgo han desplazado las prioridades regulatorias a nivel federal. <a href="https://www.veriff.com/fraud/learn/ai-executive-order">La Orden Ejecutiva sobre IA del Presidente Biden de octubre de 2023</a> enfatizó un desarrollo de IA seguro, protegido y ético. Sin embargo, los planes de la administración Trump de revocar esta orden señalan un giro hacia una menor supervisión regulatoria. Este paisaje en evolución subraya la importancia de monitorear tanto los desarrollos estatales como federales para anticipar requisitos futuros.

Las empresas de servicios financieros también deben prestar atención a cualquier directriz y declaraciones emitidas por sus respectivos reguladores, que reflejarán y guiarán el uso aceptable de la tecnología, así como también los riesgos que los reguladores consideran importantes atender. Por ejemplo, FinCen ha <a href="https://www.federalregister.gov/documents/2024/07/03/2024-14414/anti-money-laundering-and-countering-the-financing-of-terrorism-programs">propuesto una regla</a> para fortalecer y modernizar los programas de prevención de lavado de dinero (PLD) y de lucha contra la financiación del terrorismo de las instituciones financieras, de acuerdo con <a href="https://www.fincen.gov/anti-money-laundering-act-2020">la Ley de Prevención de Lavado de Dinero de 2020 (AML Act)</a>. La regla en sí misma solicita específicamente la posibilidad de adoptar aprendizaje automático o IA como un enfoque innovador para que los proveedores de servicios financieros cumplan más efectivamente con los requisitos regulatorios.

Estrategia accionable:

Las empresas de servicios financieros deben desarrollar estrategias adaptativas para abordar el mosaico regulatorio. Alinear proactivamente las estrategias de IA con las directrices emergentes, tanto a nivel estatal como federal, garantiza el cumplimiento, la resiliencia operativa y la preparación para futuros cambios.

Paso 2: Abordar los riesgos de sesgo y discriminación

Los sistemas de IA en servicios financieros pueden perpetuar inadvertidamente el sesgo, especialmente en áreas críticas como la concesión de préstamos, la calificación crediticia y la contratación. Las autoridades federales, incluyendo <a href="https://www.ftc.gov/">la Comisión Federal de Comercio (FTC)</a>, <a href="https://www.justice.gov/crt">el Departamento de Justicia (DOJ)</a> y <a href="https://www.consumerfinance.gov/">la Oficina de Protección Financiera del Consumidor</a> han señalado su intención de hacer cumplir rigurosamente las leyes contra la discriminación. La <a href="https://www.ftc.gov/system/files/ftc_gov/pdf/EEOC-CRT-FTC-CFPB-AI-Joint-Statement%28final%29.pdf">“Declaración Conjunta sobre Esfuerzos de Aplicación Contra la Discriminación y el Sesgo en Sistemas Automatizados”</a> de 2023 refuerza la urgencia de abordar este problema.

Estrategia accionable:

Realizar auditorías regulares de modelos de IA para identificar y mitigar sesgos. Implementar conjuntos de datos diversos y garantizar resultados justos en decisiones como la aprobación de préstamos.

Al abordar proactivamente el sesgo, las empresas financieras pueden construir confianza mientras evitan repercusiones legales.

Paso 3: Fortalecer la privacidad y seguridad de los datos

La dependencia de la IA en los datos hace que la privacidad y la seguridad sean preocupaciones prioritarias. Las instituciones financieras deben alinearse con las leyes existentes de protección de datos, como la <a href="https://www.ftc.gov/legal-library/browse/statutes/gramm-leach-bliley-act">Ley Gramm-Leach-Bliley (GLBA)</a>, y prepararse para regulaciones específicas de cada estado en el futuro. EE. UU. hoy opera con un <a href="https://www.veriff.com/fraud/guides/us-data-privacy-protection">mosaico de leyes de privacidad específicas de cada estado</a> que deben leerse en conjunto con cualquier excepción que puedan proporcionar para las empresas de servicios financieros. Por lo tanto, las empresas de servicios financieros deben entender si la actividad que llevan a cabo con el apoyo de IA también las sujeta a obligaciones de privacidad específicas, y si es así, hasta qué punto.

Estrategia accionable:

Las empresas financieras deben establecer marcos de gobernanza de datos robustos, asegurando que los datos del cliente utilizados en los sistemas de IA estén protegidos y cumplan con todas las leyes relevantes.

Paso 4: Aumentar la transparencia operativa

Los reguladores y los clientes exigen cada vez más transparencia en cómo operan los sistemas de IA. Para las instituciones financieras, <a href="https://www.ibm.com/topics/explainable-ai">las prácticas de IA explicable (XAI)</a> son esenciales, particularmente para decisiones de gran impacto como la aprobación de préstamos y la detección de fraude.

Estrategia accionable:

Desarrollar sistemas que permitan a los reguladores y a los clientes entender cómo se toman las decisiones de IA. Por ejemplo, utilizar tableros visuales para explicar los resultados impulsados por IA en términos simples.

La transparencia operativa no solo ayuda al cumplimiento, sino que también fomenta la confianza del cliente en los sistemas de IA.

Paso 5: Equilibrar la innovación con la regulación

El sector de servicios financieros debe equilibrar la necesidad de innovación con la responsabilidad de cumplir con las regulaciones. La sobre regulación corre el riesgo de sofocar el potencial de la IA, mientras que la subregulación podría llevar a lapsos éticos y erosionar la confianza del consumidor.

Estrategia accionable:

Participar en diálogos políticos para abogar por una gobernanza de IA equilibrada. Colaborar con reguladores y organismos de la industria para garantizar políticas prácticas, claras y consistentes.

Las empresas que priorizan las prácticas éticas de IA y abogan por regulaciones pragmáticas estarán mejor posicionadas para liderar en un paisaje competitivo.

Webull: Fortaleciendo la seguridad y la confianza a través de la verificación de identidad impulsada por IA

<a href="https://www.veriff.com/case-studies/veriff-and-webull">Webull,</a> una de las principales plataformas de negociación en línea, está a la vanguardia del aprovechamiento de tecnología de punta para garantizar experiencias de usuario seguras y fluidas. Al asociarse con <a href="https://www.veriff.com/">Veriff</a>, Webull implementó soluciones avanzadas de verificación de identidad para mejorar la detección de fraude y agilizar su proceso de incorporación. Esta colaboración no solo fortaleció el cumplimiento de Webull con los estándares regulatorios, sino que también demostró un compromiso con la transparencia operativa y la confianza del usuario. Al integrar los sistemas impulsados por IA de Veriff, Webull abordó efectivamente desafíos críticos en la prevención de fraude mientras mantenía una ventaja innovadora en la altamente competitiva industria de servicios financieros.

“En Webull, ofrecer a nuestros usuarios una plataforma segura y protegida siempre ha sido una prioridad importante, y Veriff nos ayudó a lograrlo. En comparación con otros socios, Veriff pudo apoyarnos para identificar las actividades fraudulentas de manera precisa y efectiva, incluso cuando la cantidad de usuarios de la plataforma creció”.

Brendan Fuller, director de riesgo de Webull.

Conclusión: Construyendo un futuro resiliente

La IA tiene un inmenso potencial para revolucionar los servicios financieros, ofreciendo innovaciones que mejoran la eficiencia, la seguridad y la experiencia del cliente. Sin embargo, estos avances vienen acompañados de complejos desafíos regulatorios. Abordar cuestiones clave como el sesgo, la privacidad de los datos y la transparencia, mientras se permanece adaptable a las prioridades legislativas en cambio, es crucial.

Con la administración Trump lista para revertir ciertas regulaciones federales de IA, las instituciones financieras deben navegar por un paisaje donde las políticas a nivel estatal dominan y la supervisión federal se vuelve menos centralizada. Este enfoque desregulado puede reducir los costos de cumplimiento, pero también crea incertidumbre, subrayando la necesidad de que las empresas financieras monitoreen iniciativas impulsadas por los estados y participen en diálogos políticos para influir en una gobernanza de IA práctica y equilibrada.

Las instituciones financieras que equilibran la innovación y el cumplimiento estarán mejor posicionadas para prosperar en medio de estas complejidades. Las empresas pueden construir confianza y resiliencia integrando prácticas éticas de IA, fomentando la transparencia y manteniéndose a la vanguardia de los cambios regulatorios. Aquellos que se adapten proactivamente tanto a los desarrollos estatales como federales pueden liderar el camino en la creación de un ecosistema financiero robusto y confiable en un mundo cada vez más <a href="https://www.veriff.com/fraud/learn/the-european-union-ai-act-first-regulation-on-artificial-intelligence">impulsado por la IA.</a>