Si bien la inteligencia artificial es un recurso invaluable, el rápido desarrollo de esta tecnología trae consigo una multitud de riesgos y problemáticas difíciles de imaginar. Una de las principales es su uso criminal: según Nikhil Rathi, director ejecutivo de la Autoridad de Conducta Financiera del Reino Unido, la inteligencia artificial ofrece oportunidades de fraudes cibernéticos muy sofisticados.
Inteligencia artificial: beneficios y riesgos de esta tecnología
La IA ofrece muchos beneficios y su aplicación en campos como el de la medicina ya están siendo probadas: se cree que será clave en resonancias para el diagnóstico de patologías por la elevada fidelidad de su aplicación en las imágenes. La IA tiene muchas aplicaciones: puede crear imágenes, reproducir voces y rostros y emplear lenguajes de programación.
Sin embargo, esto representa una preocupación para los especialistas en ciberseguridad y análisis biométrico como el reconocimiento facial o los comandos por voz. Por eso, hoy se plantea la necesidad de mejorar la ciberseguridad en muchos aspectos, incorporando software de prevencion de fraudes capaces de verificar y autenticar la identidad de los usuarios, brindar transparencia a las operaciones y combatir el lavado de dinero.
Las herramientas y programas antifraude son efectivos para luchar contra los ataques cibernéticos y reducir la eficacia de estafas realizadas mediante el uso de IA, pero es necesario concientizar al público y a las empresas sobre la necesidad de su empleo. Según la consultora Next Move Strategy Consulting, el mercado de la IA superará los 1.847.495,6 millones de dólares para 2030, por lo que especialistas en la materia reconocen la necesidad de estudiar su impacto en la sociedad.
Inteligencia artificial: regulación e iniciativas de control
Una de las fuentes de preocupación más significativas en materia de ciberseguridad con IA es la reproducción facial o deepfake que esta tecnología permite. Según el director de la Autoridad de Conducta Financiera (FCA) del Reino Unido, Nikhil Rathi, está tecnología ya es funcional y se han registrado múltiples ataques de este tipo para vulnerar los controles biométricos de reconocimiento facial que muchas empresas utilizan para autenticar la identidad de los usuarios.
Según Rathi, los nuevos desarrollos de IA presentan riesgos potenciales en materia de fraude, robo de identidad y estafas cuya complejidad y sofisticación serán muy difíciles de combatir. En el mismo discurso, aseguró que las instituciones financieras, entidades de crédito, bancos y también empresas y negocios que brinden servicios financieros electrónicos deben invertir en herramientas antifraude para afrontar este fenómeno.
Herramientas y marco regulatorio
Por eso, muchos de ellos ya están invirtiendo en soluciones antifraude basados en inteligencia artificial: Future Market Insights informa que los ingresos de este mercado llegarán, en 2031, a 39.500 millones de dólares (una tasa de crecimiento anual compuesto de 18 %). Dichos esfuerzos se orientan a responder contra las vulnerabilidades de los sistemas de autenticación y acceso basados en reconocimientos biométricos de voz, audio y vídeo.
Los comentarios del presidente de la FCA del Reino Unido se inscriben en una agenda mayor impulsada por el primer ministro, Rishi Sunak, para convertir al país en el epicentro de la regulación de la IA en materia de seguridad cibernética y financiera. El Reino Unido no es el único que reconoce la necesidad de un marco regulatorio: por ejemplo, en España, Barcelona ha demostrado su interés por convertirse en sede de la Agencia de IA del país para supervisar su desarrollo y aplicación.
¿Cómo pueden las empresas prevenir el fraude con IA?
Si bien los organismos de regulación financiera del Estado deben crear sus propios lineamientos en cuanto a supervisión y seguridad, lo cierto es que la inteligencia artificial ya se encuentra disponible para los ciberdelincuentes. Por eso, las empresas, negocios e instituciones financieras recurren a las herramientas antifraude para reducir el riesgo y proteger sus operaciones. El software para la protección contra el fraude es una herramienta desarrollada con dicho propósito: permite obtener más datos e información de los usuarios para identificar actividades sospechosas e interrumpirlas. Por ejemplo, es posible sumar al control de la huella digital un segundo nivel de seguridad utilizando la dirección IP del usuario, su ubicación o número de teléfono para verificar que es quien dice ser.
Estas herramientas además tienen el beneficio de ser programables para crear reglas de riesgo propias, en función de la actividad o tipo de cliente de la empresa, para aumentar su eficacia. Estas reglas automatizan el funcionamiento y reducen el esfuerzo dedicado a la gestión de ciberseguridad, reduciendo, a su vez, los costos globales al mismo tiempo que se mejora su eficacia.
¿Cómo funcionan las herramientas antifraude y porque son tan efectivas contra los fraudes de IA?
Las herramientas antifraude y software de ciberseguridad más avanzados para evitar riesgos de fraude con IA utilizan los siguientes mecanismos para validar la identidad de los usuarios y asegurarse de que se tratan de operaciones legítimas:
- La recolección de datos, en primer lugar, es fundamental para formar una base de datos que nos permita analizar las operaciones y establecer medidas de control.
- El enriquecimiento de datos es un método que permite producir información fehaciente a partir de un único punto de datos (dirección IP, ubicación, etc.) para identificar acciones sospechosas y verificar la identidad de los usuarios.
- El etiquetado de las operaciones sospechosas y los intentos de fraude permite crear un registro y entrenar los módulos de machine learning.
- Las reglas de riesgo, como dijimos, permiten definir los parámetros de control y análisis más eficaces en función de la actividad particular de la empresa.
- Las alertas de riesgo operan cuando las reglas de riesgo ya se encuentran definidas y automatizan el control.
- Finalmente, las sugerencias de IA y ML son especialmente útiles para detectar el fraude con inteligencia artificial, en tanto utilizan algoritmos de machine learning para aprender y volverse más eficaces con el tiempo.
Conclusión
Desde su lanzamiento a principios de 2023, Chat GPT llevó a la inteligencia artificial a la fama. Este sistema de lenguaje basado en deep learning de Open IA demostró la capacidad de esta tecnología. Sin embargo, la IA también puede potenciar las capacidades de fraude y los riesgos en ciberseguridad. Los especialistas reconocen la necesidad de invertir en herramientas antifraude capaces de prevenir este riesgo y combatir el delito cibernético con IA.