Computación
Analizando las vulnerabilidades de sistemas con inteligencia artificial
Un nuevo proyecto de ciberseguridad se centra en analizar las vulnerabilidades de sistemas que incorporan inteligencia artificial y los mecanismos para hacer estos sistemas más seguros.
En este proyecto, denominado SPRINT (Seguridad y PRivacidad en sistemas con INTeligencia artificial), trabajan expertos del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universidad Politécnica de Valencia (UPV) en España.
El proyecto aborda tres focos de vulnerabilidades en sistemas con inteligencia artificial.
En primer lugar, la seguridad y la privacidad de los datos, tanto los datos que utilizan los modelos de inteligencia artificial, como las capacidades que dan estos modelos y en las que podrían estar implicados datos de terceros.
En segundo lugar, las vulnerabilidades del propio sistema que pueden hacer que no funcione adecuadamente.
Y en tercer lugar, verificar que los sistemas que utilizan inteligencia artificial sean entendibles, tanto para usuarios, operadores y desarrolladores, de forma que puedan proporcionar al usuario el contexto adecuado para usarlos correctamente.
Tal y como explica, el investigador principal de este proyecto en VRAIN y Catedrático de Universidad en la UPV, José Such, “la inteligencia artificial está teniendo un nivel de progreso y de impacto en la sociedad cada vez mayor. Muchos de los sistemas que usamos en la actualidad traen consigo algún modelo de inteligencia artificial para ofrecer características avanzadas que no estaban disponibles antes”.
Y añade que este uso masivo de inteligencia artificial en sistemas tiene muchos beneficios en términos de funcionalidad y comodidad, para hacer, en muchas ocasiones, tareas complejas o repetitivas de forma fácil y muy rápida. “Sin embargo, al tiempo que se introduce la inteligencia artificial, estamos introduciendo nuevos vectores de ataque, como sucede casi siempre que se introducen nuevas tecnologías”. Por desgracia, tal como advierte Such, la gran mayoría de técnicas de inteligencia artificial se desarrollaron inicialmente sin considerar que podía haber delincuentes que las atacaran o se aprovecharan de ellas indebidamente cuando se incorporan en sistemas.
Miembros del equipo de investigación. (Foto: Universitat Politècnica de València)
Los resultados del proyecto SPRINT permitirán conocer qué vulnerabilidades se introducen cuando se utiliza inteligencia artificial en los sistemas, y los mecanismos que se pueden poner en marcha para hacer estos sistemas lo más seguros posibles.
El proyecto está liderado por el Human-Centred & AI Security, Ethics and Privacy (HASP) Lab del VRAIN de la UPV. SPRINT, que arrancó en noviembre de 2023, tendrá una duración de 2 años, hasta diciembre de 2025.
Las conclusiones del proyecto se presentarán en la USENIX Security Symposium, uno de los congresos más importantes en materia de ciberseguridad a nivel internacional, del 14 al 16 de agosto de 2024 en Filadelfia, Estados Unidos. (Fuente: Universitat Politècnica de València)