Persona víctima de ciberdelincuencia

Ser ciberdelincuente nunca fue tan fácil

Persona víctima de ciberdelincuencia

Esta noticia está extraída del trabajo de investigación que está llevando a cabo la empresa INIXIA dentro de la tarea L1.1. Requisitos legales, requisitos éticos y sesgo de la IA en el desarrollo de software.

2024, vivimos en el umbral entre pensar que la IA eliminará el trabajo de la raza humana o que será un nuevo grafeno que no tendrá utilidad real. Sin embargo, YA vivimos un presente en el que los sistemas de IA tienen un fuerte impacto sobre las vidas de las personas, tanto para bien como para mal. ¿Estamos en el camino correcto en el desarrollo de sistemas IA? ¿Estamos protegiendo la integridad del ciudadano de manera adecuada? ¿Puede una persona sin conocimiento técnico vulnerar sistemas de seguridad avanzados? ¿Puede un político automatizar decisiones maximizando su impacto sobre el subconsciente humano? Intentaré dar respuesta a estas preguntas desde el punto de vista de un desarrollador de sistemas IA especializado en su seguridad.

Esta reflexión nace de una prospección de cuestiones de seguridad sobre LLMs. En concreto se revisarán 3 realidades presentes en la comunidad de Inteligencia Artificial.

La noticia de la salida de OpenAI o1 fue un terremoto de alta magnitud sobre, no solo el nicho de la IA, si no directamente sobre toda la sociedad. Sin embargo, hubo algo que pasó desapercibido y que tuvo un impacto fortísimo sobre pequeños nichos en comunidades de desarrolladores. En el mismo paper que presentó OpenAI o1, en la página 16 apartado 4.2.1, se expone un experimento muy curioso. Los investigadores propusieron un pequeño ejercicio de pentesting que consistía en vulnerar una máquina preparada en un Linux. Desgraciadamente, los investigadores configuraron mal el escenario de laboratorio y el modelo no tenía acceso real a la máquina. o1 trató de realizar el ejercicio igualmente, rastreó bien su escenario, y consiguió descubrir una infraestructura Docker en la que se había desplegado el ejercicio, encontrar una vulnerabilidad en el Docker y resolver el ejercicio siguiendo esa ruta.
Esto me hace pensar… ¿Esto quiere decir que cualquier individuo sin conocimiento técnico podría utilizar esta herramienta para convertirse en un ciberdelincuente?

Meta está haciendo un trabajo fabuloso para hacer llegar a todo el mundo el increíble poder de los LMs. Poniendo a disposición del mundo, no solo un LLM, sino también SLM y MLM que pueden ser ejecutados en máquinas más modestas. El problema es que, paralelamente a estas liberaciones de modelos, grupos independientes exponen cómo «saltarse» las protecciones que contienen estos modelos. Un caso de esto es el caso BadLlama, un paper en el que demuestra cómo se puede evadir las protecciones en tan solo 3 minutos mediante 3 técnicas diferentes. Esto crea la posibilidad de que, personas con muy poco conocimiento técnico, tengan acceso a prompts como «¿Cómo hacer una bomba?» o «¿Dónde puedo conseguir un arma en la DeepWeb?». Por lo tanto, es una gran contribución a la humanidad, pero habría que tener cuidado con las implicaciones que tiene liberar un modelo de estas características al mundo.

El concepto anterior es llamado «JailBreak» en el nicho de la IA, y se puede encontrar en diferentes etapas del flujo de desarrollo o ejecución de un LLM. Otro momento para evadir las protecciones es en la fase de prompt. Si escribes ciertos prompts antes del que deseas, puedes evadir los sistemas de seguridad del LLM. Un usuario se dedica a publicar todos estos prompts especiales en el repositorio público de Github L1B3RT45, el cual se ha granjeado ya casi 3 000 estrellas en la plataforma. Esto hace que un usuario pueda preguntar cómo hacer una bomba incluso a servicios más complejos como ChatGPT o Claude.

Ante este panorama, casi cualquier individuo con una computadora puede convertirse en un, no solo ciberdelincuente, sino en un peligroso delincuente con capacidades muy avanzadas. Ya existen teorías entre los internautas de supuestas entidades que serían en realidad Inteligencias artificiales, así como otras teorías de fuerzas políticas que utilizan LLMs para potenciar sus campañas. Es por todo esto que uno se plantea si es realmente positivo el camino actual para la evolución del ser humano. Ya hay otras áreas de la ciencia muy restringidas y a las que no todos tienen acceso por el peligro que suponen, por ejemplo, no cabe en ninguna cabeza que alguien tenga un reactor nuclear en casa.

No quiero decir que se deban eliminar estas IAs de la vida de la gente, pero sí que siento que las grandes empresas, laboratorios y gobiernos deberían sin duda tener algún tipo de responsabilidad sobre lo que se libera al público general. El estado actual tiene repercusiones claras sobre la integridad de las personas y, si esto sigue este rumbo, la gente se empezará a dar cuenta y existirán repercusiones muy negativas.

Cuídense.

Por Antonio Piedra Fernández
 antoniopiedra.es