El verdadero peligro de darle "manos" a la IA
Hasta ahora, en nuestra serie de investigaciones, hemos atacado a modelos de lenguaje interactuando directamente con ellos a través de un ch…
root@portfolio:~$
Artículos y write-ups organizados por categorías de AI Red Team.
Hasta ahora, en nuestra serie de investigaciones, hemos atacado a modelos de lenguaje interactuando directamente con ellos a través de un ch…
Hasta ahora, cuando hablamos de hackear un Modelo de Lenguaje (LLM), todos pensamos en un atacante tecleando comandos en una ventana de chat…
En el artículo anterior estrenamos el laboratorio de AI Red Teaming superando un reto básico de ingeniería social. Sin embargo, en el mundo …
Siempre he tenido claro que para mejorar específicamente en AI Red Teaming no bastaba con leer teoría. Necesito enfrentarme a distintos mode…
Imaginemos una tienda online ficticia que, cansada de gestionar miles de devoluciones manualmente, decide implementar un Agente de IA para a…
Cuando interactuamos con un asistente de Inteligencia Artificial, solemos tener la falsa sensación de que estamos en un entorno cerrado. Cre…
Seguimos avanzando en nuestra serie de Write-Ups de PortSwigger Web Security Academy. Si en el Nivel 1 vimos cómo un LLM podía ejecutar acci…
Inauguramos una nueva serie en el blog dedicada a resolver y analizar los laboratorios de "Web LLM Attacks" en la Web Security Academy de Po…