root@portfolio:~$
# Recursos & Toolkit
Selección viva de material útil para investigación en AI Red Team.
> Frameworks & Estándares
> Herramientas
Tool
github.com
PyRIT
Red teaming framework para LLMs desarrollado por Microsoft.
Abrir →
Tool
github.com
promptfoo
Eval y regression testing de prompts y modelos LLM.
Abrir →
Tool
github.com
garak
Scanner de vulnerabilidades y debilidades para LLMs.
Abrir →
Tool
github.com
DeepTeam
Red teaming de jailbreaks y prompt attacks para apps LLM.
Abrir →
> Plataformas de práctica
Practice
portswigger.net
PortSwigger Web Security Academy
Labs guiados de ataques LLM en entornos controlados.
Abrir →
Practice
gandalf.lakera.ai
Gandalf
Juego de jailbreaking para practicar extracción de secretos.
Abrir →
Practice
www.hackaprompt.com
HackAPrompt
Competición de prompt injection y jailbreaks con niveles progresivos.
Abrir →