Recursos de prompt engineering

Páginas oficiales, entornos de pruebas o herramientas 

OWASP

  • Proyecto abierto que clasifica riesgos de seguridad en software e IA.
  • GenAI Red Teaming Guide es una guía práctica de Red Teaming en IA generativa, dirigida a perfiles técnicos y de gestión.
  • OWASP LLM Top 10  (checklist de seguridad)
  • AI Security Solutions Landscape (herramientas y controles)
  • Se propone un enfoque integral basado en 4 áreas: modelo, implementación, infraestructura y comportamiento en ejecución.

NIST

  • Artificial Intelligence Risk Management Framework (AI RMF 1.0)
  • Organismo de EE. UU. que define marcos y estándares para la gestión de riesgos tecnológicos.
  • El Marco de Gestión de Riesgos en IA (AI RMF) define un sistema de IA como un sistema diseñado o basado en máquinas que, para un conjunto determinado de objetivos, es capaz de generar salidas  (predicciones/decisiones) que influyen en entornos reales o virtuales.
  • (Adaptado de la Recomendación de la OCDE sobre IA, 2019, y la norma ISO/IEC 22989:2022).

 

 

 

PyRIT

  • PyRIT es una herramienta de Microsoft para detectar riesgos en modelos de IA generativa.
  • Ayuda a ejecutar pruebas de red teaming para detectar contenidos dañinos y vulnerabilidades de seguridad en modelos como los LLMs.

 

 

 

 

 

 

 

GLOSARIO

  • Glosario de términos y definiciones de AI Red Teaming en español
  • Glosario de términos oficiales de OWASP

RECURSOS

  • LANGCHAIN
  • PromptAppGPT (framework de desarrollo de apps con low code, basado en prompts)
  • PromptArmor(testing de prompts): Simula ataques reales (como jailbreaks o bypass de filtros) y muestra si tu modelo es vulnerable a manipulación mediante texto. Ideal para evaluar guardrails de chatbots.
  • Adversarial Robustness Toolbox (by Trusted AI) es una biblioteca de Python desarrollada por IBM para evaluar y mejorar la robustez de modelos de IA ante ataques adversarios.