Hacking IA
$850.00
Guía práctica para entender y auditar sistemas basados en inteligencia artificial, abordando vulnerabilidades clave como prompt injection, jailbreak, bias y hallucinations. Incluye estrategias, herramientas y metodologías para pentesting de modelos MM-LLM en entornos reales.
Hay existencias (puede reservarse)
Descripción
Hoy en día, encontrar servicios digitales que no estén utilizando modelos de inteligencia artificial es casi una rareza. Los MM-LLM (Multi-Modal Large Language Models) están en casi todos los servicios digitales que están a nuestro alrededor, y todos ellos adolecen de debilidades de seguridad en forma de BIAS, Hallucinations, Prompt Injection, Jailbreak & Unalignment.
Conocer estos problemas, así como los que tienen las arquitecturas de seguridad basadas en Guardarraíles es fundamental para ser un profesional de la ciberseguridad hoy en día.
En este libro, escrito por Chema Alonso, con la colaboración de Pablo González, Fran Ramírez, Amador Aparicio, Manuel S. Lemos y José Palanco, encontrarás, en sus más de 300 páginas, conceptos que deberán ser tu día a día en la auditoría de servicios digitales basados en IA, así como estrategias, herramientas y procedimientos que te pueden ayudar para ser un gran pentester de IA.
Información adicional
| Peso | 0.3 kg |
|---|---|
| Dimensiones | 22 × 17 × 3 cm |
| Nombre Completo | Hacking IA: Jailbreak, Prompt Injection, Hallucinations & Unalignment |
| Autor | Chema Alonso |
| Con la colaboración de | Amador Aparicio, Pablo González, Fran Ramírez, Manuel S. Lemos, José Palanco |
| Editorial | 0xWord |
| Edición | 1ª Edición |
| Idioma | Castellano |
| Publicado | febrero de 2026 |
| Número de páginas | 342 |
| ISBN | 9788409779932 |
| Formato | Libro físico |
| Pasta | Blanda |
| Categoría técnica | . |
| Nivel | . |
| Público objetivo | . |
| Peso | 0.3 kg |
| Dimensiones | 22 × 17 × 3 cm |
Solo los usuarios registrados que hayan comprado este producto pueden hacer una valoración.




Valoraciones
No hay valoraciones aún.