Cantitate/Preț
Produs

Red Teaming AI: A Field Manual for Attacking Intelligent Systems

Autor Philip Dursey
en Limba Engleză Paperback – 28 iul 2026

Descoperim în Red Teaming AI o structură progresivă, concepută special pentru a transforma cititorul dintr-un observator într-un tactician capabil să securizeze sisteme inteligente complexe. Philip Dursey propune o tranziție necesară de la teoria abstractă la implementarea practică, oferind un manual de teren care prioritizează metodologia în detrimentul simplelor liste de verificare. Găsim în acest volum o analiză detaliată a suprafeței de atac specifice inteligenței artificiale, unde vulnerabilitățile nu sunt doar erori de cod, ci defecte structurale în modul în care modelele percep și procesează informația.

Abordarea diferă de Computational Red Teaming de Hussein A. Abbass prin faptul că este mai puțin axată pe modelarea matematică a riscului și mult mai aplicabilă în scenarii de atac reale. În timp ce alte lucrări se concentrează pe managementul deciziilor, volumul de față oferă instrumente concrete pentru „otrăvirea” datelor de antrenament, manipularea percepției prin atacuri de tip evaziune și executarea injecțiilor de prompturi care pot transforma un model de limbaj într-o amenințare internă.

Structura narativă a cărții urmărește ciclul de viață al unui angajament profesional de securitate, utilizând cadrul STRATEGEMS și conceptul AI Kill Graph. Acești indicatori de experiență tehnică permit profesioniștilor să simuleze campanii complete, de la maparea componentelor interconectate până la raportarea vulnerabilităților în sisteme critice precum vehiculele autonome sau agenții financiari. Este o resursă densă, de 500 de pagini, care refuză abordările simpliste în favoarea unei rigori metodologice esențiale în peisajul tehnologic actual.

Citește tot Restrânge

Preț: 30077 lei

Preț vechi: 48278 lei
-38% Precomandă

Puncte Express: 451

Carte nepublicată încă

Doresc să fiu notificat când acest titlu va fi disponibil:

Specificații

ISBN-13: 9781718504721
ISBN-10: 1718504721
Pagini: 500
Dimensiuni: 178 x 235 mm
Greutate: 0.37 kg
Editura: Penguin Random House Group
Colecția No Starch Press
Locul publicării:United States

De ce să citești această carte

Recomandăm această carte profesioniștilor în securitate cibernetică și cercetătorilor AI care doresc să treacă dincolo de conceptele teoretice. Cititorul câștigă o metodologie clară de testare ofensivă, învățând să identifice punctele slabe în pipeline-urile de date și modelele de învățare automată. Este un ghid esențial pentru a preveni pierderi financiare masive și compromiterea proprietății intelectuale într-o eră în care sistemele AI devin ținte prioritare.


Descriere

AI is no longer a futuristic concept-it's embedded in critical systems shaping finance, healthcare, infrastructure, and national security. But with this power comes unprecedented risk. Red Teaming AI arms you with the mindset, methodology, and tools to proactively test and secure intelligent systems before real adversaries exploit them. Written for security professionals, researchers, and AI practitioners, this field manual goes beyond theory. You'll learn how to map the new AI attack surface, anticipate adversarial moves, and simulate real-world threats to uncover hidden vulnerabilities. You'll Learn How To: Think in graphs, not checklists: trace attack paths through interconnected AI components, data pipelines, and human interactions, Poison the well: explore how adversaries corrupt training data to implant backdoors and erode model integrity, Fool the oracle: craft evasion attacks that manipulate AI perception at decision time, Hijack conversations: execute prompt injection attacks that turn Large Language Models into insider threats, Steal the brain: probe for model extraction and privacy attacks that compromise valuable IP, Conduct full-spectrum campaigns: use the STRATEGEMS framework and the AI Kill Graph to plan, execute, and report professional-grade red team engagements. Traditional security methods can't keep up with adversarial AI. From manipulated financial agents to compromised autonomous vehicles, real-world failures have already caused billions in losses and threatened lives. Red Teaming AI equips you to meet this challenge with practical techniques grounded in real attack scenarios and cutting-edge research.