Practicing Trustworthy Machine Learning: Consistent, Transparent, and Fair AI Pipelines
Autor Yada Pruksachatkun, Matthew Mcateer, Subho Majumdaren Limba Engleză Paperback – 7 feb 2023
Prin parcurgerea acestui volum, cititorul va putea implementa un pipeline de machine learning complet, care nu este doar precis, ci și transparent, sigur și echitabil. Recomandăm acest ghid tehnic publicat de O'Reilly deoarece face trecerea critică de la conceptele teoretice ale eticii AI la soluții de inginerie aplicabile în producție. Într-un context în care algoritmii sunt utilizați în domenii cu mize ridicate, precum medicina sau dreptul, simpla funcționare a unui model nu mai este suficientă; acesta trebuie să fie rezistent la atacuri malițioase și capabil să-și justifice deciziile. Suntem de părere că forța acestei cărți rezidă în structura sa orientată spre proces. Autorii Yada Pruksachatkun, Matthew Mcateer și Subho Majumdar descompun complexitatea sistemelor de încredere în piloni clari: detectarea și eliminarea prejudecăților (bias) din date, protejarea confidențialității și explicabilitatea output-urilor pentru persoanele non-tehnice. Cititorul care a aplicat ideile din Practical Fairness de Aileen Nielsen va găsi aici instrumentele necesare pentru a extinde acele principii de echitate către o arhitectură de sistem robustă, capabilă să gestioneze ceea ce autorii numesc „datoria de încredere”. Spre deosebire de lucrările pur academice, acest manual oferă un set de bune practici pentru curatarea seturilor de date și monitorizarea modelelor într-un mediu real, adesea ostil și imprevizibil. Credem că abordarea sistemică propusă ajută echipele de dezvoltare să identifice momentele în care intervenția umană este indispensabilă, transformând responsabilitatea AI dintr-un concept abstract într-un avantaj competitiv tehnic.
Preț: 357.89 lei
Preț vechi: 447.35 lei
-20%
Carte disponibilă
Livrare economică 04-18 mai
Livrare express 18-24 aprilie pentru 72.70 lei
Specificații
ISBN-10: 1098120272
Pagini: 300
Dimensiuni: 180 x 234 x 20 mm
Greutate: 0.54 kg
Editura: O'Reilly
De ce să citești această carte
Pentru inginerii de date și specialiștii ML care doresc să depășească faza de prototip, această carte oferă specificațiile tehnice pentru a construi sisteme rezistente la atacuri și lipsite de bias. Veți câștiga o metodologie clară de a explica rezultatele algoritmice stakeholderilor și de a securiza fluxurile de date împotriva scurgerilor de informații, asigurând o lansare în producție conformă cu standardele moderne de etică și siguranță.
Despre autor
Yada Pruksachatkun, Matthew McAteer și Subhabrata Majumdar sunt experți în domeniul inteligenței artificiale, cu o vastă experiență în cercetare și implementare industrială. Aceștia combină rigoarea academică cu pragmatismul necesar în dezvoltarea de software la scară largă. Subhabrata Majumdar este recunoscut pentru contribuțiile sale în domeniul eticii datelor, în timp ce coautorii săi aduc expertiză în securitatea modelelor și robustețea sistemelor ML, formând o echipă capabilă să acopere toate fațetele încrederii în sistemele autonome.
Descriere
With the increasing use of AI in high-stakes domains such as medicine, law, and defense, organizations spend a lot of time and money to make ML models trustworthy. Many books on the subject offer deep dives into theories and concepts. This guide provides a practical starting point to help development teams produce models that are secure, more robust, less biased, and more explainable.
Authors Yada Pruksachatkun, Matthew McAteer, and Subhabrata Majumdar translate best practices in the academic literature for curating datasets and building models into a blueprint for building industry-grade trusted ML systems. With this book, engineers and data scientists will gain a much-needed foundation for releasing trustworthy ML applications into a noisy, messy, and often hostile world. You'll learn:Methods to explain ML models and their outputs to stakeholdersHow to recognize and fix fairness concerns and privacy leaks in an ML pipelineHow to develop ML systems that are robust and secure against malicious attacksImportant systemic considerations, like how to manage trust debt and which ML obstacles require human intervention