Cantitate/Preț
Produs

Explainable Artificial Intelligence: Second World Conference, xAI 2024, Valletta, Malta, July 17–19, 2024, Proceedings, Part III: Communications in Computer and Information Science, cartea 2155

Editat de Luca Longo, Sebastian Lapuschkin, Christin Seifert
en Limba Engleză Paperback – 10 iul 2024

Actualizarea adusă de ediția din 2024 a Conferinței Mondiale de Inteligență Artificială Explicabilă (xAI) marchează o tranziție clară de la simpla interpretare a modelelor către pilonii etici și operaționali: cauzalitatea, echitatea și securitatea datelor. Suntem de părere că acest al treilea volum din seria Explainable Artificial Intelligence este esențial pentru cercetătorii care doresc să depășească etapa de „cutie neagră” a algoritmilor, oferind soluții concrete pentru auditarea și securizarea sistemelor inteligente.

Structura volumului este organizată tematic pentru a aborda provocările stringente ale implementării XAI în domenii de înaltă responsabilitate. Primele secțiuni explorează explicațiile contrafactuale și cauzalitatea, în timp ce a doua parte a volumului se concentrează pe dimensiunile sociale și tehnice ale încrederii, inclusiv confidențialitatea și responsabilitatea (accountability). Cititorul care a aplicat ideile din xxAI - Beyond Explainable AI de Andreas Holzinger va găsi aici o continuare necesară, trecând de la teoria generală a interpretabilității la metodologii specifice de evaluare cantitativă în fluxuri de date complexe.

Apreciem rigoarea cu care editorul Luca Longo a selectat materialele, păstrând linia cercetărilor sale anterioare din Artificial Intelligence and Cognitive Science. Dacă în lucrările sale precedente accentul cădea pe modelele mentale și volumul de muncă cognitivă, aici focusul se mută pe aplicații medicale avansate. Cuprinsul relevă studii de caz de o precizie tehnică remarcabilă, de la utilizarea Tsetlin Machines în medicina de precizie pentru gestionarea durerii cronice, până la arhitecturi de învățare profundă (deep learning) destinate diagnosticării depresiei prin EEG. Această progresie de la teorie la studii clinice validate face din volumul publicat de Springer o resursă tehnică indispensabilă.

Citește tot Restrânge

Din seria Communications in Computer and Information Science


Specificații

ISBN-13: 9783031637995
ISBN-10: 3031637992
Pagini: 456
Ilustrații: XVII, 456 p. 130 illus., 103 illus. in color.
Dimensiuni: 155 x 235 mm
Ediția:2024
Editura: Springer Nature Switzerland
Colecția Springer
Seria Communications in Computer and Information Science

Locul publicării:Cham, Switzerland

De ce să citești această carte

Recomandăm această lucrare profesioniștilor din data science și inginerie software care lucrează cu sisteme critice în medicină sau securitate. Veți câștiga o înțelegere profundă a metodelor de evaluare a explicațiilor AI și a modului în care echitatea și confidențialitatea pot fi integrate nativ în arhitecturile neuronale. Este un ghid practic pentru transformarea modelelor complexe în instrumente transparente și etice, esențiale pentru obținerea încrederii utilizatorilor finali.


Descriere scurtă

This four-volume set constitutes the refereed proceedings of the Second World Conference on Explainable Artificial Intelligence, xAI 2024, held in Valletta, Malta, during July 17-19, 2024. 
The 95 full papers presented were carefully reviewed and selected from 204 submissions. The conference papers are organized in topical sections on:
Part I - intrinsically interpretable XAI and concept-based global explainability; generative explainable AI and verifiability; notion, metrics, evaluation and benchmarking for XAI.
Part II - XAI for graphs and computer vision; logic, reasoning, and rule-based explainable AI; model-agnostic and statistical methods for eXplainable AI.
Part III - counterfactual explanations and causality for eXplainable AI; fairness, trust, privacy, security, accountability and actionability in eXplainable AI.
Part IV - explainable AI in healthcare and computational neuroscience; explainable AI for improved human-computer interaction and software engineering for explainability; applications of explainable artificial intelligence.

Cuprins

.- Counterfactual explanations and causality for eXplainable AI.
.- Sub-SpaCE: Subsequence-based Sparse Counterfactual Explanations for Time Series Classification Problems.
.- Human-in-the-loop Personalized Counterfactual Recourse.
.- COIN: Counterfactual inpainting for weakly supervised semantic segmentation for medical images.
.- Enhancing Counterfactual Explanation Search with Diffusion Distance and Directional Coherence.
.- CountARFactuals -- Generating plausible model-agnostic counterfactual explanations with adversarial random forests.
.- Causality-Aware Local Interpretable Model-Agnostic Explanations.
.- Evaluating the Faithfulness of Causality in Saliency-based Explanations of Deep Learning Models for Temporal Colour Constancy.
.- CAGE: Causality-Aware Shapley Value for Global Explanations.
.- Fairness, trust, privacy, security, accountability and actionability in eXplainable AI.
.- Exploring the Reliability of SHAP Values in Reinforcement Learning.
.- Categorical Foundation of Explainable AI: A Unifying Theory.
.- Investigating Calibrated Classification Scores through the Lens of Interpretability.
.- XentricAI: A Gesture Sensing Calibration Approach through Explainable and User-Centric AI.
.- Toward Understanding the Disagreement Problem in Neural Network Feature Attribution.
.- ConformaSight: Conformal Prediction-Based Global and Model-Agnostic Explainability Framework.
.- Differential Privacy for Anomaly Detection: Analyzing the Trade-off Between Privacy and Explainability.
.- Blockchain for Ethical & Transparent Generative AI Utilization by Banking & Finance Lawyers.
.- Multi-modal Machine learning model for Interpretable Mobile Malware Classification.
.- Explainable Fraud Detection with Deep Symbolic Classification.
.- Better Luck Next Time: About Robust Recourse in Binary Allocation Problems.
.- Towards Non-Adversarial Algorithmic Recourse.
.- Communicating Uncertainty in Machine Learning Explanations: A Visualization Analytics Approach for Predictive Process Monitoring.
.- XAI for Time Series Classification: Evaluating the Benefits of Model Inspection for End-Users.