Zusammenfassung
,,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erklärbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. Während regelbasierte Lösungen der frühen AI nachvollziehbare ,,Glass-Box“-Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ,,explainable AI“.
Article PDF
Avoid common mistakes on your manuscript.
References
Bach S, Binder A, Montavon G, Klauschen F, Müller KR, Samek W (2015) On pixel-wise explanations for non-linear classifier decisions by layer-wise relevance propagation. Plos One 10(7):e0130140, doi:10.1371/journal.pone.0130140
Caruana R, Lou Y, Gehrke J, Koch P, Sturm M, Elhadad N (2015) Intelligible Models for Healthcare: Predicting Pneumonia Risk and Hospital 30-Day Readmission. In: 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD ’15), Sydney, 2015. ACM, doi:10.1145/2783258.2788613, pp 1721–1730
Girardi D, Küng J, Holzinger A (2015) A Domain-Expert Centered Process Model for Knowledge Discovery in Medical Research: Putting the Expert-in-the-Loop. In: Guo Y, Friston K, Aldo F, Hill S, Peng H (eds) Brain Informatics and Health, Lecture Notes in Computer Science LNCS 9250. Springer, Cham Heidelberg Berlin London Dordrecht New York, pp 389–398
Holzinger K, Mak K, Kieseberg P, Holzinger A (2018) Can we trust Machine Learning Results? Artificial Intelligence in safety-critical Decision Support. ERCIM News 112(1):42–43
Holzinger A, Plass M, Holzinger K, Crisan GC, Pintea CM, Palade V (2017) A Glass-Box Interactive Machine Learning Approach for Solving NP-hard Problems With The Human-in-the-Loop. arXiv:1708.01104
Lake BM, Ullman TD, Tenenbaum JB, Gershman SJ (2017) Building machines that learn and think like people. Behav Brain Sci 40(e253), doi:10.1017/S0140525X16001837
Lakkaraju H, Kamar E, Caruana R, Leskovec J (2017) Interpretable and Explorable Approximations of Black Box Models. arXiv:1707.01154
Letham B, Rudin C, McCormick TH, Madigan D (2015) Interpretable classifiers using rules and Bayesian analysis: Building a better stroke prediction model. Ann Appl Stat 9(3):1350–1371
Mikolov T, Sutskever I, Chen K, Corrado GS, Dean J (2013) Distributed Representations of Words and Phrases and Their Compositionality. In: Burges CJC, Buttou L, Welling M, Ghahramani Z, Weinberger KQ (eds) Advances in Neural Information Processing Systems 26 (NIPS 2013). pp 3111–3119
Peters J, Janzing D, Schölkopf B (2017) Elements of Causal Inference: Foundations and Learning Algorithms. MIT Press, Cambridge (MA)
Puppe F (1993) Einführung in Expertensysteme. Springer, Heidelberg
Ribeiro MT, Singh S, Guestrin C (2016) Why Should I Trust You? Explaining the Predictions of Any Classifier. In: 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp 1135–1144
Schewe S, Quak T, Reinhardt B, Puppe F (1996) Evaluation of a Knowledge-Based Tutorial Program in Rheumatology – A Part of a Mandatory Course in Internal Medicine. In: Frasson C, Gauthier G, Lesgold A (eds) International Conference on Intelligent Tutoring Systems (ITS 1996), LNCS 1986. Springer, Heidelberg, pp 531–539
Sturm W, Schaefer T, Schreck T, Holzinger A, Ullrich T (2015) Extending the Scaffold Hunter Visualization Toolkit with Interactive Heatmaps. In: Borgo R, Turkay C (eds) EG UK Computer Graphics & Visual Computing CGVC 2015, University College London (UCL), Euro Graphics (EG), pp 77–84
Wick C (2017) Deep Learning. Informatik-Spektrum 40(1):103–107
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
Open Access This article is distributed under the terms of the Creative Commons Attribution 4.0 International License (https://creativecommons.org/licenses/by/4.0), which permits use, duplication, adaptation, distribution, and reproduction in any medium or format, as long as you give appropriate credit to the original author(s) and the source, provide a link to the Creative Commons license, and indicate if changes were made.
About this article
Cite this article
Holzinger, A. Explainable AI (ex-AI). Informatik Spektrum 41, 138–143 (2018). https://doi.org/10.1007/s00287-018-1102-5
Published:
Issue Date:
DOI: https://doi.org/10.1007/s00287-018-1102-5