Von Suchalgorithmen über Entscheidungsbäume bis hin zu wissensbasier-ten Systemen: In den letzten sechs Dekaden hätten Künstliche Intelligenz (KI)-Expert/innen eine Vielzahl an KI-Algorithmen entwickelt. Diese regelba-sierte KI sei erklärbar. Der Entscheidungsweg eines klassischen KI-Algorithmus sei transparent. Wir könnten nachvollziehen, warum sich z.B. ein Entscheidungsbaum für eine bestimmte medizinische Diagnose aus-spreche. Deshalb bezeichne man klassische KI-Algorithmen als White-Box-Verfahren. Die neuronalen Netze stellten eine der mächtigsten Algorithmen-familien der KI dar. Sie würden hingegen komplexe Zusammenhänge aus Trainingsdaten lernen, die für den Menschen nicht ohne weiteres nachvoll-ziehbar seien. Deswegen entspreche ihr Verhalten einer sogenannten Black-Box. In dieser Publikation werden Anwendungsfälle aus der Praxis vorgestellt und Entscheidungsprozesse von neuronalen Netzen nachvoll-ziehbar gemacht.
%0 Journal Article
%1 noauthororeditor
%D Oktober 2019
%E Bitkom,
%K Arbeit_der_Zukunft Digitalisierung
%T Blick in die Blackbox: Nachvollziehbarkeit von KI-Algorithmen in der Praxis
%U https://www.bitkom.org/sites/default/files/2019-10/20191016_blick-in-die-blackbox.pdf
%X Von Suchalgorithmen über Entscheidungsbäume bis hin zu wissensbasier-ten Systemen: In den letzten sechs Dekaden hätten Künstliche Intelligenz (KI)-Expert/innen eine Vielzahl an KI-Algorithmen entwickelt. Diese regelba-sierte KI sei erklärbar. Der Entscheidungsweg eines klassischen KI-Algorithmus sei transparent. Wir könnten nachvollziehen, warum sich z.B. ein Entscheidungsbaum für eine bestimmte medizinische Diagnose aus-spreche. Deshalb bezeichne man klassische KI-Algorithmen als White-Box-Verfahren. Die neuronalen Netze stellten eine der mächtigsten Algorithmen-familien der KI dar. Sie würden hingegen komplexe Zusammenhänge aus Trainingsdaten lernen, die für den Menschen nicht ohne weiteres nachvoll-ziehbar seien. Deswegen entspreche ihr Verhalten einer sogenannten Black-Box. In dieser Publikation werden Anwendungsfälle aus der Praxis vorgestellt und Entscheidungsprozesse von neuronalen Netzen nachvoll-ziehbar gemacht.
@article{noauthororeditor,
abstract = {Von Suchalgorithmen über Entscheidungsbäume bis hin zu wissensbasier-ten Systemen: In den letzten sechs Dekaden hätten Künstliche Intelligenz (KI)-Expert/innen eine Vielzahl an KI-Algorithmen entwickelt. Diese regelba-sierte KI sei erklärbar. Der Entscheidungsweg eines klassischen KI-Algorithmus sei transparent. Wir könnten nachvollziehen, warum sich z.B. ein Entscheidungsbaum für eine bestimmte medizinische Diagnose aus-spreche. Deshalb bezeichne man klassische KI-Algorithmen als White-Box-Verfahren. Die neuronalen Netze stellten eine der mächtigsten Algorithmen-familien der KI dar. Sie würden hingegen komplexe Zusammenhänge aus Trainingsdaten lernen, die für den Menschen nicht ohne weiteres nachvoll-ziehbar seien. Deswegen entspreche ihr Verhalten einer sogenannten Black-Box. In dieser Publikation werden Anwendungsfälle aus der Praxis vorgestellt und Entscheidungsprozesse von neuronalen Netzen nachvoll-ziehbar gemacht. },
added-at = {2020-04-24T10:17:24.000+0200},
biburl = {https://www.bibsonomy.org/bibtex/2c684a37479119affdae08ed4cd9b216d/zukunftarbeit},
editor = {Bitkom},
interhash = {005ed52727cf98a0d95c6f5429b1f42e},
intrahash = {c684a37479119affdae08ed4cd9b216d},
keywords = {Arbeit_der_Zukunft Digitalisierung},
timestamp = {2020-07-04T15:41:35.000+0200},
title = {Blick in die Blackbox: Nachvollziehbarkeit von KI-Algorithmen in der Praxis},
url = {https://www.bitkom.org/sites/default/files/2019-10/20191016_blick-in-die-blackbox.pdf},
year = {Oktober 2019}
}