Für vertrauenswürdige künstliche Intelligenz soll die EU künftig weltweit stehen. Aber ist es wünschenswert, immer mehr Entscheidungen Maschinen zu überlassen?
Gesichtserkennung versagt auffallend oft etwa bei schwarzen Frauen – und das kann bestehende Vorurteile festigen, kritisiert eine Computerwissenschaftlerin.
Der Bewerbungsroboter von Amazon hat Frauen diskriminiert. Wie konnte das passieren? Und wie können Algorithmen geeignete Kandidaten für einen Job erkennen?
Algorithmen funktionierten wie Schubladen, beschreibt die Politikwissenschaftlerin Lorena Jaume-Palasí den Grund, warum zum Beispiel Seifenspender nicht auf dunkle Haut reagieren. Sie beruhten auf Standards, die rassistisch sein könnten. Die Technologie sei für Diskriminierung anfällig.
In KI-Modellen könnten immer mehr Trainingsdaten verarbeitet werden, was die Monopolbildung unterstütze, warnt die New Yorker Praktikerin Sophie Searcy.
Sie personalisieren Inhalte, berechnen Routen und Preise: Algorithmen sind Teil des Alltags. Sie stecken etwa in Software, sind schwer greifbar und werden in immer mehr Bereichen eingesetzt.
Algorithmen können Vorurteile bestätigen und Menschen diskriminieren, sagt Matthias Spielkamp, der Gründer und Geschäftsführer von AlgorithmWatch. "Die Schuld dafür der Technik zu geben, wäre aber grundfalsch". Menschen entwickelten diese Systeme und müssten auch dafür sorgen, dass sie gerecht funktionieren. Deshalb seien Aufsichtsinstitutionen nötig, "die sicherstellen, dass Algorithmen unseren gesellschaftlichen Zusammenhalt nicht gefährden, sondern ihn befördern". Die Entwicklung von Algorithmen einfach nur transparenter zu machen, reiche dabei nicht aus. "Wenn man weiß, wie ein diskriminierendes System funktioniert, hat man noch nichts gewonnen", meint Matthias Spielkamp. Die Diskriminierung müsse dann auch beendet werden.
Beim AMS soll künftig ein Computerprogramm Mitarbeiter bei Entscheidungen unterstützen. Die futurezone sprach mit AMS-Chef Johannes Kopf über den geplanten Algorithmus.
Nicht nur Menschen, auch Algorithmen können diskriminieren. Die Schuld dafür trägt der Mensch. Entwickler und Anwender müssen sich jetzt der Verantwortung stellen. Zeit für eine Wertedebatte.
Find out more at: https://18.re-publica.com/node/21630 Algorithmen bestimmen, was wir tun. Wir bestimmen, was Algorithmen tun. Diese untrennbare Verflechtung...
Find out more at: https://18.re-publica.com/node/24491 Der Algorithmus ist ein ständiger Gefährte in unserem Leben, erscheint jedoch nach wie vor als eine Bl...
Die Arbeitswelt digitalisiert sich immer stärker, das zeigt sich auch an den Programmen, die auf den Markt kommen. Sie sollen Firmen die Personalplanung erleichtern - doch es gibt viele Unwägbarkeiten.
Bald wird künstliche Intelligenz allgegenwärtig sein. Aber wer sorgt dafür, dass sie sicher und vertrauenswürdig ist? Ein historischer Fehler droht sich zu wiederholen.
V. Guijarro Santos. Wenn KI, dann feministisch: Impulse aus Wissenschaft und Aktivismus, netzforma* e.V. — Verein für feministische Netzpolitik, Berlin, (January 2021)
F. Folkerts, V. Schreck, S. Riazy, and K. Simbeck. 2019 IEEE International Conference on Humanized Computing and Communication (HCC), page 1-6. New York, IEEE, (September 2019)