In der aktuellen Folge des Denkangebot Podcast geht es um das Thema „Diskriminierung durch Technik“. Im Rahmen der Recherche habe ich mit Prof. Dr. Katharina Zweig gesprochen. Sie lehrt an der TU Kaiserslautern, leitet dort das Algorithmic Accountability Lab, und ist eine der führenden Expertinnen in Deutschland, wenn es um die Bewertung der Risiken und Chancen des Einsatzes von künstlicher Intelligenz geht. Das komplette Interview gibt´s als kleines Extra in ganzer Länge für Euch.
Knapp 90 Staaten verhandeln hinter verschlossenen Türen in Genf über einen Vertrag, der digitale Handelsschranken abbauen soll. Dabei drängte die EU auf eine Regel, die IT-Sicherheit gefährden und Algorithmen-Transparenz verhindern könnte, fürchten Abgeordnete.
Die EU-Kommission hat erstmals ein Gesetz zur Regulierung von automatisierten Entscheidungssystemen vorgelegt. "Massenüberwachung" durch KI soll damit verboten werden, biometrische Echtzeit-Überwachung soll in einigen Fällen aber erlaubt bleiben.
Künstliche Intelligenz und maschinelles Lernen bestimmen unser Leben immer mehr. Entwickler sollten sich nicht auf ihren Code zurückziehen, sagen zwei Experten.
Computer können heute Krankheiten diagnostizieren, Verbraucher am Servicetelefon beraten oder ganze Fabriken kontrollieren. Das funktioniert durch den Einsatz von Künstlicher Intelligenz. KI wird die Arbeitswelt stark verändern. // Von Katja Scherer /
Auch künstliche Intelligenz trifft diskriminierende Entscheidungen. Eine Strategie, um dagegen vorzugehen, will die EU-Kommission nächste Woche vorstellen.
Das parlamentarische Büro für Technikfolgen-Abschätzung warnt angesichts künstlich intelligenter Personalauswahl vor ethischen Risiken und Rechtslücken.
Kaum zu glauben. Auch im Jahr 2019 kommt es immer wieder vor, dass in Veranstaltungen zu Digitalisierungsthemen keine einzige Frau unter den Sprecher:innen ist.
Erstmals ist in den USA ein Fall bekannt geworden, in dem eine Fehlidentifikation per Gesichtserkennung einen Afroamerikaner in Polizeigewahrsam brachte.
Ist Software bald so schwierig zu verstehen, wie ihre Schöpfer? In der Science widmet sich jetzt ein Artikel dem Vorwurf, KI funktioniere wie mittelalterliche Alchemie: Man wisse eigentlich nicht, was man tue, sondern drehe hier und da an ein paar Schrauben, bis ein Algorithmus das gewünschte Ergebnis erziele.
„Algorithmen haben kein Taktgefühl“, sagt eine der führenden Expertinnen beim Thema künstliche Intelligenz. Sie rät zur Vorsicht beim Einsatz von KI in sensiblen Bereichen.
Gesichtserkennung versagt auffallend oft etwa bei schwarzen Frauen – und das kann bestehende Vorurteile festigen, kritisiert eine Computerwissenschaftlerin.
Die kurzfristigen Auswirkungen des technologischen Wandels werden häufig überschätzt, die langfristigen unterschätzt. Digitalisierung muss gemeinsam mit den ArbeitnehmerInnen gestaltet werden und darf sich nicht allein auf die Technik beschränken.
Der Bewerbungsroboter von Amazon hat Frauen diskriminiert. Wie konnte das passieren? Und wie können Algorithmen geeignete Kandidaten für einen Job erkennen?
Da soll nochmal einer sagen, die Maschine ließe nicht mit sich reden… ;-) So schnell wird man zu Steve Zuckerberg… Oder wie war das noch mit der Unverfälschbarkeit?
Algorithmen funktionierten wie Schubladen, beschreibt die Politikwissenschaftlerin Lorena Jaume-Palasí den Grund, warum zum Beispiel Seifenspender nicht auf dunkle Haut reagieren. Sie beruhten auf Standards, die rassistisch sein könnten. Die Technologie sei für Diskriminierung anfällig.
Künstliche Intelligenz soll den Menschen dienen und Grundrechte respektieren. Das fordert eine Expertengruppe der EU-Kommission in ihren nun veröffentlichten Leitlinien für die Technologie. Unverrückbare ethische Prinzipien finden sich darin jedoch nicht mehr – Vertreterinnen der Industrie im Gremium haben sie erfolgreich gestrichen.
Der digitale Kapitalismus hat einen neuen Gesellschaftsvertrag etabliert: Daten gegen Bequemlichkeit. KI spielt für dessen Zukunft eine zentrale Rolle.
Sarah Spiekermann, Professorin für Wirtschaftsinformatik in Wien, will nicht den Maschinen die Moral beibringen, sondern Ingenieur*innen und Unternehmen. Wir sprachen mit ihr darüber, wie man ethische Standards für Algorithmen festlegt und warum diejenigen, die Maschinen und Programme entwickeln, sich so selten verantwortlich fühlen.
Deutschland liegt im Rennen um künstliche Intelligenz hinter anderen Nationen zurück. Investitionen von EU und Bundesregierung sind deshalb eine gute Idee. Deutschland sollte dabei aber nicht auf ethische Standards verzichten. So könnte künstliche Intelligenz "Made in Germany" einen unerwarteten Wettbewerbsvorteil erlangen.
Algorithmen können Vorurteile bestätigen und Menschen diskriminieren, sagt Matthias Spielkamp, der Gründer und Geschäftsführer von AlgorithmWatch. "Die Schuld dafür der Technik zu geben, wäre aber grundfalsch". Menschen entwickelten diese Systeme und müssten auch dafür sorgen, dass sie gerecht funktionieren. Deshalb seien Aufsichtsinstitutionen nötig, "die sicherstellen, dass Algorithmen unseren gesellschaftlichen Zusammenhalt nicht gefährden, sondern ihn befördern". Die Entwicklung von Algorithmen einfach nur transparenter zu machen, reiche dabei nicht aus. "Wenn man weiß, wie ein diskriminierendes System funktioniert, hat man noch nichts gewonnen", meint Matthias Spielkamp. Die Diskriminierung müsse dann auch beendet werden.
Beim AMS soll künftig ein Computerprogramm Mitarbeiter bei Entscheidungen unterstützen. Die futurezone sprach mit AMS-Chef Johannes Kopf über den geplanten Algorithmus.
In Österreich teilt ab nächstem Jahr ein Algorithmus alle Jobsucher in Kategorien. Wer schlecht abschneidet, dem werden Zukunftschancen verbaut. Die Behörden bejubeln das als Effizienzsteigerung mit modernsten technischen Mitteln. Experten warnen hingegen vor automatisierter Diskriminierung.
Find out more at: https://18.re-publica.com/node/21630 Algorithmen bestimmen, was wir tun. Wir bestimmen, was Algorithmen tun. Diese untrennbare Verflechtung...
Find out more at: https://18.re-publica.com/node/25033 [Partnersession] Björn Böhning: http://mediaconventionberlin.com/de/2016/speaker | https://twitter.com...
Die re:publica 2018 hat Antworten auf die Frage gesucht, wie Führung aussehen sollte, wenn Daten und Digitalisierung die Arbeitswelt bestimmen. Allerdings eher auf unauffälligen Nebenbühnen. Ein we
Die KI-Technik sei so weit entwickelt, dass sie eine ernste Bedrohung darstellt, sollten Schurkenstaaten, Kriminelle oder Terroristen sie einsetzen, meinen Experten. Sie äußern sich in einer Studie zu möglichen Gegenmaßnahmen und Kontrolle.
Wir werden überwacht, das ist klar. Aber: Was passiert eigentlich mit all den Informationen über uns, nachdem sie eingesammelt wurden? Wer überwacht uns – und wie? Eine Suche.
Algorithmen sind längst überall. Sie beeinflussen unsere Medienwahrnehmung, kennen unsere Vorlieben und empfehlen uns Nachrichten, Bücher oder Videos. Sie informieren uns über Wichtiges und Banales. Sie lenken unsere Aufmerksamkeit, unser Kaufverhalten und sogar unsere Autos.
Bald wird künstliche Intelligenz allgegenwärtig sein. Aber wer sorgt dafür, dass sie sicher und vertrauenswürdig ist? Ein historischer Fehler droht sich zu wiederholen.
Wenn Computer lernen, den Sinn menschlicher Sprache zu verstehen, bringt das Risiken mit sich. Erste Anwendungen zeigen, wie massiv der Eingriff in unser Leben sein kann – und die betroffenen Forscher beginnen, über die Ethik ihrer Disziplin nachzudenken.