Marius Wehner und Lynn Schmodde von der Wirtschaftswissenschaftlichen Fakultät der Heinrich-Heine-Universität Düsseldorf berichten von ihrer Forschung zu Learning Analytics. Im Verbundprojekt LADi haben sie Diskriminierungspotenziale und Bias in den Algorithmen untersucht sowie die Wahrnehmung der Lernenden von Beurteilungen durch Learning Analytics. Interviewer in Folge 11 des DINItus Podcasts ist Erik Reidt vom ZIM/Multimediazentrum der HHU Düsseldorf.
This episode is all about bias. Our hosts Maren Scheffel and Nia Dowel talk to Shamya Karumbaiah and Rene Kizilcec about bias in learning analytics and some of the work they are doing in that area.
Certain words are like sparks in a puddle of gasoline. “Bias” is definitely one of those words—and for good reason. If there is something that we are doing, that we are unaware of, that is causing harm to others, then we definitely should be taking it seriously.
Durch digitale Lernplattformen können vermehrt Daten über Lernende, Lerninhalte und die Lernsituation ausgewertet werden. Die algorithmische Analyse nennt sich Learning Analytics. Diese Analyse ermöglicht einen individuellen Lernprozess sowie eine Früherkennung von Lernschwächen. Learning Analytics bergen allerdings auch einige Nachteile.
I am an AI researcher, and I’m worried about some of the societal impacts that we’re already seeing. In particular, these 5 things scare me about AI: 1. Algorithms are often implemented without ways to address mistakes. 2. AI makes it easier to not feel responsible. 3. AI encodes & magnifies bias. 4. Optimizing metrics above all else leads to negative outcomes. 5. There is no accountability for big tech companies.
C. Draude, G. Klumbyte, and P. Treusch. Proceedings of International Workshop on Bias in Information, Algorithms, and Systems co-located with 13th International Conference on Transforming Digital Worlds (iConference 2018), CEUR Workshop Proceedings, (2018)