Wie fair ist Künstliche Intelligenz in der Bildung?
„Sie werden die Klausur mit einer Wahrscheinlichkeit von 80 Prozent nicht bestehen“. So könnte die von Künstlicher Intelligenz (KI) erzeugte Ankündigung lauten, wenn eine Bachelorstudentin in der Lehrveranstaltung „Grundlagen der Kostenrechnung und des Controlling“ kaum Übungen gemacht oder selten Lehrmaterialien bearbeitet hat. Wie fair diese Erfolgsprognose wäre, hat Prof. Dr. Katharina Simbeck genauer betrachtet. Gemeinsam mit Wissenschaftler*innen der Heinrich-Heine-Universität Düsseldorf entwickelte die Wirtschaftsinformatikerin einen Leitfaden für KI im Bildungssektor. „Wir leisten damit einen Beitrag zu den aktuellen Debatten über die Auditierung und Regulierung von KI“, sagt sie.
Untersuchung am Beispiel von "Moodle"
Für ihre Untersuchung wählten Prof. Dr. Simbeck und ihre wissenschaftliche Mitarbeiterin Linda Fernsel das Lernmanagementsystem „Moodle“. Es ist in vielen Bildungseinrichtungen im Einsatz, auch an der HTW Berlin. Über „Moodle“ stellen Hochschullehrer*innen Tausende von Lehrmaterialien zur Verfügung, machen Studierende Hausaufgaben, Übungen und Lerntests, beteiligen sie sich an Diskussionen in Foren, werden Klausuren geschrieben.
Die digitale Auswertung ist verlockend
Die Fülle dieser digitalen Daten mit KI auszuwerten, ist verlockend. Prof. Dr. Simbeck weiß, dass auch Hochschulen daran Interesse haben, möchten sie ihre Studierenden doch schnellstmöglich zu einem erfolgreichen Abschluss führen. Doch wer KI im Bildungssektor einsetzt, sollte deren Fairness sorgfältig prüfen, sagt die Wissenschaftlerin. Für diese Prüfung empfiehlt der Leitfaden sechs Schritte. Sie beginnen mit der technischen Abgrenzung der Systembestandteile und enden beim Monitoring. Auf der Pflichtenliste steht unter anderem, die Lernenden um Einverständnis zu bitten bzw. ihnen eine Ausstiegsoption zu eröffnen. Wichtig sei auch eine umfassende Aufklärung darüber, wie die KI überhaupt zu ihren Einschätzungen kommt. Durch regelmäßige Audits sollte sichergestellt werden, dass die Systeme technisch funktionieren und fair bleiben.
An Hochschulen stößt KI an Grenzen
So weit, so gut. Doch in Hochschulen stößt auch faire KI an Grenzen, gibt Prof. Dr. Simbeck zu bedenken. Weil nur das digital auswertbar ist, was digital erfasst wird, könnte die besagte Studentin, die selten auf Moodle unterwegs war, aber viele Bücher über Kostenrechnung und Controlling gewälzt hat, trotz schlechter Lernprognose am Ende des Semesters die beste Klausur schreiben. KI in Lernmanagementsystemen baue außerdem auf einem sehr engen Verständnis von Leistung und Lernen auf. Sie könne die bei Studierenden ohnedies schon bestehende Neigung verstärken, nur klausurrelevantes Wissen erwerben zu wollen. Dabei sei es doch der Anspruch von Hochschulen, den akademischen Nachwuchs ganzheitlich zu bilden. Diesen Anspruch möchte die engagierte Hochschullehrerin nun wirklich keinem Lernmanagementsystem opfern.