Lehren und Lernen
Daten und Kakerlaken: ChatGPT und Datenschutz
17. Juli 2023, von Nadia Blüthmann

Foto: DeppGPT, ebenfalls auf dem Sprachmodell ChatGPT von OpenAI basierend, generiert beunruhigende Antworten auf die Frage von Datenschutz und ChatGPT.
Fragt man ChatGPT danach, wie sein Entwickler OpenAI mit meinen persönlichen Daten umgeht, erzeugt die KI nur eine sehr vage Antwort: „Als KI-Modell habe ich keinen Zugriff auf Informationen darüber, was OpenAI mit den Daten der Benutzer macht. Meine Entwickler bei OpenAI haben jedoch eine strenge Datenschutzrichtlinie, um die Privatsphäre der Benutzer zu schützen.“ Die Unterhaltung mit ChatGPT habe ich mit meinem privaten Nutzeraccount geführt, für den ich Open AI meinen Namen, E-Mail-Adresse, Geburtsdatum und Telefonnummer mitteilen musste. Wofür das Unternehmen diese Daten sowie die während der Chat-Konversationen eingegebenen Texte verwendet, bleibt auch in seinen angeblich strengen Datenschutzbestimmungen recht unbestimmt: offenbar hauptsächlich zum Betrieb und der Verbesserung des Dienstes sowie für die Entwicklung neuer Anwendungen.
All dies klingt nicht danach, als ob es für Lehrende eine gute Idee wäre, ChatGPT (bzw. andere generative KI mit ähnlichen Datenschutzproblematiken) im Rahmen ihrer Veranstaltungen einzusetzen und das System dadurch mit ihren Daten zu füttern, geschweige denn sich Szenarien auszudenken, in denen man Studierende selbst dazu anhält, sich einen Account anzulegen und mit der KI zu arbeiten. Zu Lern- und Forschungszwecken bräuchte es Zugangsaccounts, die von der Universität zur Verfügung gestellt werden (wie es beispielsweise schon in einigen Schulen geschieht) und idealerweise auch eine technische Infrastruktur (z. B. mit Computern ausgestattete Seminarräume oder bestellbare Tablet-Sätze), damit ein datenschutzrechtlich unbedenkliches Arbeiten mit den KI-Tools möglich ist. Bis diese Voraussetzungen erfüllt sind, dauert es wohl noch eine Weile und es stellt sich die Frage: Was machen wir in der Zwischenzeit?
Für uns am HUL stellt sich diese Frage umso drängender, weil mit dem Aufkommen von ChatGPT auch sofort der Ruf nach didaktischen Einsatzmöglichkeiten laut wurde. Die Argumentation hierfür ist sehr nachvollziehbar: Die KI ist nun einmal in der Welt und wird genutzt, die Folgen für die Hochschulbildung und das Wissenschaftssystem sind noch unabsehbar – da können wir nicht die Hände in den Schoß legen und das Tool ignorieren, bis es eine datenschutzkonforme Lösung gibt. Es geht für Lehrende genau jetzt darum, die Funktionsweise, Möglichkeiten und Herausforderungen von ChatGPT und Co. gemeinsam mit Studierenden auszuloten und darüber mit ihnen ins Gespräch zu kommen. Von der Hochschuldidaktik sind daher sowohl grundsätzliche Einschätzungen und Reflexionen (siehe z. B. den Beitrag von Gabi Reinmann in diesem Newsletter) als auch konkrete Hilfestellungen und Einsatz-Ideen gefragt. Aber können wir wirklich etwas empfehlen, das nicht datenschutzkonform ist, wo wir bei allen anderen Tool-Handreichungen in unseren Selbstlernmaterialien streng darauf achten, nur von der Universität offiziell empfohlene Werkzeuge aufzunehmen?
In diesem Spannungsfeld zwischen Datenschutzbedenken auf der einen und Gestaltungswillen auf der anderen Seite agieren wir seit Ende letzten Jahres. Ein Minimalkonsens besteht darin, dass wir Lehrenden weder empfehlen würden, von ihren Studierenden das Anlegen eines OpenAI-Accounts zu fordern bzw. dies durch ein didaktisches Setting vorauszusetzen, noch Texte oder gar Daten ihrer Studierenden in das System einzugeben. Unsere Vorschläge gehen jeweils davon aus, dass die Lehrenden einen eigenen Account nutzen, um ChatGPT innerhalb ihrer Lehrveranstaltungen auszuprobieren. Entstanden ist auf diese Weise ein Grundlagentext mit didaktischen Einsatzmöglichkeiten sowie zwei Fallvignetten zu ChatGPT, die jeweils konkrete Herausforderungen in der Lehre schildern und dazu anregen, Handlungsoptionen kennenzulernen und zu reflektieren. Im Rahmen des am HUL angesiedelten Projekts DUTy im DDLitLab, bei dem es um die Förderung digitaler Lehrkompetenz geht, planen wir zusammen mit dem Gesamtprojekt die Veranstaltung „KI Hands-on“, in deren Rahmen wir Lehrende aus allen Fakultäten einladen, die generative KI bereits erproben und von ihren Erfahrungen berichten (siehe Veranstaltungsankündigung in diesem Newsletter). Und all dies immer im Bewusstsein der Datenschutzproblematik – es ist ein Aushalten der Widersprüche, ein ständiges Abwägen, ein Handeln im „Dazwischen“.