Chat­bots als Ga­me­chan­ger der Hoch­schul­leh­re

Ein Gespräch mit ChatGPT und Hochschullehrenden

Seit November kann jede*r mit dem Chatbot ChatGPT Gespräche führen. Die künstliche Intelligenz (KI) des Unternehmens Open AI greift auf digitale Datenbanken zurück und beantwortet die Fragen ihrer Nutzer*innen in vollständigen Sätzen. Die Software ist damit in der Lage, ganze Aufsätze zu verfassen und stellt Lehrkräfte vor neue Herausforderungen. Wie KI-basierte Chatbots die Hochschullehre verändern werden, beantworten im Interview der ChatGPT selbst sowie Wirtschaftsinformatiker Prof. Dr. Oliver Müller (Data Analytics), Jun.-Prof. Dr. Milad Mirbabaie (Digital Society) und Wirtschaftspädagoge Prof. Dr. Tobias Jenert (Hochschuldidaktik und -entwicklung) der Universität Paderborn. 

Wie wird ChatGPT die Lehre an Hochschulen verändern?

ChatGPT: ChatGPT und andere Sprachgenerierungs-KI-Systeme haben das Potenzial, die Lehre an Hochschulen zu unterstützen und zu verbessern, indem sie Lehrenden helfen, Zeit und Ressourcen zu sparen, indem sie automatisch Antworten auf häufig gestellte Fragen bereitstellen, Feedback zu Aufgaben und Prüfungen geben und sogar interaktive Tutorials erstellen. Es kann auch dazu beitragen, den Zugang zu Bildung für Menschen in entlegenen Gebieten oder mit Behinderungen zu erleichtern, indem es personalisiertes Lernen und Remote-Zugang zu Lernmaterialien ermöglicht. Allerdings gibt es auch Bedenken, dass es die Interaktion zwischen Lehrenden und Schülern beeinträchtigen könnte und es wichtig ist, sicherzustellen, dass die Verwendung von KI in der Lehre ethisch und verantwortungsvoll erfolgt.

Oliver Müller: Ähnlich wie vorherige digitale Werkzeuge wie z.B. Google oder Wikipedia werden KI-basierte Sprachmodelle sicherlich die Produktivität von Lehrenden und Lernenden erhöhen. Ein großes Fragezeichen steht aktuell jedoch noch hinter dem Wahrheitsgehalt der von ChatGPT generierten Texte. Häufig klingen sie oberflächlich plausibel, sind manchmal aber faktisch nicht korrekt. Das stellt eine Gefahr sowohl für Lehrende als auch Studierende und Schüler*innen dar.

Tobias Jenert: KI-Anwendungen können die Vermittlung von Standardinhalten sicher gut unterstützen. Dabei sehe ich aber zwei wichtige Einschränkungen: Erstens ist das Vertrauen der Studierenden in die Lehrenden ein wichtiger Faktor. In einer Studie wollten Studierende Noten und Textfeedback lieber von Menschen als von einem KI-basierten Tool erhalten, obwohl sie wussten, dass die Software genauer und letztlich auch fairer beurteilte als Menschen. Zweitens ist es wichtig, dass wir in der Lehre nicht nur Mainstream-Wissen verbreiten, sondern gerade auch Kontroversen und Widersprüche thematisieren, die ja typisch für die Forschung sind. Zugegeben: Dem müssen wir auch in der ‚traditionellen‘ Lehre einen höheren Stellenwert einräumen.

Milad Mirbabaie: In der Tat läutet ChatGPT unter anderem im Bildungssektor eine neue Ära ein. Chatbots sehe ich künftig auch als Kollaborationspartner, Moderator oder als Möglichkeit, Vertrauen in Teams zu steigern. Wenn Texte künftiger Versionen sich jedoch nicht mehr von Menschen produzierten Texten unterscheiden, stellt sich die Frage, welche Umstrukturierungsmaßnahmen im Bildungssektor notwendig sind, sodass Schüler*innen und Studierende keine „einfachen“ Texte und Essays mehr produzieren müssen.

Was passiert, wenn Studierende ChatGPT für ihre Hausarbeiten nutzen?

ChatGPT: Es ist möglich, dass Studierende ChatGPT oder andere KI-Sprachgenerierungssysteme verwenden, um ihre Hausarbeiten zu erstellen. Dies kann ihnen helfen, schneller und einfacher Inhalte zu generieren, aber es kann auch dazu führen, dass sie weniger Zeit damit verbringen, ihr Verständnis des Themas zu vertiefen, und dass sie weniger eigenen Gedanken und Ideen in ihre Arbeiten einbringen. Es ist jedoch wichtig zu beachten, dass die Verwendung von KI-generierten Inhalten für Hausarbeiten oder andere akademische Arbeiten in der Regel gegen die Regeln der meisten Hochschulen verstößt und als Plagiat betrachtet wird. Es kann auch dazu führen, dass die Arbeit nicht angemessen bewertet wird oder sogar zu einer Disziplinarstrafe führen. Es ist wichtig, dass Studierende ihre Hochschulrichtlinien sorgfältig lesen und verstehen und dass sie ihre Arbeiten immer auf eine ethische und verantwortungsvolle Weise erstellen.

Tobias Jenert: Das beschriebene Problem haben wir nicht erst seit gestern: Es gibt schon länger Möglichkeiten, schwer zu entdeckende Plagiate zu erstellen. Schon vor Jahren gab es automatisch erstellte Forschungspaper, die es durch den Peer-Review geschafft haben. Letztlich können wir das Problem nur dann grundlegend lösen, wenn wir die Prüfungsformen so anspruchsvoll machen, dass Betrug schwieriger wird. Ganz vermeiden wird man aber bewussten Betrug nie können.

Wie sehen Prüfungsformen für Studierende aus, die eine KI nicht lösen kann?

ChatGPT: Prüfungsformen für Studierende, die eine KI nicht lösen kann, sind mündliche Prüfungen, praktische Prüfungen, Projektarbeiten, Essays und Fallstudien. Diese Prüfungsformen erfordern ein Verständnis des Themas, sowie kreatives und kritisches Denken, Kommunikationsfähigkeiten und praktische Anwendung, die von einer KI nicht nachgebildet werden können.

Oliver Müller: Das ist eine gute Auflistung. Und genau das machen wir ja auch schon im Masterstudium. In der Wirtschaftsinformatik haben wir kaum schriftliche Prüfungen, die nicht noch durch mündliche Präsentationen oder die Bewertung von konkreten Projektergebnissen, z.B. entwickelte Programme, begleitet werden.

Tobias Jenert: Neben den Prüfungsformen sind aber auch die geforderten Kompetenzen entscheidend: Wenn KI-Applikationen künftig die Standardsituationen mehr oder weniger eigenständig bearbeiten, brauchen Studierende andere Skills: Kreativität, um wirklich neue Lösungen für komplexe Probleme zu entwickeln; Empathie, um die Interessen verschiedener Anspruchsgruppen zu erkennen und zu wirklichen Kompromissen zu kommen oder Logik und Argumentation, um alternative Lösungswege entwickeln und gegeneinander abwägen zu können. Die Diskussion an Hochschulen geht zudem über den Einsatz von KI hinaus und umfasst auch Themen wie elektronische Prüfungen oder Rechtssicherheit. Dabei bewegen wir uns immer im Spannungsfeld von Anspruch, Fairness, Rechtssicherheit und natürlich Ressourcen.

Milad Mirbabaie: Zusätzlich sollten wir es schaffen, dass solche Technologien als Entscheidungsunterstützung bzw. Orientierungshilfe verstanden werden. Als Google und Wikipedia sich durchgesetzt haben, waren wir ebenfalls kritisch. Jedoch haben wir gelernt, solche Nachschlagewerke und Suchmaschinen als Ergänzung zu betrachten. Ähnlich würde ich es mit KI-basierten Systemen sehen, die im Grunde genommen nichts weiter machen, als – einfach gesprochen – Wikipedia und Google zu vereinen und als Text visualisiert widerzugeben. Daher wäre ich dafür, viel offener mit diesem Thema umzugehen.

Konnten Sie schon beobachten, dass Studierende ChatGPT eingesetzt haben?

Oliver Müller: Bislang kenne ich noch keinen Fall, in dem ChatGPT aktiv genutzt wurde. Aber auch an der Universität Paderborn verstößt die Nutzung von ChatGPT zur Generierung von Texten im Rahmen von Prüfungen gegen die Regeln. Das kommunizieren wir auch an die Studierenden. Aus meiner persönlichen Erfahrung kann ich sagen, dass das Verfassen von Texten mir beim Verständnis von komplexen Sachverhalten hilft und auch meinen eigenen kreativen Denkprozess enorm unterstützt. Ich denke, dass mir da jeder zustimmen kann, der schonmal eine Bachelor- oder Masterarbeit geschrieben hat. Wir sollten die Studierenden deshalb früh in diese Richtung sensibilisieren und Ihnen den Nutzen von wissenschaftlichem Schreiben näherbringen.

Milad Mirbabaie: Die Generationen Alpha und Beta wachsen im Grunde genommen mit KI-Systemen auf und die Benutzung solcher Systeme wird immer mehr zur Realität, ähnlich die der Nutzung von Social Media durch Generation Z und abwärts. Auch wenn wir jetzt noch keine Fälle beobachten konnten, werden wir es nicht verhindern können. Die Herausforderung besteht darin, dass wir den ethischen Umgang mit der KI in unserem Curriculum fest verankern.

Wie können Lehrende Texte erkennen, die mit KI-Sprachgenerierungssystemen erstellt wurden?

ChatGPT: Lehrende können Texte erkennen, die mit KI-Sprachgenerierungssystemen erstellt wurden, indem sie auf Anzeichen von syntaktischer Unregelmäßigkeit, inhaltlicher Unstimmigkeit oder fehlenden Kontextreferenzen achten. Auch das Fehlen von persönlichem Schreibstil oder ein einheitlicher Schreibstil über einen längeren Text hinweg kann ein Indikator für eine automatisierte Texterstellung sein. Es ist jedoch wichtig zu beachten, dass einige KI-Sprachgenerierungssysteme sehr fortschrittlich und in der Lage sind, menschenähnlichen Text zu erzeugen, weshalb eine Überprüfung auf mehrere Anzeichen erforderlich sein kann.

Oliver Müller: Einfache Plagiatsscanner versagen bei ChatGPT. ChatGPT plagiiert auch nur selten wörtlich, sondern generiert in der Regel eigene Texte. Wie ein Ghostwriter. Aber OpenAI, das Unternehmen hinter ChatGPT, hat für die Zukunft eine neue Version von ChatGPT angekündigt, die für Menschen unsichtbare „Wasserzeichen“ enthalten wird. Das sind statistische Muster in der Nutzung von Worten, die durch den Service generierte Texte entlarven werden. 

Milad Mirbabaie: Ich stelle mir die Frage, ob es wertvoll ist, so viel Energie in die Erkennung zu investieren. Sollten wir nicht eher Diskurse und kritisches Denken fördern und der Technologie viel offener und transparenter gegenüberstehen? Ich denke, dass wir viel mehr mit unseren Studierenden sprechen sollten und sie zu Diskussionen anregen sollten. Ich bin auch ein großer Fan von mündlichen Abschlussprüfungen. In Abschlussarbeiten könnten wir solche Plagiate eher vermeiden, indem wir uns häufiger mit den Studierenden zusammensetzen und über die inhaltlichen Erkenntnisse sprechen und diese gemeinsam reflektieren. ChatGPT könnte in künftigen Versionen hierbei sogar unterstützen und den aktuellen Stand der Forschung aufzeigen. So sparen wir uns die Zeit hunderte von Stunden zu recherchieren, sondern arbeiten viel zielorientierter.

Wie kann ein ethisch verantwortungsbewusster Umgang mit KI in der Lehre vermittelt werden?

Milad Mirbabaie: In meinen Lehrveranstaltungen behandele ich bereits die Themen Ethik und KI und welche Auswirkungen die künstliche Intelligenz auf unsere Gesellschaft hat. Das ist kein neues Thema. Joseph Weizenbaum hat sich bereits in den 60er Jahren des 20. Jahrhunderts damit beschäftigt, als ELIZA den Turing Test bestanden hat. Die KI war damals bereits in der Lage menschenähnliche Unterhaltungen zu führen. ChatGPT ist also alter Wein in neuen Schläuchen. Es ist nur für jeden zugänglich und die Datenlage ist eine andere. Durch die großen Trainingsdaten ist das System präziser und umfangreicher in der Beantwortung der Fragen. Ich werde den Studierenden weiterhin die Themen Erklärbarkeit und verantwortungsvolle KI nahebringen und zudem die Funktionsweise von ChatGPT erläutern.

Oliver Müller: Schon seit einigen Jahren gibt es bei uns in der Wirtschaftsinformatik keine Veranstaltung, in der wir nicht auf das Thema KI eingehen. Dabei beleuchten wir es von unterschiedlichen Seiten – technisch, wirtschaftlich, gesellschaftlich. Wir bringen unseren Studierenden bei, nicht nur passive KI Nutzer zu sein, sondern selber KI Werkzeuge zu bauen und die Technologie aktiv mitzugestalten.

Wenn KI bald bessere Texte schreibt und bessere Antworten gibt als Menschen, was sollen Studierende dann künftig lernen?

ChatGPT: Es ist wahrscheinlich, dass KI in der Zukunft in der Lage sein wird, in vielen Bereichen menschenähnliche Leistungen zu erbringen, einschließlich des Schreibens von Texten und der Beantwortung von Fragen. Dies wird jedoch nicht bedeuten, dass der Bedarf an menschlichem Wissen und Fähigkeiten verschwindet. Studierende sollten sich auf Fähigkeiten konzentrieren, die für KI schwierig oder unmöglich zu automatisieren sind, wie kritische Analyse, kreatives Denken und komplexe Problemlösung. Es ist auch wichtig, dass die Studierenden die Fähigkeit erwerben, mit KI-Systemen zu arbeiten und zu verstehen, wie sie funktionieren.

Oliver Müller: Die Aussage kann ich unterstützen. Wir müssen eine gute Arbeitsteilung zwischen Menschen und KI finden. Aber das ist ja nicht neu. Die Arbeitsteilung zwischen Mensch und Tier oder Mensch und Maschine wurde über die Menschheitsgeschichte immer wieder angepasst und neu definiert.  Genau das wird in den kommenden Jahren wieder passieren. Studierende brauchen auch keine Angst haben, dass KI sie ersetzen wird. Da müssen wir doch nur einen Blick auf den aktuellen Fachkräftemangel werfen. Ich bin davon überzeugt, dass, wenn uns KI in Zukunft einige Aufgaben abnehmen kann, wir alle davon profitieren können.

Milad Mirbabaie: Aktuell wirken solche Systeme noch als eine Art Blackbox. Das sollte sich künftig ändern. Schüler*innen und Studierende sollten zum Beispiel in der Lage sein, solche KI-basierten Systeme zu verändern, indem sie den Quellcode anpassen oder mit weiteren Trainingsdaten füttern. Die Arbeit von Studierenden sollte es außerdem sein, komplexe Sachverhalte zu verstehen. Basierend darauf ist es wichtig, sich analytisches Denkvermögen anzueignen und lösungs- und teamorientiert Probleme zu lösen. Eine Technologie wird dies nicht abschaffen. Wir, als Gesellschaft, bleiben eben auch nicht stehen und entwickeln uns weiter. Technologie katapultiert uns auf die nächste Ebene. Nur sollten wir uns über diese Ebene und über die Auswirkungen bewusstwerden und wie wir uns präventiv auch vor Gefahren schützen müssen.

Tobias Jenert: Letztlich geht es nicht um die Texte an sich, sondern um die Problem- und Aufgabenstellung, die dahinterstehen. Nehmen wir das Beispiel einer KI in der Warenwirtschaft: Die KI kann Standardaufgaben wie Bestandskontrolle, Bedarfsvorhersage oder Einkauf wunderbar übernehmen. Was macht dann künftig gute Einzelhändler*innen aus? Kreativität, um neue Kundengruppen zu erschließen und das Geschäftsmodell zu erweitern. Analytische Fähigkeiten, um zu erkennen, wann die KI etwas nicht voraussagen kann, weil es z.B. vorher noch keine Pandemie gab, welche das KI Tool hätte lernen können, oder wo etwas Unplausibles passiert. Diese Fähigkeiten müssen wir künftig noch stärker adressieren. Wir passen aber unsere Studienangebote kontinuierlich an, sodass ich uns hier auf einem guten Weg sehe.

Haben Sie bereits selbst KIs zur Vorbereitung oder Verbesserung Ihrer Lehre genutzt?

Milad Mirbabaie: Zur Vorbereitung und Verbesserung nicht, aber in der Lehre als Kernthema schon. Sei es, dass die Studierenden ein KI-basiertes System entwickeln sollten, um bspw. die Kommunikation mit Kunden zu verbessern oder die Anforderungen an KI-basierten Systemen in Krankenhäusern zu ermitteln, mittels Experteninterviews. Aktuell stellen wir aber auch einige Anträge für Drittmittelprojekte, um genau diesen Aspekt anzugehen, etwa die Entwicklung und den Einsatz eines KI-Systems zur Verbesserung der Lehre bzw. zur Unterstützung von Schüler*innen und Studierenden.

Tobias Jenert: Das Thema genießt schon seit einigen Jahren große Aufmerksamkeit, auch mit Bezug auf die Hochschullehre und die Ausbildung von Lehrer*innen. Unter anderem laufen dazu große Förderprogramme. An der Universität Paderborn gibt es eine Initiative, die ‚digital literacy‘ der Studierenden zu fördern. Für mich bewegen sich die Diskussionen teilweise zu sehr auf der technologischen Ebene. KI und auch andere digitale Technologien haben auch dort Auswirkungen, wo die Technologien gar nicht unmittelbar eingesetzt werden. Also auch wenn ich mal nicht bei einem Betrieb arbeiten möchte, der technologisch geprägt ist, muss ich mit den Phänomenen umgehen – und entsprechende Kompetenzen haben.

Foto (Universität Paderborn): Künstliche Intelligenzen wie der Chatbot ChatGPT bieten Chancen und Risiken für die Hochschullehre.

Kontakt