Ein Gespr?ch mit ChatGPT und Hochschullehrenden
Seit November kann jede*r mit dem Chatbot ChatGPT Gespr?che führen. Die künstliche Intelligenz (KI) des Unternehmens Open AI greift auf digitale Datenbanken zurück und beantwortet die Fragen ihrer Nutzer*innen in vollst?ndigen S?tzen. Die Software ist damit in der Lage, ganze Aufs?tze zu verfassen und stellt Lehrkr?fte vor neue Herausforderungen. Wie KI-basierte Chatbots die Hochschullehre ver?ndern werden, beantworten im Interview der ChatGPT selbst sowie Wirtschaftsinformatiker Prof. Dr. Oliver Müller (Data Analytics), Jun.-Prof. Dr. Milad Mirbabaie (Digital Society) und Wirtschaftsp?dagoge Prof. Dr. Tobias Jenert (Hochschuldidaktik und -entwicklung) der Universit?t Paderborn.
Wie wird ChatGPT die Lehre an Hochschulen ver?ndern?
ChatGPT: ChatGPT und andere Sprachgenerierungs-KI-Systeme haben das Potenzial, die Lehre an Hochschulen zu unterstützen und zu verbessern, indem sie Lehrenden helfen, Zeit und Ressourcen zu sparen, indem sie automatisch Antworten auf h?ufig gestellte Fragen bereitstellen, Feedback zu Aufgaben und Prüfungen geben und sogar interaktive Tutorials erstellen. Es kann auch dazu beitragen, den Zugang zu Bildung für Menschen in entlegenen Gebieten oder mit Behinderungen zu erleichtern, indem es personalisiertes Lernen und Remote-Zugang zu Lernmaterialien erm?glicht. Allerdings gibt es auch Bedenken, dass es die Interaktion zwischen Lehrenden und Schülern beeintr?chtigen k?nnte und es wichtig ist, sicherzustellen, dass die Verwendung von KI in der Lehre ethisch und verantwortungsvoll erfolgt.
Oliver Müller: ?hnlich wie vorherige digitale Werkzeuge wie z.B. Google oder Wikipedia werden KI-basierte Sprachmodelle sicherlich die Produktivit?t von Lehrenden und Lernenden erh?hen. Ein gro?es Fragezeichen steht aktuell jedoch noch hinter dem Wahrheitsgehalt der von ChatGPT generierten Texte. H?ufig klingen sie oberfl?chlich plausibel, sind manchmal aber faktisch nicht korrekt. Das stellt eine Gefahr sowohl für Lehrende als auch Studierende und Schüler*innen dar.
Tobias Jenert: KI-Anwendungen k?nnen die Vermittlung von Standardinhalten sicher gut unterstützen. Dabei sehe ich aber zwei wichtige Einschr?nkungen: Erstens ist das Vertrauen der Studierenden in die Lehrenden ein wichtiger Faktor. In einer Studie wollten Studierende Noten und Textfeedback lieber von Menschen als von einem KI-basierten Tool erhalten, obwohl sie wussten, dass die Software genauer und letztlich auch fairer beurteilte als Menschen. Zweitens ist es wichtig, dass wir in der Lehre nicht nur Mainstream-Wissen verbreiten, sondern gerade auch Kontroversen und Widersprüche thematisieren, die ja typisch für die Forschung sind. Zugegeben: Dem müssen wir auch in der ?traditionellen‘ Lehre einen h?heren Stellenwert einr?umen.
Milad Mirbabaie: In der Tat l?utet ChatGPT unter anderem im Bildungssektor eine neue ?ra ein. Chatbots sehe ich künftig auch als Kollaborationspartner, Moderator oder als M?glichkeit, Vertrauen in Teams zu steigern. Wenn Texte künftiger Versionen sich jedoch nicht mehr von Menschen produzierten Texten unterscheiden, stellt sich die Frage, welche Umstrukturierungsma?nahmen im Bildungssektor notwendig sind, sodass Schüler*innen und Studierende keine ?einfachen“ Texte und Essays mehr produzieren müssen.
Was passiert, wenn Studierende ChatGPT für ihre Hausarbeiten nutzen?
ChatGPT: Es ist m?glich, dass Studierende ChatGPT oder andere KI-Sprachgenerierungssysteme verwenden, um ihre Hausarbeiten zu erstellen. Dies kann ihnen helfen, schneller und einfacher Inhalte zu generieren, aber es kann auch dazu führen, dass sie weniger Zeit damit verbringen, ihr Verst?ndnis des Themas zu vertiefen, und dass sie weniger eigenen Gedanken und Ideen in ihre Arbeiten einbringen. Es ist jedoch wichtig zu beachten, dass die Verwendung von KI-generierten Inhalten für Hausarbeiten oder andere akademische Arbeiten in der Regel gegen die Regeln der meisten Hochschulen verst??t und als Plagiat betrachtet wird. Es kann auch dazu führen, dass die Arbeit nicht angemessen bewertet wird oder sogar zu einer Disziplinarstrafe führen. Es ist wichtig, dass Studierende ihre Hochschulrichtlinien sorgf?ltig lesen und verstehen und dass sie ihre Arbeiten immer auf eine ethische und verantwortungsvolle Weise erstellen.
Tobias Jenert: Das beschriebene Problem haben wir nicht erst seit gestern: Es gibt schon l?nger M?glichkeiten, schwer zu entdeckende Plagiate zu erstellen. Schon vor Jahren gab es automatisch erstellte Forschungspaper, die es durch den Peer-Review geschafft haben. Letztlich k?nnen wir das Problem nur dann grundlegend l?sen, wenn wir die Prüfungsformen so anspruchsvoll machen, dass Betrug schwieriger wird. Ganz vermeiden wird man aber bewussten Betrug nie k?nnen.
Wie sehen Prüfungsformen für Studierende aus, die eine KI nicht l?sen kann?
ChatGPT: Prüfungsformen für Studierende, die eine KI nicht l?sen kann, sind mündliche Prüfungen, praktische Prüfungen, Projektarbeiten, Essays und Fallstudien. Diese Prüfungsformen erfordern ein Verst?ndnis des Themas, sowie kreatives und kritisches Denken, Kommunikationsf?higkeiten und praktische Anwendung, die von einer KI nicht nachgebildet werden k?nnen.
Oliver Müller: Das ist eine gute Auflistung. Und genau das machen wir ja auch schon im Masterstudium. In der Wirtschaftsinformatik haben wir kaum schriftliche Prüfungen, die nicht noch durch mündliche Pr?sentationen oder die Bewertung von konkreten Projektergebnissen, z.B. entwickelte Programme, begleitet werden.
Tobias Jenert: Neben den Prüfungsformen sind aber auch die geforderten Kompetenzen entscheidend: Wenn KI-Applikationen künftig die Standardsituationen mehr oder weniger eigenst?ndig bearbeiten, brauchen Studierende andere Skills: Kreativit?t, um wirklich neue L?sungen für komplexe Probleme zu entwickeln; Empathie, um die Interessen verschiedener Anspruchsgruppen zu erkennen und zu wirklichen Kompromissen zu kommen oder Logik und Argumentation, um alternative L?sungswege entwickeln und gegeneinander abw?gen zu k?nnen. Die Diskussion an Hochschulen geht zudem über den Einsatz von KI hinaus und umfasst auch Themen wie elektronische Prüfungen oder Rechtssicherheit. Dabei bewegen wir uns immer im Spannungsfeld von Anspruch, Fairness, Rechtssicherheit und natürlich Ressourcen.
Milad Mirbabaie: Zus?tzlich sollten wir es schaffen, dass solche Technologien als Entscheidungsunterstützung bzw. Orientierungshilfe verstanden werden. Als Google und Wikipedia sich durchgesetzt haben, waren wir ebenfalls kritisch. Jedoch haben wir gelernt, solche Nachschlagewerke und Suchmaschinen als Erg?nzung zu betrachten. ?hnlich würde ich es mit KI-basierten Systemen sehen, die im Grunde genommen nichts weiter machen, als – einfach gesprochen – Wikipedia und Google zu vereinen und als Text visualisiert widerzugeben. Daher w?re ich dafür, viel offener mit diesem Thema umzugehen.
Konnten 360直播吧 schon beobachten, dass Studierende ChatGPT eingesetzt haben?
Oliver Müller: Bislang kenne ich noch keinen Fall, in dem ChatGPT aktiv genutzt wurde. Aber auch an der Universit?t Paderborn verst??t die Nutzung von ChatGPT zur Generierung von Texten im Rahmen von Prüfungen gegen die Regeln. Das kommunizieren wir auch an die Studierenden. Aus meiner pers?nlichen Erfahrung kann ich sagen, dass das Verfassen von Texten mir beim Verst?ndnis von komplexen Sachverhalten hilft und auch meinen eigenen kreativen Denkprozess enorm unterstützt. Ich denke, dass mir da jeder zustimmen kann, der schonmal eine Bachelor- oder Masterarbeit geschrieben hat. Wir sollten die Studierenden deshalb früh in diese Richtung sensibilisieren und Ihnen den Nutzen von wissenschaftlichem Schreiben n?herbringen.
Milad Mirbabaie: Die Generationen Alpha und Beta wachsen im Grunde genommen mit KI-Systemen auf und die Benutzung solcher Systeme wird immer mehr zur Realit?t, ?hnlich die der Nutzung von Social Media durch Generation Z und abw?rts. Auch wenn wir jetzt noch keine F?lle beobachten konnten, werden wir es nicht verhindern k?nnen. Die Herausforderung besteht darin, dass wir den ethischen Umgang mit der KI in unserem Curriculum fest verankern.
Wie k?nnen Lehrende Texte erkennen, die mit KI-Sprachgenerierungssystemen erstellt wurden?
ChatGPT: Lehrende k?nnen Texte erkennen, die mit KI-Sprachgenerierungssystemen erstellt wurden, indem sie auf Anzeichen von syntaktischer Unregelm??igkeit, inhaltlicher Unstimmigkeit oder fehlenden Kontextreferenzen achten. Auch das Fehlen von pers?nlichem Schreibstil oder ein einheitlicher Schreibstil über einen l?ngeren Text hinweg kann ein Indikator für eine automatisierte Texterstellung sein. Es ist jedoch wichtig zu beachten, dass einige KI-Sprachgenerierungssysteme sehr fortschrittlich und in der Lage sind, menschen?hnlichen Text zu erzeugen, weshalb eine ?berprüfung auf mehrere Anzeichen erforderlich sein kann.
Oliver Müller: Einfache Plagiatsscanner versagen bei ChatGPT. ChatGPT plagiiert auch nur selten w?rtlich, sondern generiert in der Regel eigene Texte. Wie ein Ghostwriter. Aber OpenAI, das Unternehmen hinter ChatGPT, hat für die Zukunft eine neue Version von ChatGPT angekündigt, die für Menschen unsichtbare ?Wasserzeichen“ enthalten wird. Das sind statistische Muster in der Nutzung von Worten, die durch den Service generierte Texte entlarven werden.
Milad Mirbabaie: Ich stelle mir die Frage, ob es wertvoll ist, so viel Energie in die Erkennung zu investieren. Sollten wir nicht eher Diskurse und kritisches Denken f?rdern und der Technologie viel offener und transparenter gegenüberstehen? Ich denke, dass wir viel mehr mit unseren Studierenden sprechen sollten und sie zu Diskussionen anregen sollten. Ich bin auch ein gro?er Fan von mündlichen Abschlussprüfungen. In Abschlussarbeiten k?nnten wir solche Plagiate eher vermeiden, indem wir uns h?ufiger mit den Studierenden zusammensetzen und über die inhaltlichen Erkenntnisse sprechen und diese gemeinsam reflektieren. ChatGPT k?nnte in künftigen Versionen hierbei sogar unterstützen und den aktuellen Stand der Forschung aufzeigen. So sparen wir uns die Zeit hunderte von Stunden zu recherchieren, sondern arbeiten viel zielorientierter.
Wie kann ein ethisch verantwortungsbewusster Umgang mit KI in der Lehre vermittelt werden?
Milad Mirbabaie: In meinen Lehrveranstaltungen behandele ich bereits die Themen Ethik und KI und welche Auswirkungen die künstliche Intelligenz auf unsere Gesellschaft hat. Das ist kein neues Thema. Joseph Weizenbaum hat sich bereits in den 60er Jahren des 20. Jahrhunderts damit besch?ftigt, als ELIZA den Turing Test bestanden hat. Die KI war damals bereits in der Lage menschen?hnliche Unterhaltungen zu führen. ChatGPT ist also alter Wein in neuen Schl?uchen. Es ist nur für jeden zug?nglich und die Datenlage ist eine andere. Durch die gro?en Trainingsdaten ist das System pr?ziser und umfangreicher in der Beantwortung der Fragen. Ich werde den Studierenden weiterhin die Themen Erkl?rbarkeit und verantwortungsvolle KI nahebringen und zudem die Funktionsweise von ChatGPT erl?utern.
Oliver Müller: Schon seit einigen Jahren gibt es bei uns in der Wirtschaftsinformatik keine Veranstaltung, in der wir nicht auf das Thema KI eingehen. Dabei beleuchten wir es von unterschiedlichen Seiten – technisch, wirtschaftlich, gesellschaftlich. Wir bringen unseren Studierenden bei, nicht nur passive KI Nutzer zu sein, sondern selber KI Werkzeuge zu bauen und die Technologie aktiv mitzugestalten.
Wenn KI bald bessere Texte schreibt und bessere Antworten gibt als Menschen, was sollen Studierende dann künftig lernen?
ChatGPT: Es ist wahrscheinlich, dass KI in der Zukunft in der Lage sein wird, in vielen Bereichen menschen?hnliche Leistungen zu erbringen, einschlie?lich des Schreibens von Texten und der Beantwortung von Fragen. Dies wird jedoch nicht bedeuten, dass der Bedarf an menschlichem Wissen und F?higkeiten verschwindet. Studierende sollten sich auf F?higkeiten konzentrieren, die für KI schwierig oder unm?glich zu automatisieren sind, wie kritische Analyse, kreatives Denken und komplexe Probleml?sung. Es ist auch wichtig, dass die Studierenden die F?higkeit erwerben, mit KI-Systemen zu arbeiten und zu verstehen, wie sie funktionieren.
Oliver Müller: Die Aussage kann ich unterstützen. Wir müssen eine gute Arbeitsteilung zwischen Menschen und KI finden. Aber das ist ja nicht neu. Die Arbeitsteilung zwischen Mensch und Tier oder Mensch und Maschine wurde über die Menschheitsgeschichte immer wieder angepasst und neu definiert. Genau das wird in den kommenden Jahren wieder passieren. Studierende brauchen auch keine Angst haben, dass KI sie ersetzen wird. Da müssen wir doch nur einen Blick auf den aktuellen Fachkr?ftemangel werfen. Ich bin davon überzeugt, dass, wenn uns KI in Zukunft einige Aufgaben abnehmen kann, wir alle davon profitieren k?nnen.
Milad Mirbabaie: Aktuell wirken solche Systeme noch als eine Art Blackbox. Das sollte sich künftig ?ndern. Schüler*innen und Studierende sollten zum Beispiel in der Lage sein, solche KI-basierten Systeme zu ver?ndern, indem sie den Quellcode anpassen oder mit weiteren Trainingsdaten füttern. Die Arbeit von Studierenden sollte es au?erdem sein, komplexe Sachverhalte zu verstehen. Basierend darauf ist es wichtig, sich analytisches Denkverm?gen anzueignen und l?sungs- und teamorientiert Probleme zu l?sen. Eine Technologie wird dies nicht abschaffen. Wir, als Gesellschaft, bleiben eben auch nicht stehen und entwickeln uns weiter. Technologie katapultiert uns auf die n?chste Ebene. Nur sollten wir uns über diese Ebene und über die Auswirkungen bewusstwerden und wie wir uns pr?ventiv auch vor Gefahren schützen müssen.
Tobias Jenert: Letztlich geht es nicht um die Texte an sich, sondern um die Problem- und Aufgabenstellung, die dahinterstehen. Nehmen wir das Beispiel einer KI in der Warenwirtschaft: Die KI kann Standardaufgaben wie Bestandskontrolle, Bedarfsvorhersage oder Einkauf wunderbar übernehmen. Was macht dann künftig gute Einzelh?ndler*innen aus? Kreativit?t, um neue Kundengruppen zu erschlie?en und das Gesch?ftsmodell zu erweitern. Analytische F?higkeiten, um zu erkennen, wann die KI etwas nicht voraussagen kann, weil es z.B. vorher noch keine Pandemie gab, welche das KI Tool h?tte lernen k?nnen, oder wo etwas Unplausibles passiert. Diese F?higkeiten müssen wir künftig noch st?rker adressieren. Wir passen aber unsere Studienangebote kontinuierlich an, sodass ich uns hier auf einem guten Weg sehe.
Haben 360直播吧 bereits selbst KIs zur Vorbereitung oder Verbesserung Ihrer Lehre genutzt?
Milad Mirbabaie: Zur Vorbereitung und Verbesserung nicht, aber in der Lehre als Kernthema schon. Sei es, dass die Studierenden ein KI-basiertes System entwickeln sollten, um bspw. die Kommunikation mit Kunden zu verbessern oder die Anforderungen an KI-basierten Systemen in Krankenh?usern zu ermitteln, mittels Experteninterviews. Aktuell stellen wir aber auch einige Antr?ge für Drittmittelprojekte, um genau diesen Aspekt anzugehen, etwa die Entwicklung und den Einsatz eines KI-Systems zur Verbesserung der Lehre bzw. zur Unterstützung von Schüler*innen und Studierenden.
Tobias Jenert: Das Thema genie?t schon seit einigen Jahren gro?e Aufmerksamkeit, auch mit Bezug auf die Hochschullehre und die Ausbildung von Lehrer*innen. Unter anderem laufen dazu gro?e F?rderprogramme. An der Universit?t Paderborn gibt es eine Initiative, die ?digital literacy‘ der Studierenden zu f?rdern. Für mich bewegen sich die Diskussionen teilweise zu sehr auf der technologischen Ebene. KI und auch andere digitale Technologien haben auch dort Auswirkungen, wo die Technologien gar nicht unmittelbar eingesetzt werden. Also auch wenn ich mal nicht bei einem Betrieb arbeiten m?chte, der technologisch gepr?gt ist, muss ich mit den Ph?nomenen umgehen – und entsprechende Kompetenzen haben.