|
In der vergangenen Ausgabe berichteten wir über einen Beitrag auf Inside Higher Education, der sich mit den mittlerweile beachtlichen Erfolgen des Ende 2022 vorgestellten Chatbots ChatGPT befasste und zur Gelassenheit bezüglich der Frage riet, ob künstliche Intelligenz Vermittlung und Abprüfung von Bildungsinhalten komplett auf den Kopf stellen würde. Trotz aller Mahnungen zu Gelassenheit hat sich das von der Firma OpenAI im November vergangenen Jahres vorgestellte Programm ChatGPT (das GPT steht für „Generative Pre-trained Transformer“) zu einem an nordamerikanischen Hochschulen derzeit intensiv und kontrovers diskutierten Thema entwickelt, vor allem weil das Programm Dinge tun kann, die Bildungsinhalten an Hochschulen zum Verwechseln ähneln.
Beth McMurtrie unterhält als Bildungsexpertin im Chronicle of Higher Education einen Blog zur Lehre an Hochschulen und hatte sich bereits im Dezember mit der Frage auseinandergesetzt, ob ChatGPT das Ende des College Essays bedeuten würde und was es bedeute, wenn die Antwort auf die Frage „ja“ lauten würde. Sie schrieb: „Is the college essay dead? Are hordes of students going to use artificial intelligence to cheat on their writing assignments? Has machine learning reached the point where auto-generated text looks like what a typical first-year student might produce?”
Soziale und Bildungsmedien würden derzeit mit Fragen überschwemmt, was es für Bildung insgesamt bedeute, wenn jeder Schüler oder Student mit Hilfe eines Computerprogramms wie ChatGPT zu jedem beliebigen Thema einen Aufsatz erstellen könne, der sich aus einer endlosen Mengen digitaler Internet-Texte speise und dessen Qualität locker die Anforderung der Mittelmäßigkeit erfüllen könnte. Die einzig valide Antwort auf diese Frage könne nur sein, dass Tools wie ChatGPT in der einen oder anderen Form Teil des alltäglichen Schreibens würden, so wie Taschenrechner und Computer auch zu einem festen Bestandteil in Mathematik und Naturwissenschaften geworden seien. Es sei darum sehr wichtig, mit Schülern und Kollegen darüber zu sprechen, wie Werkzeuge wie ChatGPT als Hilfsmittel und nicht als Ersatz für das Lernen genutzt werden könnten. Akademiker müssten auch erkennen, dass ihre ersten und beinahe schon panischen Reaktionen ebenso viel über ihre eigenen dunkelsten Ängste in Bezug auf die Hochschulbildung aussagten wie über die Bedrohungen und Versprechungen einer neuen Technologie. Solche Ängste seien gespeist aus der Vision eines Studiums als einer transaktionalen Erfahrung, bei der das Erledigen von Aufgaben wichtiger geworden sei als die Herausforderungen des Lernens. Die Aufgaben und Beurteilungen seien dabei so formelhaft, dass niemand erkennen könne, ob sie ein Computer erledigt habe, und die Lehrkräfte seien zu überlastet, um ihre Studenten zum wirklichen Lernen zu motivieren. Sie schreibt: „’Academia really has to look at itself in the mirror and decide what it’s going to be,’ said Josh Eyler, director of the Center for Excellence in Teaching and Learning at the University of Mississippi, who has criticized the ‘moral panic’ he has seen in response to ChatGPT. ‘Is it going to be more concerned with compliance and policing behaviors and trying to get out in front of cheating, without any evidence to support whether or not that’s actually going to happen? Or does it want to think about trust in students as its first reaction and building that trust into its response and its pedagogy?’”
Sie finden den Beitrag hier.
In einem weiteren Beitrag verneint McMurtrie die Frage, ob man Aufgaben an Studierende auch so stellen könne, dass sie nicht von künstlicher Intelligenz gelöst werden könnten. Ob nun gleich von ChatGPT produzierte Lösungen präsentiert würden, oder welche, bei denen künstliche Intelligenz wesentliche Hilfestellung geleistet habe, in jedem Fall seien individuelle Leistungen vor dem Hintergrund bestehender technischer Mittel nicht mehr in der klassischen Weise bewertbar. Das müsse dann direkte Auswirkungen darauf haben, in welcher Art künftig Aufgaben gestellt werden müssten. Sie schreibt: „Maybe you allow students to produce a podcast instead of writing a paper. Or you create fewer writing assignments, but build in more feedback and revision to the ones you keep. Or you try prompts whose answers are less likely to be found on the internet. Of course, there is always another option, which is to invest in detection software. Already several tools on the market promise to do that. But many digital-learning experts say that’s a losing game – tech will keep advancing, and students will find ways around detection tools. Nor do most instructors want to become writing police.”
Sie finden diesen Beitrag hier.
In einem Beitrag auf Inside Higher Education ist sich Jim Jump, ehemaliger Präsident des National Association for College Admission Counseling, sicher, künstliche Intelligenz immerhin aus den normalerweise mit Essays einhergehenden Zulassungsverfahren für Studienplätze heraushalten zu können. Man müsse sich einfach nur die Zeit nehmen, die Essays auch gründlich zu lesen, und es würden einem die maschinell hergestellten Aufsätze auch als solche auffallen. Er schreibt: „I’m far from convinced that ChatGPT can produce great college essays. Great essays have a spark to them that is not about the ability to write but rather the ability to think. Great personal essays are clever and insightful, with an authenticity and a sincerity that’s – well, personal.” Er räumt ein, seine Skepsis gegenüber den schriftstellerischen Fähigkeiten von ChatGPT könne ihn als Dinosaurier, Träumer oder Romatiker entlarven und es wäre nicht das erste Mal.
Sie finden diesen Beitrag hier.
Ein Beitrag auf Inside Higher Education beleuchtet den nachvollziehbaren, aber im Sinne von McMurtrie nur wenig zielführenden Reflex, sich auf einen „Rüstungswettlauf“ mit Schülern und Studierenden einzulassen, die Programme wie ChatGPT zum Vortäuschen von Bildung benutzten. Man könne zwar künstliche Intelligenz auch darauf verwenden, mit künstlicher Intelligenz generierte Texte als solche zu identifizieren, doch seien solche Versuche allein deswegen zum Scheitern, verurteilt, weil ein gutes Computerprogramm nach Lektüre von ausreichend „original-menschlichen“ Texten lernen sollte, die Attribute des „Menschlichen“ zu täuschend echt zu imitieren. Es heißt: „In this cat-and-mouse game, some computer scientists are working to make AI writers more humanlike, while others are working to improve detection tools. Academic fields make progress in this way. But some on the global artificial intelligence stage say this game’s outcome is a foregone conclusion.”
Sie finden diesen Beitrag hier.
|