· 

Wer hat Angst vor ChatGPT?

Wir sollten die Möglichkeiten der neuen Technik nicht unterschätzen –und sie zugleich gewinnbringend in der Hochschullehre einsetzen.
Ein Gastbeitrag aus der Perspektive der Ingenieurwissenschaften von Jörn Schlingensiepen.

Ghostwriting by KI? Bild: hobvias sudoneighm, CC BY 2.0 via Wikimedia Commons.

NACHDEM IN DEN VERGANGENEN WOCHEN zum angeblichen Ende der abendländischen Wissenschaftskultur durch ChatGPT Sinniges und Unsinniges publiziert wurde, möchte ich die Perspektive der Ingenieurwissenschaften und einschlägigen Hochschulstudiengänge ergänzen.

 

Zunächst einmal zum Stand der Dinge: Ja, ChatGPT, eine Künstliche Intelligenz, erzeugt Text. Dieser Text ist lesbar und folgt einem logischen Aufbau. Man kann einer inhaltlichen Aussage folgen. Aber: Die produzierten Aussagen sind (Stand heute) nicht frei von Irrtümern und faktischen Falschdarstellungen. Der Versionsstand, in dem ich ChatGPT ausprobierte, erzeugte mir einen wunderbaren, gut lesbaren Text zur Funktionsweise einer Dampfmaschine. Leider wird die Funktion des Kolbens und der Ventile falsch erklärt. Das lässt sich aber leicht durch Anpassen der Fragestellungen korrigieren. Auf ChatGPT wird – unter welchem Namen auch immer – ChatGPT 2.0 folgen und diese Fehler überwinden. Ich erwarte daher, dass in absehbarer Zeit Systeme zur Verfügung stehen, die nicht nur Fülltext, sondern auch technische Darstellungen in guter Qualität erzeugen. >>>


Jörn Schlingensiepen ist Doktor-Ingenieur des Maschinenbaus und Professor für Ingenieurinformatik und computergestützte Produktentwicklung (CAD/CAE) an der Technischen Hochschule Ingolstadt.

Foto: Dinias/Nicole Dietzel.



 >>> So gut, dass es – entgegen der hin und wieder geäußerten Hoffnung – keine KI geben wird, die einen von einer KI generierten Text verlässlich als solchen erkennt. Der zu diesem Zweck heute oft verwendete Ansatz, sogenannte Generative Adversarial Networks (GAN), basiert nämlich auf der Idee, zwei KI gegeneinander antreten zu lassen: Der Generator erzeugt Inhalte, der Diskriminator erkennt den Fake. Der Generator trainiert darauf, den Diskriminator zu überlisten. Ein Wettrennen, das nie zu Ende geht. Zusätzlich stellt sich die Frage nach dem Erkenntnisgewinn: Wäre die Entdeckung eines KI-generierten Textes gleichbedeutend mit der Entdeckung eines Plagiats?  

 

Ich erwarte von meinen Studierenden sogar,
dass sie ChatGPT für ihre Hausarbeiten nutzen

 

Es gibt Fachdomänen, in denen die Produktion und Rezeption von Text einen anderen (wichtigeren) Stellenwert hat als in den Ingenieurwissenschaften. Für uns ist Text ein Mittel der Kommunikation. Andere Kommunikationsmittel sind technische Zeichnungen, Schaltpläne und Datenmodelle. Daher geht es in unseren Texten nicht um Schönheit, sondern um Verständlichkeit, und an der Fähigkeit zur Produktion verständlicher Texte messen wir den Urheber. Die entsprechenden Prüfungsleistungen: Hausarbeit, Projektbericht, Bachelorthesis, Masterthesis, etc. werden als Textdokumente mit kanonischem Aufbau geschrieben.

 

Da ChatGPT Text erzeugen kann, sehen sich einige Kolleginnen und Kollegen dazu veranlasst, das Ende dieser Prüfungsarten zu verkünden. Das zeugt aus meiner Sicht von einem falschen Verständnis des Zwecks wissenschaftlicher Textproduktion. Interessiert es uns vorrangig, ob jemand eine Einleitung schreiben kann oder ob das Quellenverzeichnis den Vorgaben der Prüfungskommission entspricht? 

 

Mich interessieren formale Vorgaben nur am Rande. Es gilt: Wenn die üblichen Formalia eingehalten sind, lässt sich eine Ausarbeitung leichter lesen, und verständliche Darstellung ist ein Benotungskriterium. Mich interessiert in erster Linie, ob Studierende in der Lage sind, zum Kern des Problems vorzudringen, Schlussfolgerungen zu ziehen, Thesen aufzustellen und Experimente zu entwerfen, die diese Thesen widerlegen oder für den gegebenen Betrachtungsgegenstand bestätigen. Außerdem interessiert mich, ob sie in der Lage sind, komplizierte Zusammenhänge zu erkennen und entsprechende Modelle zur Erklärung der Realität oder zu deren Abbildung zu entwerfen. 

 

Als Ingenieur will ich wissen, welche Vorschläge zur Unterstützung von Menschen meine Studierenden machen. Also ob Sie ein Produkt vorschlagen können, dass unter den Randbedingungen der technischen und ökonomischen Realisierbarkeit vermarktbar ist. Wenn dieser Kern erfüllt ist, dann ist es mir vollkommen egal, ob der Fülltext drumherum von einer KI geschrieben wird, im Gegenteil: Ingenieurwissenschaft lebt davon, neue Technik zu verwenden. 

 

Die Unternehmen, die meine Absolvierenden beschäftigen werden, stehen im Wettbewerb um genau diesen Aspekt. Längst entwerfen wir komplexe Systeme nicht mehr "von Hand", sondern systematisch und computergestützt. Das Festlegen von Wirkprinzipien und geometrischer Form galt lange Zeit als das Höchste unter den Ingenieurfähigkeiten. TRIZ-basierte Software, Computerprogramme zur Funktionsmodellierung und Lösungsableitung sowie computergestützter Entwurf und Optimierung von Geometrie sind schon lange im Einsatz und seit geraumer Zeit nicht mehr durch die Verfügbarkeit von Rechenkraft begrenzt. Das Abendland ist dadurch nicht untergegangen, sondern produktiver geworden. Vor diesen Systemen sitzen immer noch Ingenieurinnen und Ingenieure, die diese mit Daten füttern und deren Ausgaben bewerten.

 

Wachsam bleiben und trotzdem 

an die Chancen glauben

 

Betreuende, die ihre Studierenden bei der Bearbeitung begleiten, kommen automatisch zu einer Einschätzung, welche selbständige Leistung die Studierenden bei der Erstellung erbracht haben. Wir sollten daher nicht als erstes überlegen, ob Teile von Prüfungsleistungen nicht mehr gültig sein könnten. Wie bei jedem technischen Fortschritt werden sich das Vorgehen bei der Erstellung einer Arbeit und die Erwartung an das Ergebnis weiterentwickeln. Vielleicht erwarte ich von meinen Studierenden in Zukunft im Rechercheteil sogar, dass sie bewusst Zusammenfassungen von Systemen wie ChatGPT nutzen. Wenn dies Zeit spart und das Ergebnis verbessert, wäre es aus ökonomischer Sicht nicht sinnvoll, darauf zu verzichten.

 

Ich kann und will nur eine Bewertung für meine Fachdisziplin abgeben. In anderen Bereichen werden die Umwälzungen andere und vielleicht dramatischere sein. Mein persönlicher Eindruck ist, dass sicher die eine oder andere Kulturtechnik abgelöst werden wird. Das haben alle wissenschaftlichen Disziplinen stets bewältigt und zur eigenen Weiterentwicklung genutzt. Soweit ich es überblicke, wird heute nirgends mehr mit einem physischen Zettelkasten gearbeitet. Jede Recherche beginnt selbstverständlich mit einer Internetrecherche. Ich tendiere daher dazu, denjenigen zu glauben, die auch in anderen Fachdisziplinen eher die Chancen zur positiven Weiterentwicklung sehen als jenen, die sich davor fürchten.

 

Eine Einschränkung gilt aber: Ich rede hier lediglich über den Einsatz von ChatGPT in der wissenschaftsbasierten Lehre. Wie eine Maschine, die unbegrenzt Text erzeugt, außerhalb dieses Bereiches wirkt, zeigen die kommenden Monate. Ich erwarte eine dramatische Zunahme von Text, der auf uns einprasselt – mit dem Ziel, bestimmte Botschaften zu transportieren. Das kann dazu führen, dass sich die problematischen Echokammern, die wir heute in sozialen Netzwerken sehen, verstärken. Es kann aber auch zu anderen Effekten kommen, die wir noch nicht absehen können. Hier plädiere ich dafür, wachsam zu sein. Und damit unsere Studierenden das sein können, müssen sie die heutigen Möglichkeiten kennen. Wir sollten also lieber früher als später den Umgang mit ChatGPT und ähnlicher Technik in unsere Lehre integrieren.


Kommentar schreiben

Kommentare: 6
  • #1

    Klaus Diepold (Dienstag, 10 Januar 2023 10:06)

    vielen Dank für Ihren Beitrag, dessen Kernaussage ich als Ingenieur aus vollem Herzen unterstütze.

    Die eher angstvollen Konmentare der letzten Wochen sind nach meiner Einschätzung eher eine Ausdruck der Angst vor sem Verlust der Bequemlichkeit Studierende mittels einfacher Aufgaben zu beschäftigen und nach einfachen Kriterien zu beurteilen. Da denke ich gleich an die Annekdote über C.-F. Gauss, dessen Lehrer die Schüler mit der Aufgabe ruhigstellte, die ersten 100 Zahlen aufzuaddieren. Und dann kam Gauss ;-)

  • #2

    Sarenda Kahn (Dienstag, 10 Januar 2023 18:15)

    Ich empfehle dieses Interview, das in eine ähnliche Kerbe schlägt https://www.wiwo.de/technologie/digitale-welt/chatgpt-das-tool-deckt-auf-was-im-wissenschaftsbetrieb-falsch-laeuft/28866804.html

  • #3

    Knud Jahnke (Dienstag, 10 Januar 2023 19:09)

    Nur dass halt leider sämtliche Attribution, von wem denn die zusammen-KI-ten Inhalte stammen, leider wegfällt. Keine Quellen mehr für die Inhalte des Textes, nur noch "war ja im Trainingsdatensatz", der sehr viel enthält - aber keiner weiß genau was. Also eine weitere Black Box.

  • #4

    Markus Gerke (Mittwoch, 11 Januar 2023 10:54)

    Im Sinne der Lehre mag das sein und ich lese auch lieber wohlfeil formulierte Texte (wahrscheinlich kann die Maschine auch "das" und "dass" besser auseinander halten... - das können heute nur noch wenige Leute).

    Als Editor eines wiss. Journals habe ich aber die Befürchtung, dass hier nun eine neue Ebene des Plagiats erreicht wird: man nehme ein/mehrere exzellentes Paper eines anderen Autoren/Autorin und lasse es so umschreiben, dass die Kernaussagen/Ergebnisse etc inhaltlich gleich bleiben, jedoch von Plagiatssoftware nicht mehr gefunden wird. Als "neuer" Autor muss man dann nur noch bei den Grafiken und Tabellen etc aufpassen... Schon heute ist es schwierig, gute Gutachter zu finden, die sich Zeit nehmen, bei der Flut an Neueinreichungen zu helfen. Wie soll es dann werden?

  • #5

    Marco Winzker (Donnerstag, 12 Januar 2023 09:00)

    Ich stimme zu, dass KI bei der Erstellung ein hilfreiches Werkzeug ist, welches im Sinne einer Arbeitsersparnis sinnvoll oder sogar unvermeidbar ist.

    Mir fehlt jedoch die Betrachtung, wie Studierende den Umgang mit Texten erlernen. Das geschieht über Erstellen kleinerer Text hin zu immer längeren Beschreibungen. Und da ist dann sicher auch ein Laborbericht dabei, der schon hunderte Mal von anderen erstellt wurde, aber dennoch das Beschreiben von technischen Zusammenhängen erlernen lässt.

    Es wird ja auch weiter das Rechnen gelehrt, um ein Verständnis für Zahlen zu haben. Ich kann auch per Sprache meine Suchmaschine fragen "Wieviel ist 5 mal 9?".

  • #6

    Jörn Loviscach (Samstag, 21 Januar 2023 21:06)

    Falls jemand immer noch ;-) keine Angst haben sollte, empfehle ich einen Blick in meine längeren Experimente:
    https://j3l7h.de/blog/2023-01-21_20_16_ChatGPT%20formuliert%20Stichwortsammlungen%20aus