Zurück Im Einfluss von KI: Ersetzt ChatGPT schon bald wissenschaftliches Schreiben? Meine Gedanken und Prognosen als Schreibcoach für WissenschaftlerInnen.
Schreibstrategien und -techniken
17.02.2023

Im Einfluss von KI: Ersetzt ChatGPT schon bald wissenschaftliches Schreiben? Meine Gedanken und Prognosen als Schreibcoach für WissenschaftlerInnen

 

Wohl kaum ein Tag vergeht zurzeit ohne Neuigkeiten aus der Welt der künstlichen Intelligenz. ChatGPT, Bard, Bing und weitere KI-gestützte Systeme sind auf dem Vormarsch und erobern bereits erste Teile der modernen Arbeitswelt. So prognostiziert etwa Bill Gates schon beim Digitalkongress „Europe 2023“ eine zunehmende Übernahme von Routineaufgaben durch künstliche Intelligenz in Unternehmen.

Und natürlich liegt bei all dem auch die Frage nicht fern, welchen Einfluss ChatGPT und andere KI-gestützte Systeme über kurz oder lang auf die Wissenschaft und insbesondere das wissenschaftliche Schreiben haben werden.

Gehört wissenschaftliches Schreiben bald schon der Vergangenheit an? Wozu viele Monate, wenn nicht Jahre in das Verfassen wissenschaftlicher Arbeiten stecken, wenn ein Chatbot auf Knopfdruck nahezu gleichwertige (Fach-)Texte ausspucken kann?

Ist Schreibkompetenz in Zukunft überhaupt noch ein Asset, das wir als WissenschaftlerInnen brauchen?

  • In diesem Artikel wage ich einen Blick in die Zukunft und teile mit dir Chancen, Limitationen und Prognosen, wie ChatGPT und andere KI-gestützte Systeme wissenschaftliches Arbeiten und Schreiben beeinflussen werden und wie sich die Wissenschaft damit mittel- und langfristig verändern könnte.

In einigen Jahren kann ich den Artikel ja wieder hernehmen und sehen, was aus meinen Prognosen geworden ist – wer weiß, vielleicht haben wir dann alle viel zu lachen 😉

Also gut, lass uns starten…

1. Einführung: Was macht und kann ChatGPT überhaupt?

In der aktuell vorliegenden Version von ChatGPT können Fragen an einen Chatbot gerichtet werden, die dieser in Sekundenschnelle ausarbeitet und beantwortet. Dabei bedient sich der Chatbot aus sämtlichen zu einer Frage bereits vorliegenden Informationen. Bzw. nicht ganz: denn natürlich kann nur auf Informationen zurückgegriffen werden, die bereits in Textform digital zugänglich sind. Das ist natürlich eine ganze Menge, aber doch nicht alles an Wissen, das in der Welt vorhanden ist oder vorhanden sein könnte – wir werden darauf etwas später noch zurückkommen.

Die Antworten, die der Chatbot zu einer Frage ausspuckt, sind jedenfalls – das überrascht viele, die einen ersten Test gewagt haben – in der Regel gar nicht übel. Sowohl inhaltlich als auch strukturell sowie sprachlich sind die innerhalb kürzester Zeit entstandenen Texte durchaus herzeigbar.

Bei genauerer Prüfung fällt allerdings schon mal auf, dass der Chatbot Informationen falsch verknüpft oder wiedergegeben hat. (Dies führte erst kürzlich, beim Launch des Google-eigenen Chatbots „Bard“, zu einem empfindlichen Flop: in einer Demo, die Bards Leistung unter Beweis stellen sollte, hatte sich ein inhaltlicher Fehler eingeschlichen.)

Systeme wie ChatGPT und andere stecken aktuell eben noch in den Kinderschuhen. Die dahinterliegenden Technologien werden sich im Lauf der nächsten Jahre aber wohl deutlich verbessern, verfeinern und damit immer präziser arbeiten.

Wie und über welchen Zeitraum sich diese Entwicklung abspielen wird, wage ich nicht zu prognostizieren. Aber so viel ist sicher: wir stehen hier nicht am Abschluss, sondern gerade mal am Beginn einer enormen technologischen Entwicklung, die in den nächsten Jahren und Jahrzehnten zweifelsohne viele Bereiche unseres modernen Lebens verändern wird.

Wir halten also zunächst einmal fest: ChatGPT und andere KI-gestützte Systeme sammeln innerhalb kürzester Zeit Informationen zu einer Frage und stellen sie zu einer klaren und zusammenhängenden Antwort zusammen. Die inhaltliche Richtigkeit und Vollständigkeit dieser Antwort sollte aber jedenfalls einer genauen Prüfung unterzogen werden.

Als WissenschaftlerInnen führt uns das auch gleich zur nächsten Frage:

2. Chancen und Potential von KI: Wofür könnte sich ChatGPT in der Wissenschaft einsetzen lassen?

Das bisher Gezeigte bringt mit sich, dass ein System wie ChatGPT durchaus in der Lage sein kann, auch adäquate, akademische Texte zu produzieren.

Unter der Prämisse, dass das System mit der Zeit zunehmend besser werden und immer zuverlässigere Texte schreiben wird, stellt sich dann natürlich die Frage: wozu in Studium und der Wissenschaft überhaupt noch selbst schreiben (lernen)? Ist die Vermittlung und Professionalisierung von Schreibkompetenz in der Wissenschaft vielleicht schon bald ein Auslaufmodell?

Ich möchte die Frage hier etwas anders stellen, denn ich glaube, dass wir einer Antwort so näher kommen können: „Wie kann vor dem Hintergrund KI-gestützter Systeme menschliches, wissenschaftliches Schreiben einen neuen Stellenwert erhalten? Wie lässt sich in Zukunft trotz und mit ChatGPT seriös wissenschaftlich arbeiten und schreiben?“

Zweifelsohne könnten nämlich KI-gestützte Systeme unseren wissenschaftlichen Alltag in Zukunft erleichtern und bereichern:

1. Chance: Unterstützung in der Vorbereitung von Forschungsprojekten

Viele Aufgaben für die Vorbereitung eines Forschungsprojekts müssen in wissenschaftlichen Projekten heute durch die ForscherInnen selbst erledigt werden – auch wenn die entsprechenden Aufgaben in Wahrheit keine komplexe Fachkompetenz erfordern.

Das betrifft etwa das aufwendige Durchforsten von Untersuchungsquellen nach bestimmten Begriffen oder Merkmalen, die erst im Weiteren vergleichend analysiert werden können. Ein anderes Beispiel wäre die zeitintensive Zusammen- und Gegenüberstellung von Studien und Publikationen in einem Scoping Review, auf deren Grundlage Forschungsdesiderate ausgelotet und ein eigenes Forschungsvorhaben positioniert werden kann.

In manchen Bereichen können schon heute gut gepflegte Datenbanken und Suchmaschinen einen Teil dieser essentiellen (Vor-)Arbeit von wissenschaftlichen Projekten erleichtern, aber ohne Frage ist dabei noch Luft nach oben.

Künstliche Intelligenz kann nun große Mengen an Daten erfassen, sortieren und hinsichtlich eines bestimmten Merkmals oder einer bestimmten Fragestellung auswerten und gegenüberstellen. Eine wertvolle Anwendung von KI-gestützten Systemen in der Wissenschaft könnte damit künftig z. B. in der Vorbereitung von Forschungsprojekten, etwa dem Zusammenstellen von relevantem Untersuchungsmaterial, bestehen.

2. Chance: Überprüfen und Gegenchecken von Texten

Auch zu bereits erstellten Textteilen könnten Chatbots wertvolle Anregungen liefern – etwa um Lücken oder Brüche in einer Argumentation aufzudecken oder Gegenargumente aufzuzeigen, die bisher noch übersehen wurden. Die gerade unter Promovierenden oft kursierende Frage „Könnte es sein, dass ich noch etwas Wichtiges in meinem Text vergessen habe?!“ könnte hier mit einem prüfenden „Blick von außen“ ergänzt werden.

Das Hinzuziehen von KI-gestützten Systemen könnte damit helfen, Fachtexte in Zukunft noch umsichtiger zu gestalten.

Gerade in der Wissenschaft (auf die wir uns in diesem Artikel konzentrieren wollen) bietet der Einsatz von ChatGPT und ähnlichen Systemen aber natürlich auch Risiken und Limitationen, denen wir uns im Folgenden näher widmen wollen:

3. Risiken und Folgen von KI: Was könnte am Einsatz von ChatGPT in der Wissenschaft problematisch sein? Was schränkt praktische Einsatzmöglichkeiten in der Wissenschaft ein?

Eine Problematik mit dem Einsatz von KI-gestützten Systemen liegt auf der Hand: sie ermöglichen, Texte oder Textteile als eigene gedankliche Leistung auszugeben, auch wenn diese tatsächlich nicht selbst verfasst wurden.

Inwiefern dies als Plagiat gewertet werden kann, ist aktuell noch fraglich: denn ist der Text einer künstlichen Intelligenz auch deren geistiges Eigentum?

Wie ist dementsprechend die Übernahme von KI-erstellten Texten in eine eigene Arbeit konkret zu werten? Inwiefern greifen hier bekannte Regeln akademischer Integrität, inwiefern müsste akademische Integrität vor diesem Hintergrund neu gedacht oder adaptiert werden?

Oder anders gesagt: woran lässt sich in Zukunft jene wesentliche Eigenleistung festmachen, die in das Erstellen eines wissenschaftlichen Textes geflossen sein muss?

All das sind Fragen, die besonders im schulischen und studentischen Schreiben schon jetzt hochrelevant werden (ich gehe darauf auch in meinen Prognosen noch weiter ein).

Im vorliegenden Artikel möchte ich mich allerdings auf Problematiken konzentrieren, die sich rund um den Einsatz von ChatGPT und ähnlichen Systemen in der Wissenschaft ergeben, das heißt konkret beim Erstellen von Dissertationen und anderen Fachtexten, die eine eigenständige Forschungsleistung enthalten und darstellen.

Tatsächlich schätze ich hier den Einsatz von KI-gestützten Systemen noch bis auf Weiteres nämlich eher schwierig bzw. problematisch ein.

1. Kritikpunkt: Fehlende Transparenz über dahinterliegende Rechercheprozesse

Eine durchaus empfindliche Problematik sehe ich zuallererst in der fehlenden Transparenz darüber, auf welche Inhalte und Wissensbestände ein Chatbot beim Erstellen einer Antwort nun konkret zurückgegriffen hat. Warum der Chatbot bestimmte Informationen zur Beantwortung einer Frage als relevanter oder „besser“ eingestuft hat, welche weiteren Ansätze es zu diesem Thema sonst noch gibt, welche Inhalte (nicht) berücksichtigt wurden und warum – all das wird nicht explizit ausgeführt.

Zwar gibt es die Möglichkeit, sich auch Quellen und Verweise zu einem durch einen Chatbot verfassten Text anzeigen zu lassen, aber die dahinterliegenden Auswahl- und Entscheidungsprozesse bleiben doch weitgehend im Dunkeln.

Genau diese transparente Reflexion braucht es aber, damit LeserInnen eines Textes sich ein verlässliches Bild darüber machen können, welche Informationen, Quellen, welche Literatur oder Daten in die Entwicklung einer Idee oder Erkenntnis eingeflossen sind und wie die Stichhaltigkeit der entsprechenden Argumente vor diesem Hintergrund zu bewerten ist.

Das kann bedeuten, aktiv zu thematisieren, warum etwa bestimmte Werke bei der Erstellung eines vorliegenden Textes nicht berücksichtigt wurden und damit mögliche Verzerrungen aufzuzeigen, die durch eine gewollte oder ungewollte Auswahl und Eingrenzung der Bezugsquellen entstanden sein könnten.

Eine so ausführliche kritische Auseinandersetzung mit (Fach-)Inhalten findet in Texten, die durch ChatGPT erstellt wurden, vorerst nicht statt. Für wissenschaftliche Texte, deren Quintessenz genau in dieser Feinarbeit liegt, kann ChatGPT damit gegebenenfalls ein nützlicher Zuarbeiter sein, wird aber die präzise Recherche und Lektürearbeit eines/r WissenschaftlerIn noch bis auf Weiteres nicht ersetzen können.

Dazu kommt, dass im Moment noch weitgehend intransparent ist, auf welche Inhalte und Bestände ChatGPT und andere KI-gestützte Systeme überhaupt zugreifen können.

Nicht wenige WissenschaftlerInnen verzweifeln fast täglich an der kritischen Zugänglichkeit bestimmter Werke, die sie für ihre Arbeit benötigen würden.

Im Fall meiner eigenen Dissertation im Fachbereich Antike Rechtsgeschichte betraf dies etwa Fachpublikationen, die so alt waren, dass sie nur an vereinzelten Bibliotheken im deutschsprachigen Raum vorrätig waren – von E-Publikationen keine Rede. Im Fall vieler Promovierender heute sind Paywalls, also die Verfügbarkeit bestimmter Journale oder Papers nur gegen Bezahlung, ein ähnliches Problem.

Inwiefern Barrieren wie diese durch Chatbots umgangen werden können, ist im Moment noch unklar.

2. Kritikpunkt: Eine drohende Monopolisierung von Wissen?

Aus dem eben Dargestellten ergibt sich eine weitere, meines Erachtens vielleicht sogar noch empfindlichere Problematik: wer bestimmt eigentlich, auf welche Inhalte und Informationen Chatbots überhaupt zugreifen können und sollen?

Inwieweit könnten Betreiber von KI-gestützten System bald schon ein Monopol auf die Auswahl an Inhalten erheben, auf die künstliche Intelligenz zurückgreifen kann und soll? Und damit mehr oder weniger willkürlich unliebsame Inhalte aus der öffentlichen Wahrnehmung und Zugänglichkeit verbannen?

Schon heute wird in vielen Fachdisziplinen durch das Vergeben eines Impact Factors für Publikationen deren Reichweite mitunter empfindlich eingeschränkt. Über (diffuse) Auswahlprozesse und Filter in KI-gestützten Systemen könnte diese Problematik noch weiter verschärft werden und dazu führen, dass etwa nur Publikationen, die in bestimmten Veröffentlichungsformen zugänglich gemacht werden, tatsächlich Eingang in einen wissenschaftlichen Diskurs finden können – während alle anderen außen vor gelassen werden.

Eine bedachte, eigenständige Literaturrecherche und sorgfältige Prüfung, Ergänzung und Berichtigung von durch Chatbots generierten Darstellungen wird vor diesem Hintergrund noch auf längste Zeit nicht entfallen können und dürfen – und das bringt uns auch schon zum nächsten Punkt:

3. Kritikpunkt: Notwendige Vorkenntnisse

Im Vorfeld der Erstellung dieses Artikels habe ich selbst die aktuelle Freeversion von ChatGPT ausgiebig getestet. Dazu habe ich dem Chatbot Fragen gestellt, die ich in meiner eigenen Dissertation behandelt und beantwortet habe.

Und dabei ist mir eines aufgefallen: die Antworten des Chatbots waren durchwegs korrekt und umsichtig zusammengestellt – und als einführende Zusammenfassung zu einer Thematik absolut brauchbar.

ABER: tatsächlich kratzten sie nur an der Oberfläche der vielfältigen Fragenkomplexe, die sich rund um bestimmte Themen öffnen und erörtern ließen.

Mir wurde schnell klar: um Antworten zu erhalten, die der inhaltlichen Tiefe meiner eigenen Forschung gerecht werden könnten, müsste ich Fragen an den Chatbot VIEL präziser und detaillierter formulieren.

Um eben das leisten zu können, war es aber unabdingbar, dass ich selbst richtig gut in das Thema eingearbeitet war. Ich musste bereits wissen, auf welche winzigsten Details es hier ankommen würde und wie ich meine Frage bis auf das letzte Wort hin formulieren müsste, um wirklich relevante Antworten zu erhalten.

All das setzt ein so umfassendes Verständnis eines Themas und eine so tiefe Einarbeitung voraus, dass von einer wirklichen „Erleichterung“ durch den Einsatz eines Chatbots kaum mehr eine Rede sein kann. Als Ersatz oder „Abkürzung“ für meine eigene, oft monatelange Vertiefung in ein Thema hätte jedenfalls keiner der entstandenen Texte dienen können.

Und das bringt uns auch gleich zu meinem letzten Kritikpunkt:

4. Kritikpunkt: Keine neuen Informationen

ChatGPT und andere KI-gestützte Systeme werden schon innerhalb der nächsten Jahre so manche Schreibaufgaben in Alltag und Beruf obsolet machen. E-Mails, Zusammenfassungen, Stellungnahmen und ähnliches könnten sich schon bald auf Knopfdruck erstellen lassen.

Studien haben bereits zeigen können, dass auch Abstracts wissenschaftlicher Texte durch eine KI so überzeugend geschrieben werden können, dass es selbst ExpertInnen mitunter nicht mehr möglich ist, sie von menschlich verfassten Texten zu unterscheiden.

Aber die Wissenschaft hat eben eine entscheidende Eigenheit: wissenschaftliche Texte fassen in der Regel nicht nur zusammen, was bereits zu einem Thema vorliegt. Sondern erweitern dieses Wissens und fügen ihm ein ganz neues Puzzleteilchen hinzu.

Etwa indem sie einen Aspekt in einem Material beleuchten, den niemand zuvor gezielt untersucht hat. Indem sie Untersuchungs- oder Datenmaterial erstellen, das niemand zuvor erstellt hat. Indem sie Experimente oder Studien durchführen, die niemand zuvor durchgeführt hat.

All das kann durch KI-gestützte Systeme auch bis auf Weiteres nicht ersetzt werden.

ChatGPT und ähnliche Systeme könnten etwa hinzugezogen werden, um den Aufbau eines Experiments oder die Durchführung eines Leitfadeninterviews vorzubereiten. Die entsprechende Umsetzung muss aber auch weiterhin durch Menschen erfolgen – und auch die damit generierten Forschungserkenntnisse liegen damit weiterhin bei den ForscherInnen selbst.

Aus all dem, was ich bisher angeführt habe, will ich im Folgenden nun noch einige vorsichtige Prognosen formulieren, wohin sich der moderne Wissenschaftsbetrieb vor dem Aufkommen von künstlicher Intelligenz in den nächsten Jahren entwickeln könnte.

4. Meine Prognose: Wie werden ChatGPT und andere KI-gestützte Systeme die Wissenschaft verändern?

 

Prognose #1: Die Entwicklung von Schreibkompetenzen wird im Studium künftig anders vermittelt und beurteilt werden.

Eine der aktuell brennendsten Fragen rund um ChatGPT im akademischen Betrieb scheint zu sein: „Wie kann verhindert werden, dass Studierende Textaufgaben durch einen Chatbot verfassen lassen und sich so bessere Noten ‚erschleichen‘?“

Erst vor wenigen Tagen habe ich die Stellungnahme eines Universitätsdozenten gelesen, der dazu einigermaßen nüchtern meinte: „Wenn eine Aufgabe, die ich meinen Studierenden gebe, zufriedenstellend auch über einen Chatbot beantwortet werden kann, war es von vornherein keine sinnvolle Aufgabenstellung.“

Und recht ähnlich sehe ich es auch.

Was bereits durch die Verbreitung des Internets angestoßen wurde, wird durch KI-gestützte Systeme wohl noch eine weitere Stufe vorangetrieben: Wissen nur zu reproduzieren, ohne es in der eigenen Auseinandersetzung damit kritisch zu hinterfragen und zu reflektieren, wird zunehmend weniger gefragt sein.

Mehr als je zuvor wird es in Zukunft darauf ankommen, Wissen in komplexe Bedeutungszusammenhänge zu setzen und einen kritischen Umgang damit unter Beweis zu stellen.

Das bedeutet, dass im schulischen wie universitären Kontext (schriftliche) Leistungen wohl zunehmend weniger über das bloße Zusammentragen von bereits vorliegendem Wissen definiert werden, sondern über eine individuelle Auseinandersetzung damit.

Für die Vermittlung von wissenschaftlichen Schreibkompetenzen im Studium könnte das etwa bedeuten, nicht mehr bloß am Anfang eines Semesters Themenstellungen für Hausarbeiten zu verteilen und am Ende die dazu entstandenen Arbeiten zu lesen und zu beurteilen, sondern Studierende enger und bewusster durch den Entstehungsprozess solcher Projekte und Texte zu begleiten.

Unter anderem wäre hier etwa denkbar, in einem Seminar eine aktive Reflexion darüber anzuregen, an welchen Punkten im Schreibprozess ein Rückgriff auf KI-gestützte Systeme hilfreich sein könnte und wie die daraus generierten Informationen oder Inhalte umsichtig weiterverarbeitet, gegengeprüft, erweitert oder vertieft werden müssen. 

Ja, das ändert sicher manches im Bereich Schreibdidaktik an Hochschulen – aber aus meiner Sicht als Schreibdidaktikerin nicht unbedingt zum Schlechteren!

Prognose #2: Das Vertreten von individuellen Positionen in Fachtexten wird noch wichtiger als bisher.

Wenn ich Promovierende frage, was ihnen in ihrem Forschungsprojekt am meisten Freude bereitet, ist eine Antwort immer ganz oben mit dabei: „Mich so intensiv in ein Thema zu vertiefen und es richtig zu verstehen“.

Ich denke: dieser Ansporn wird auch mit einer stärkeren Verbreitung von KI-gestützten Systemen nie gänzlich verschwinden. Menschen werden auch weiterhin das Bedürfnis verspüren, einer Frage oder einem Sachverhalt in die Tiefe nachzugehen und sich ein Thema so intensiv „zu eigen“ zu machen.

Durch das Aufkommen von KI-gestützten Systemen wird dabei aber eines vielleicht immer wichtiger: individuelle und einzigartige Forschungsperspektiven zu erarbeiten. Der Wert einer Forschungsarbeit wird zunehmend weniger darin liegen, anschaulich zusammenzustellen, was andere schon zuvor geschrieben haben, sondern aus all dem eine ganz neue Position abzuleiten und zu argumentieren.

Das könnte mit sich bringen, dass künftig wieder vermehrt Forschungspositionen eingenommen werden, die sich bewusst gegen einen vermeintlich etablierten Konsens stellen, die „gesichertes“ Wissen kritisch in Frage stellen und verschiedenste Ansätze zu einem Thema auf neuartige Weise miteinander verknüpfen.

Prognose #3: Es werden Standards rund um die (menschliche) AutorInnen-Verantwortung für wissenschaftliche Texte zu entwickeln sein.

Das Science-Newsportal von Nature stellte bereits Anfang Februar 2023 ein zunehmendes Aufkommen von Papers fest, dessen AutorInnenschaft (zum Teil) KI-gestützten Systemen zugeschrieben wurde.

Inwieweit kann aber ein Chatbot Verantwortung für seine Arbeit übernehmen? Inwieweit kann er aktiv in einen Fachdiskurs eintreten? All das sind Fragen, die in der Wissenschaft bald aktiv diskutiert und Grenzen dazu ausgelotet werden müssen.

Besonders im Bereich der Natur- und Technischen Wissenschaften, in denen schon heute in der Regel eine Vielzahl an (Co-)AutorInnen eines Papers gelistet werden, deren spezifische Beteiligung am Entstehen des Manuskripts nicht weiter ausgeführt wird, ist diese Frage freilich besonders brisant.

Ich erwarte hier schon bald erste Regularien und Standards aufseiten einzelner Journals und HerausgeberInnen, inwiefern die Einbindung von KI-gestützten Systemen in der Vorbereitung oder Erstellung eines Fachtextes im Einzelfall zulässig ist und transparent gemacht werden muss.

Prognose #4: Es wird eine aktive Debatte darum entstehen, wie künstliche Intelligenz generell programmiert wird und auf welche Inhalte sie zurückgreift. 

Im Moment ist noch recht wenig darüber bekannt, mit welchen Informationen und Inhalten Systeme wie ChatGPT gefüttert werden und worauf sie bei der Generierung einer Antwort konkret zurückgreifen – ich habe dies weiter oben ausführlicher beleuchtet.

Gerade für mögliche, seriöse Anwendungsfelder in der Wissenschaft wird aber gerade diese Frage essentiell sein. Denn was nützt der vermeintlich überzeugendste Text, wenn er ein Drittel der hierfür relevanten Fachliteratur nicht berücksichtigt hat?

Im Lauf der nächsten Jahre erwarte ich vor diesem Hintergrund vermehrt Debatten darüber, was KI-gestützte Systeme im Einzelfall leisten (können) und wie sie vor diesem Hintergrund umsichtig und seriös in wissenschaftliche Prozesse integriert werden können.

5. Fazit: Der Einfluss von KI, bzw. ChatGPT auf wissenschaftliches Schreiben und Arbeiten

So, das waren sie: meine Gedanken zu Chancen, Risiken und vorsichtigen Prognosen rund um den Einsatz von ChatGPT und künstlicher Intelligenz in der Wissenschaft.

Nach Fertigstellung dieses Artikels habe ich es mir natürlich nicht nehmen lassen, noch ChatGPT selbst nach seiner Einschätzung zum Thema zu befragen. Auf meine Frage „Wird ChatGPT wissenschaftliches Schreiben bald obsolet machen?“ hat ChatGPT Folgendes zu sagen:

Nein, ich denke nicht, dass ChatGPT das wissenschaftliche Schreiben obsolet machen wird.

Wissenschaftliches Schreiben erfordert eine gründliche Analyse und Interpretation von Daten und Forschungsergebnissen, und das Schreiben von gut formulierten, argumentativen Aussagen erfordert ein tiefes Verständnis der Thematik und der Fähigkeit, komplexe Konzepte klar und prägnant darzustellen.

Obwohl ChatGPT in der Lage ist, auf Fragen und Anfragen in natürlicher Sprache zu antworten und Texte zu generieren, die auf bestimmten Daten und Informationen basieren, kann es keine eigenständige Forschung durchführen oder seine eigenen Interpretationen und Schlussfolgerungen ziehen. Daher bleibt das wissenschaftliche Schreiben ein unverzichtbarer Teil des wissenschaftlichen Prozesses.

Es ist jedoch möglich, dass ChatGPT und andere KI-Technologien in Zukunft in gewissem Maße bei bestimmten Teilen des wissenschaftlichen Schreibprozesses, wie der Überprüfung von Grammatik und Rechtschreibung, unterstützend wirken können. Es bleibt jedoch abzuwarten, wie sich die Technologie in Zukunft entwickelt und in welchem Umfang sie das wissenschaftliche Schreiben beeinflussen wird.

Na immerhin scheinen wir uns da für den aktuellen Moment noch durchaus einig zu sein 😉

Mich würde jetzt natürlich brennend interessieren, wie DU den Einsatz von ChatGPT und anderen KI-gestützten Systemen in der Wissenschaft beurteilst? Gibt es Chancen oder Risiken, die du hier gerne noch ergänzen würdest? Oder prognostizierst du andere oder weitere Einflüsse, die künstliche Intelligenz schon bald auf die Wissenschaft haben könnte?

Hinterlasse mir gerne eine Nachricht und erzähl‘ mir davon – ich bin extrem gespannt darauf!

NEWSLETTER

Du willst dein Dissertationsprojekt mit mehr Klarheit, Strategie und Effizienz verfolgen und zu Papier bringen?

Dann hol dir meinen wöchentlichen Newsletter mit den besten Tipps und Strategien rund um das Konzipieren, Schreiben, Verteidigen und Publizieren deiner Doktorarbeit!

Cookies Info

Diese Website verwendet Cookies, um dir den bestmöglichen Service zu gewährleisten. Durch die Nutzung dieser Website erklärst du dich mit der Verwendung von Cookies einverstanden. Detaillierte Informationen findest du in meiner Datenschutzerklärung.