Kürzlich erregte eine Analyse auf der Grundlage von 14 Millionen PubMed-Abstracts Aufsehen. Die Studie zeigte den erheblichen Einfluss von KI-Textgeneratoren, insbesondere ChatGPT, auf das Schreiben wissenschaftlicher Dokumente. Durch die Analyse von Veränderungen im Sprachstil entdeckten die Forscher das charakteristische Vokabular von KI-generierten Texten und schätzten den Anteil der von KI betroffenen Zusammenfassungen. Diese Studie liefert nicht nur quantitative Daten, sondern untersucht auch die Vor- und Nachteile von KI beim wissenschaftlichen Schreiben sowie die Unterschiede zwischen verschiedenen Ländern und Zeitschriften und löst so weitere Diskussionen über wissenschaftliche Schreibnormen und KI-Ethik aus.
Eine Analyse von 14 Millionen PubMed-Abstracts zeigt, dass KI-Textgeneratoren seit der Einführung von ChatGPT mindestens 10 % der wissenschaftlichen Abstracts beeinflusst haben, in einigen Bereichen und Ländern ist der Anteil sogar noch höher. Forscher der Universität Tübingen und der Northwestern University untersuchten zwischen 2010 und 2024 Sprachveränderungen in 14 Millionen wissenschaftlichen Abstracts. Sie fanden heraus, dass ChatGPT und ähnliche KI-Textgeneratoren zu einer deutlichen Erweiterung des Wortschatzes bestimmter Stile führten. Die Forscher identifizierten erstmals Wörter, die im Jahr 2024 deutlich häufiger vorkamen als in den Vorjahren. Zu diesen Wörtern gehören viele der für den Schreibstil von ChatGPT typischen Verben und Adjektive, wie zum Beispiel „tief graben“, „komplex“, „präsentieren“ und „herausragen“. Basierend auf diesen Signaturwörtern schätzen die Forscher, dass KI-Textgeneratoren bis 2024 mindestens 10 % aller PubMed-Abstracts beeinflussen werden. In einigen Fällen übertreffen diese Auswirkungen sogar die Auswirkungen von Wörtern wie „Covid“, „Epidemie“ oder „Ebola“ in ihrem Zeitrahmen. Die Forscher fanden heraus, dass etwa 15 % der Abstracts in PubMed-Untergruppen in Ländern wie China und Südkorea mit ChatGPT erstellt wurden, verglichen mit nur 3 % im Vereinigten Königreich. Dies bedeutet jedoch nicht unbedingt, dass britische Autoren ChatGPT weniger verwenden. Tatsächlich könnte den Forschern zufolge der tatsächliche Einsatz von KI-Textgeneratoren viel höher sein. Viele Forscher bearbeiten KI-generierten Text, um typische Logowörter zu entfernen. Hier könnten Muttersprachler im Vorteil sein, da ihnen solche Formulierungen eher auffallen. Dies macht es schwierig, den tatsächlichen Anteil der von KI betroffenen Zusammenfassungen zu bestimmen. Innerhalb eines messbaren Bereichs ist der Einsatz von KI in Zeitschriften besonders hoch, beispielsweise etwa 17 % in Frontiers- und MDPI-Zeitschriften und 20 % in IT-Zeitschriften. Unter den IT-Zeitschriften ist der Anteil chinesischer Autoren mit 35 % am höchsten. Für wissenschaftliche Autoren kann KI dabei helfen, Artikel lesbarer zu machen. Studienautor Dmitry Kobak sagte, generative KI, die speziell für die Zusammenfassung entwickelt wurde, sei nicht unbedingt das Problem. Allerdings können KI-Textgeneratoren auch Fakten fabrizieren, Vorurteile verstärken und sogar Plagiate begehen, und sie können auch die Vielfalt und Originalität wissenschaftlicher Texte verringern. Es scheint etwas ironisch, dass das wissenschaftliche Open-Source-Sprachmodell „Galactica“, das von Meta Company kurz vor der Veröffentlichung von ChatGPT veröffentlicht wurde, von einigen Leuten in der wissenschaftlichen Gemeinschaft heftig kritisiert wurde, was Meta dazu zwang, es offline zu nehmen. Dies hat die generative KI offensichtlich nicht daran gehindert, Einzug in das wissenschaftliche Schreiben zu halten, aber es hat möglicherweise die Einführung eines speziell für diese Aufgabe optimierten Systems verhindert. Highlights: Eine Analyse der PubMed-Abstracts ergab, dass seit der Einführung von ChatGPT mindestens 10 % der wissenschaftlichen Abstracts vom KI-Textgenerator betroffen waren. In der PubMed-Untergruppe in Ländern wie China und Südkorea wurden etwa 15 % der Abstracts mit ChatGPT erstellt, verglichen mit nur 3 % im Vereinigten Königreich. Forscher fordern eine Neubewertung der Richtlinien für den Einsatz von KI-Textgeneratoren in der Wissenschaft, da KI-Textgeneratoren Fakten fabrizieren, Vorurteile verstärken und sogar Plagiate begehen können.
Die Ergebnisse dieser Studie mahnen uns, dass der Einsatz von KI im wissenschaftlichen Schreiben mit Vorsicht zu genießen ist und strengere Normen und ethische Richtlinien formuliert werden müssen, um akademische Integrität und Forschungszuverlässigkeit sicherzustellen. Zukünftige Forschungen sollten weiter untersuchen, wie die Risiken, die KI-generierte Texte mit sich bringen, besser erkannt und vermieden werden können und wie die Bequemlichkeit des KI-gestützten Schreibens mit potenziellen negativen Auswirkungen in Einklang gebracht werden kann.