Technik: Diese Begriffe sollen KI-generierte Texte entlarven
Das Wichtigste in Kürze
- Forscher haben das vermehrte Auftauchen einiger Wörter in Wissenschaftstexten bemerkt.
- Sie schliessen daraus, dass ChatGPT und Co. immer öfters auch in Papers verwendet werden.
- Begriffe wie «signifikant» und «eintauchen» erscheinen in solchen Texten mehr als früher.
Es wird zunehmend schwieriger herauszufinden, ob ein Text von einem Menschen oder von einer künstlichen Intelligenz stammt. Forscher haben nun mit einem neuen Ansatz gezeigt, dass ChatGPT und andere «Large Language Models (LLMs)» überraschend oft auch im wissenschaftlichen Kontext genutzt werden.
Gerade «überflüssige Wörter» tauchen öfters auf
Wissenschaftler der Universität Tübingen und der Northwestern University (USA) haben rund 14 Millionen englischsprachige Abstracts von wissenschaftlichen Publikationen analysiert, die zwischen 2010 und 2024 auf «PubMed» veröffentlicht wurden. Sie haben dabei ein besonderes Augenmerk auf die Nutzung bestimmter Wörter geworfen, die vor der Einführung bekannter Werkzeuge wie ChatGPT in solchen Texten viel weniger oft auftauchten. Dabei handle es sich hauptsächlich um «überflüssige Wörter».
So zeigt sich, dass beispielsweise «delve» (auf Deutsch: «eintauchen»), «showcasing» («vorführen») oder «underscore» («betonen») um ein Vielfaches mehr genutzt werden. Auch Wörter wie «these» («diese»), «significant» («signifikant») und «important» («wichtig») tauchen in den Abstracts von 2023 und 2024 öfters auf. Aber auch viel genutzte Wörter wie «potential» («Potenzial»), «findings» («Erkenntnisse») oder «crucial» («entscheidend») erlebten einen Aufschwung.
Ein Zehntel der Abstracts mit ChatGPT verfasst
Die Forscher schliessen aus ihren Zahlen, dass rund zehn Prozent der Abstracts nach 2022 von ChatGPT und anderen LLMs erstellt wurden. Um auf andere Faktoren kontrollieren zu können, verglichen die Wissenschaftler ihre Ergebnisse auch mit dem vermehrten Auftauchen anderer Wörter wie «Pandemie» oder «Ebola» in dieser Zeit.
In ihrer Publikation geben die Wissenschaftler zu, dass die Nutzung solcher Sprachmodelle durchaus Vorteile bringen kann. Sie können die Grammatik, Rhetorik und Lesbarkeit von Texten verbessern. Doch dies sollte nur mit Vorsicht genossen werden: «LLMs sind berüchtigt dafür, Referenzen zu erfinden, ungenaue Zusammenfassungen zu liefern und falsche Behauptungen aufzustellen, die autoritativ und überzeugend klingen.»
Wer also bei der Texterstellung auf künstliche Intelligenz zurückgreift, sollte in Zukunft besser auf solche Begriffe achten. Doch dank der stetigen Verbesserungen an ChatGPT und Co. ist es wahrscheinlich nur eine Frage der Zeit, bis diese selbst der Nutzung solcher überflüssigen Wörter einen Riegel vorschieben.