Pressemitteilung Nr. 39 | 21. September 2023

KI, ChatGPT und die Wissenschaften – DFG formuliert Leitlinien für Umgang mit generativen Modellen zur Text- und Bilderstellung

Stellungnahme des Präsidiums / Gute wissenschaftliche Praxis als Richtschnur / Einsatz transparent offenlegen / In Förderanträgen zulässig, in Gutachten unzulässig

Die Deutsche Forschungsgemeinschaft (DFG) hat erste Leitlinien für den Umgang mit generativen Modellen für die Text- und Bilderstellung formuliert. Eine jetzt veröffentlichte Stellungnahme des Präsidiums der größten Forschungsförderorganisation und zentralen Selbstverwaltungseinrichtung für die Wissenschaft in Deutschland beleuchtet den Einfluss von ChatGPT und anderen generativen KI-Modellen auf die Wissenschaften und das Förderhandeln der DFG. Als Ausgangspunkt einer kontinuierlichen Begleitung soll das Papier sowohl Wissenschaftlerinnen und Wissenschaftlern in ihrer Arbeit als auch Antragstellenden bei der DFG sowie den am Begutachtungs-, Bewertungs- und Entscheidungsprozess beteiligten Personen eine Orientierung bieten.

Nach Ansicht des DFG-Präsidiums verändern KI-Technologien bereits jetzt den gesamten wissenschaftlichen, erkenntnisgewinnenden und kreativen Arbeitsprozess in erheblichem Maße und werden in den verschiedenen Wissenschaftsbereichen in vielfältiger, wenn auch unterschiedlicher Weise eingesetzt. Gerade bei generativen Modellen zur Text- und Bilderstellung stehe diese Entwicklung erst am Anfang.

„Der Einsatz generativer Modelle im Rahmen des wissenschaftlichen Arbeitens sollte angesichts der erheblichen Chancen und Entwicklungspotenziale keinesfalls ausgeschlossen werden“, heißt es in dem Papier: „Ihr Einsatz erfordert jedoch bestimmte verbindliche Rahmenbedingungen, um die gute wissenschaftliche Praxis und die Qualität wissenschaftlicher Ergebnisse zu sichern.“ Grundlegend seien auch hier die allgemein in den Wissenschaften etablierten Standards guter wissenschaftlicher Praxis.

An konkreten Leitlinien formuliert das DFG-Präsidium, dass Wissenschaftlerinnen und Wissenschaftler bei der öffentlichen Zugänglichmachung ihrer Ergebnisse offenlegen sollten, ob und welche generativen Modelle sie zu welchem Zweck und in welchem Umfang eingesetzt haben. Dies schließt auch Förderanträge bei der DFG mit ein. Der Einsatz solcher Modelle entbinde die Forschenden dabei nicht von ihrer eigenen inhaltlichen und formalen Verantwortung für die Einhaltung der Grundprinzipien wissenschaftlicher Integrität.

In wissenschaftlichen Publikationen könnten nur die verantwortlich handelnden natürlichen Personen als Autorinnen und Autoren in Erscheinung treten, stellt das Papier fest. „Sie müssen sicherstellen, dass durch die Verwendung generativer Modelle kein fremdes geistiges Eigentum verletzt wird und kein wissenschaftliches Fehlverhalten etwa in Form von Plagiaten entsteht“, heißt es weiter.

Im Rahmen der Antragstellung bei der DFG soll der Einsatz generativer Modelle auf der Grundlage dieser Prinzipien zulässig sein. Bei der Erstellung von Gutachten hingegen sei der Einsatz mit Blick auf die Vertraulichkeit des Begutachtungsverfahrens unzulässig, stellt das Papier fest und führt weiter aus: „Zur Begutachtung bereitgestellte Unterlagen sind vertraulich und dürfen insbesondere nicht als Eingabe für generative Modelle genutzt werden.“

Hinweise an die Antragstellenden und an die am Urteilsbildungsprozess beteiligten Personen werden derzeit in der Geschäftsstelle der DFG in die entsprechenden Dokumente und technischen Systeme überführt.

Anknüpfend an diese ersten Leitlinien will die DFG in einem fortlaufenden Prozess die Chancen und möglichen Risiken des Einsatzes generativer Modelle in den Wissenschaften und in ihrem eigenen Förderhandeln analysieren und bewerten. Eine Arbeitsgruppe „Digitaler Wandel“ des DFG-Senats soll sich dabei mit übergreifenden epistemischen und fachspezifischen Fragen befassen. Mögliche Auswirkungen auf Tatbestände wissenschaftlichen Fehlverhaltens sollen in der Kommission zur Überarbeitung der DFG-Verfahrensordnung zum Umgang mit wissenschaftlichem Fehlverhalten thematisiert werden. Auch mit weiteren Stellungnahmen will die DFG zu einem „diskursiven und wissenschaftsbasierten Prozess“ beim Einsatz generativer Modelle beitragen.

Weiterführende Informationen

Medienkontakt:

  • Marco Finetti
    Leiter Presse- und Öffentlichkeitsarbeit der DFG
    Tel. +49 228 885-2109

Ansprechpersonen in der DFG-Geschäftsstelle:

Der Wortlaut der Stellungnahme findet sich im Internetangebot der DFG unter

Weitere Informationen zur Senats-AG Digitaler Wandel

Hinweis (23.10.2024): gegenüber der ursprünglichen Fassung wurden die Angaben zu den Ansprechpersonen in der DFG-Geschäftsstelle aufgrund veränderter personeller Zuständigkeiten angepasst.