· 

Täuschend echt: KI-Chatbot generiert gefälschte Daten für wissenschaftliche Hypothese

DMZ –  KI  ¦ Anton Aeberhard ¦                  

 

Nature berichtet über eine beunruhigende Entwicklung, bei der Forscher die Technologie des KI-Chatbots ChatGPT verwendet haben, um einen gefälschten klinischen Datensatz zu erstellen und damit eine nicht verifizierte wissenschaftliche Behauptung zu untermauern. Diese wegweisende Studie wirft nicht nur grundlegende Fragen zur Forschungsethik auf, sondern hebt auch die Fähigkeit der Künstlichen Intelligenz (KI) hervor, überzeugende gefälschte Datensätze zu generieren.

 

Die Forscher verwendeten GPT-4, die neueste Version des großen Sprachmodells hinter ChatGPT, in Verbindung mit Advanced Data Analysis (ADA). ADA integriert die Programmiersprache Python und kann statistische Analysen durchführen sowie Datenvisualisierungen erstellen. Die KI-generierten Daten verglichen die Ergebnisse zweier chirurgischer Verfahren und suggerierten fälschlicherweise, dass eine Behandlung besser sei als die andere.

 

Die Auswirkungen auf die Forschungsethik

Die Möglichkeit von KI, überzeugend gefälschte Datensätze zu erstellen, verstärkt die Besorgnis unter Forschern und Herausgebern von Fachzeitschriften hinsichtlich der Forschungsintegrität. Diese Entwicklung stellt eine neue Stufe der Sorge dar, da es Forschern ermöglicht wird, in großem Umfang gefälschte Messungen durchzuführen, sei es bei nicht existierenden Patienten oder in Tierexperimenten.

 

Die Entlarvung des Betrugs

Obwohl die Autoren ihre Ergebnisse als "scheinbar authentische Datenbank" beschreiben, ergab eine forensische Untersuchung, dass die Daten gefälscht waren. Spezialisten entdeckten Auffälligkeiten, die auf die künstliche Herkunft der Daten hinwiesen.

 

Ein kritischer Blick auf die Methoden

Die Forscher beauftragten GPT-4 ADA, einen Datensatz zu erstellen, der die Annahme stützen sollte, dass ein bestimmtes chirurgisches Verfahren bessere Ergebnisse liefert als ein alternatives Verfahren. Das AI-generierte Material enthielt jedoch Fehler, die bei genauer Überprüfung aufgedeckt wurden. Kritische Elemente wie inkorrekte Zuordnung von Geschlecht, fehlende Korrelationen und ungewöhnliche Altersverteilungen wurden identifiziert.

 

Die Studie hebt die drängende Notwendigkeit hervor, Forschungspraktiken zu überdenken und Mechanismen zu implementieren, die die Authentizität von Daten gewährleisten. Die Autoren betonen, dass diese Entwicklung nicht nur die Rolle von Peer-Reviews infrage stellt, sondern auch einen Appell an Fachzeitschriften richtet, ihre Qualitätskontrollen zu aktualisieren und KI-basierte synthetische Daten zu identifizieren.

 

Die Forschungsgemeinschaft wird vor die Herausforderung gestellt, Werkzeuge zu entwickeln, um potenziell problematische Studien zu bewerten. Während einige KI-basierte Lösungen in Erwägung gezogen werden, warnt man vor dem Risiko, dass fortschreitende generative KI neue Möglichkeiten bietet, diese Überprüfungsprotokolle zu umgehen. Ein Konsens besteht darin, dass die Wachsamkeit gegenüber KI-Manipulationen in der wissenschaftlichen Forschung erhöht werden muss, um die Integrität des Forschungsprozesses zu schützen.

Inhalte von Powr.io werden aufgrund deiner aktuellen Cookie-Einstellungen nicht angezeigt. Klicke auf die Cookie-Richtlinie (Funktionell und Marketing), um den Cookie-Richtlinien von Powr.io zuzustimmen und den Inhalt anzusehen. Mehr dazu erfährst du in der Powr.io-Datenschutzerklärung.
Kommentare: 0