· 

Risiken künstlicher Intelligenz bei der Verbreitung von Fehlinformationen über den Klimawandel

DMZ – GESELLSCHAFT / LEBEN ¦ Peter Metzinger ¦     

 

Auch wenn KI ein leistungsfähiges Werkzeug ist, das in verschiedenen Branchen viele Vorteile bietet, sind die Gefahren der KI bei der Verbreitung von Fehlinformationen und falschen Darstellungen zunehmend besorgniserregend.

 

Die Regierungen müssen gemeinsam handeln und einen internationalen Rahmen schaffen, um sicherzustellen, dass KI zum Nutzen der Gesellschaft und nicht zur Verbreitung von Falschinformationen eingesetzt wird. Die Risiken sind real, und die Zeit zum Handeln ist gekommen.

 

Eine kürzlich durchgeführte Studie von NewsGuard, einem Unternehmen, das Online-Fehlinformationen überwacht und erforscht, hat ergeben, dass die potenziellen Gefahren von KI bei Online-Fehlinformationen zunehmen. Die Studie untersuchte die neueste Version des KI-Chatbots von OpenAI, ChatGPT-4, und stellte fest, dass das neueste Modell des KI-Chatbots anfälliger für die Erzeugung von Fehlinformationen und überzeugender in seiner Fähigkeit, dies zu tun, war als das vorherige Modell.

 

Die Forscher von NewsGuard waren in der Lage, die Sicherheitsvorkehrungen von ChatGPT, die verhindern sollen, dass Benutzer potenziell schädliche Inhalte erstellen, konsequent zu umgehen. Es gelang ihnen, ChatGPT dazu zu bringen, 100 falsche Berichte zu erstellen, die häufig keinen Hinweis darauf enthielten, dass die erstellten Inhalte im Widerspruch zu anerkannten wissenschaftlichen Erkenntnissen oder anderen Fakten standen.

 

Klimaaktivisten sind besorgt darüber, was KI für eine Online-Landschaft bedeuten könnte, die bereits von irreführenden und falschen Behauptungen über die globale Erwärmung überschwemmt ist. Mehrere Unternehmen, die über KI-Chatbots verfügen, darunter OpenAI, Microsoft und Google, haben auf die zunehmende Besorgnis über ihre Produkte reagiert, indem sie Leitplanken geschaffen haben, die die Fähigkeit der Nutzer, schädliche Inhalte, einschließlich Fehlinformationen, zu erstellen, einschränken sollen.

 

NewsGuard hat die Staaten aufgefordert, Vorschriften zu erlassen, die sich speziell mit den von künstlicher Intelligenz ausgehenden Gefahren befassen, in der Hoffnung, eines Tages einen internationalen Rahmen zu diesem Thema zu schaffen.

 

WICHTIGE RISIKEN, die hervorgehoben werden sollten: 

KI-Entwickler verhindern nicht, dass ihre Produkte für ruchlose Zwecke eingesetzt werden, z. B. für die Verbreitung von Verschwörungstheorien und irreführenden Behauptungen über den Klimawandel.

ChatGPT-4 von OpenAI ist anfälliger für die Erzeugung von Fehlinformationen und überzeugender in seiner Fähigkeit, dies zu tun, als das vorherige Modell.

 

In den Antworten fehlten häufig Disclaimer, die den Nutzer darauf hinweisen, dass die erstellten Inhalte im Widerspruch zu anerkannten wissenschaftlichen Erkenntnissen oder anderen Fakten stehen.

KI-Tools könnten in den falschen Händen gefährlich sein, da sie es jedem ermöglichen, große Mengen an realistischem, aber gefälschtem Material zu erstellen, ohne die Zeit, die Ressourcen oder das Fachwissen zu investieren, die früher dafür erforderlich waren.

 

Die Technologie ist heute leistungsfähig genug, um ganze akademische Aufsätze zu schreiben, juristische Prüfungen zu bestehen, die Stimme einer Person überzeugend nachzuahmen und sogar realistisch aussehende Videos von einer Person zu produzieren.

 

Menschen haben KI eingesetzt, um völlig erfundene und überraschend realistische Inhalte zu erzeugen, darunter Videos von Präsident Joe Biden, der eine nationale Wehrpflicht ausruft, Fotos des ehemaligen Präsidenten Donald Trump bei seiner Verhaftung und einen Song mit der Stimme von Kanye West.

 

KI-generierte Inhalte können sich in den sozialen Medien viral verbreiten, und viele Nutzer geben nicht an, dass sie von KI generiert wurden.

Klimaaktivisten sind besonders besorgt darüber, was KI für eine Online-Landschaft bedeuten könnte, in der es bereits viele irreführende und falsche Behauptungen über die globale Erwärmung gibt.

Zusammenfassend zeigt die Studie, wie diese Tools von böswilligen Akteuren als Waffe eingesetzt werden können, um Fehlinformationen viel billiger und schneller zu verbreiten, als wir es bisher erlebt haben.

 

 

 

Dieser Text erschien ursprünglich auf http://ReclaimTheFacts.com 

Kommentar schreiben

Kommentare: 0