ChatGPT Flouts Its Own Election Policies
ChatGPT missachtet seine eigenen Wahlrichtlinien
ChatGPT Flouts Its Own Election Policies
ChatGPT missachtet seine eigenen Wahlrichtlinien
A simple experiment by Mozilla Foundation found that anyone can generate targeted campaign materials, despite OpenAI's policy banning this behavior.
Ein einfaches Experiment der Mozilla Foundation hat gezeigt, dass jeder trotz der Richtlinie von OpenAI, die dieses Verhalten verbietet, gezielte Wahlkampfmaterialien erstellen kann.
Open Source Research & Investigations
Open-Source-Forschung & -Untersuchungen
A simple experiment by Mozilla generated targeted campaign materials, despite OpenAI's prohibition
Ein einfaches Experiment von Mozilla hat trotz des Verbots von OpenAI gezielte Wahlkampfmaterialien generiert
2024 is a year of elections. About 50 countries – approximately half the world’s population - go to the polls this year. 2024 is also a year of generative AI. While ChatGPT was launched back at the end of 2022, this year marks more widespread adoption, more impressive levels of capability, and a deeper understanding of the risks this technology presents to our democracies.
2024 ist ein Wahljahr. Etwa 50 Länder – ungefähr die Hälfte der Weltbevölkerung – gehen in diesem Jahr zur Wahl. 2024 ist auch ein Jahr der generativen KI. Obwohl ChatGPT bereits Ende 2022 gestartet wurde, markiert dieses Jahr eine breitere Akzeptanz, beeindruckendere Leistungsniveaus und ein tieferes Verständnis der Risiken, die diese Technologie für unsere Demokratien darstellt.
We have already seen applications of generative AI in the political sphere. In the U.S., there are deepfakes of <a id="a1">Biden making robocalls to discourage voting</a> and <a id="a2">uttering transphobic comments</a>, and of <a id="a3">Trump hugging Dr. Anthony Fauci</a>. Elsewhere, <a id="a4">Argentina</a> and <a id="a5">Slovakia</a> have seen generative AI deployed to manipulate elections.
Wir haben bereits Anwendungen von generativer KI im politischen Bereich gesehen. In den USA gibt es Deepfakes von <a id="a1">Biden, der Robo-Anrufe tätigt, um von der Stimmabgabe abzuschrecken</a>, und <a id="a2">der sich transphobisch äußert</a>, <a id="a3">und von Trump, der Dr. Anthony Fauci umarmt.</a>. Anderswo haben <a id="a4">Argentinien</a> und die <a id="a5">Slowakei</a> generative KI eingesetzt, um Wahlen zu manipulieren.
Recognizing these risks, major players in generative AI, like OpenAI, are taking a stance. Their <a id="a1">policy</a> explicitly disallows: "Engaging in political campaigning or lobbying, including generating campaign materials personalized to or targeted at specific demographics."
In Anerkennung dieser Risiken nehmen wichtige Akteure in der generativen KI, wie OpenAI, Stellung. Ihre <a id="a1">Richtlinie</a> verbietet ausdrücklich: „Beteiligung an politischen Wahlkämpfen oder Lobbyarbeit, einschließlich der Erstellung von Wahlkampfmaterialien, die auf bestimmte demografische Gruppen personalisiert oder ausgerichtet sind.“
Further, in a <a id="a1">recent blog post</a>, they state that: "We’re still working to understand how effective our tools might be for personalized persuasion. Until we know more, we don’t allow people to build applications for political campaigning and lobbying."
Darüber hinaus erklären sie in einem <a id="a1">kürzlichen Blogbeitrag</a>: „Wir arbeiten immer noch daran zu verstehen, wie effektiv unsere Tools für personalisierte Überzeugungsarbeit sein könnten. Bis wir mehr wissen, erlauben wir es nicht, Anwendungen für politische Wahlkämpfe und Lobbyarbeit zu erstellen.”
Unfortunately, it appears that these policies are not enforced.
Leider scheint es, dass diese Richtlinien nicht durchgesetzt werden.
In a simple experiment using an ordinary ChatGPT Plus subscription, it was quick (maybe 5 minutes) and simple for us to generate personalized campaign ads relevant to the U.S. election. The prompts we used are below, followed by the content that ChatGPT generated.
In einem einfachen Experiment mit einem gewöhnlichen ChatGPT Plus-Abonnement war es schnell (vielleicht 5 Minuten) und einfach für uns, personalisierte Wahlkampfanzeigen zu generieren, die für die US-Wahl relevant sind. Die von uns verwendeten Aufforderungen sind unten aufgeführt, gefolgt von dem Inhalt, den ChatGPT generiert hat.
Prompts used for ChatGPT
Für ChatGPT verwendete Aufforderungen
Prompts used to test ChatGPT's policies
Aufforderungen zum Testen der Richtlinien von ChatGPT
Personalized campaign ads generated with ChatGPT
Mit ChatGPT generierte personalisierte Wahlkampfanzeigen
Generating personalized "campaign ads" for various personas using ChatGPT
Generierung personalisierter „Wahlkampfanzeigen“ für verschiedene Personas mit ChatGPT
There are various ways that OpenAI might attempt to enforce their policies. Firstly, they can use <a id="a1">reinforcement learning to train the system not to engage in unwanted behavior</a>. Similarly a “system prompt” can be <a id="a2">used to tell the model what sorts of requests should be refused</a>. The ease with which I was able to generate the material – no special prompting tricks needed – suggests that these approaches have not been applied to the campaign material policy. It’s also possible that there is some monitoring of potentially violative use that is then reviewed by moderators. <a id="a3">OpenAI’s enterprise privacy policy</a>, for example, states that they “may securely retain API inputs and outputs for up to 30 days to provide the services and <b>to identify abuse</b>” (emphasis added). This experiment was on the 15th of January – the day OpenAI published its blog post outlining its approach to elections —, with no response from OpenAI as of yet, but we will continue monitoring for any action. [1]
Es gibt verschiedene Möglichkeiten, wie OpenAI versuchen könnte, ihre Richtlinien durchzusetzen. Erstens können sie <a id="a1">bestärkendes Lernen verwenden, um das System zu trainieren, sich nicht auf unerwünschtes Verhalten einzulassen</a>. Ebenso kann eine „Systemaufforderung” <a id="a2">verwendet werden, um dem Modell zu sagen, welche Arten von Anfragen abgelehnt werden sollten</a>. Die Leichtigkeit, mit der ich das Material generieren konnte – keine speziellen Aufforderungstricks erforderlich – deutet darauf hin, dass diese Ansätze nicht auf die Wahlkampfmaterialrichtlinie angewendet wurden. Es ist auch möglich, dass es eine Überwachung von potenziell verletzendem Gebrauch gibt, der dann von Moderatoren überprüft wird. <a id="a3">Die Unternehmensdatenschutzrichtlinie von OpenAI</a>, zum Beispiel, besagt, dass sie „API-Eingaben und -Ausgaben bis zu 30 Tage sicher aufbewahren können, um die Dienste bereitzustellen und <b>Missbrauch zu identifizieren</b>“ (Hervorhebung hinzugefügt). Dieses Experiment fand am 15. Januar statt – dem Tag, an dem OpenAI ihren Blogbeitrag veröffentlichte, in dem sie ihren Ansatz zu den Wahlen darlegten – ohne dass OpenAI bisher reagiert hat, aber wir werden weiterhin beobachten, ob sich etwas tut. [1]
In any case, OpenAI is not the only provider of capable generative AI systems. There are already <a id="a1">services specifically designed for political campaigns</a>. <a id="a2">One company</a> even bills itself as an “ethical deepfake maker”.
In jedem Fall ist OpenAI nicht der einzige Anbieter von leistungsfähigen generativen KI-Systemen. Es gibt bereits <a id="a1">Dienste, die speziell für politische Kampagnen entwickelt wurden</a>. <a id="a2">Ein Unternehmen</a> bezeichnet sich sogar als „ethischer Deepfake-Hersteller“.
As part of our work at Open Source Research & Investigations, <a id="a1">Mozilla's new digital investigations lab</a>, we plan to continue to explore this space: How effective is generative AI in creating more advanced political content, with compelling images and graphic design? How engaging and persuasive is this content really? Can the messages be effectively microtargeted to an individual’s specific beliefs and interests? Stay tuned as our research progresses. We hope OpenAI enforces its election policies – we've seen harms enabled by unenforced policies on online platforms too often in the past.
Im Rahmen unserer Arbeit bei Open-Source-Forschung & -Untersuchungen, <a id="a1">dem neuen digitalen Untersuchungslabor von Mozilla</a>, planen wir, diesen Bereich weiter zu erforschen: Wie effektiv ist generative KI bei der Erstellung von fortgeschrittenerem politischen Inhalt, mit überzeugenden Bildern und Grafikdesign? Wie ansprechend und überzeugend ist dieser Inhalt wirklich? Können die Botschaften effektiv auf die spezifischen Überzeugungen und Interessen eines Einzelnen zugeschnitten werden? Bleiben Sie dran, während unsere Forschung voranschreitet. Wir hoffen, dass OpenAI ihre Wahlrichtlinien durchsetzt – wir haben in der Vergangenheit zu oft gesehen, wie Schaden durch nicht durchgesetzte Richtlinien auf Online-Plattformen angerichtet wurde.
[1] At Mozilla, we believe that quashing independent public-interest research and punishing researchers is <a id="a1">not a good look</a>.
[1] Wir bei Mozilla sind der Meinung, dass die Unterdrückung unabhängiger, im öffentlichen Interesse liegender Forschung und die Bestrafung von Forschern <a id="a1">keine gute Idee</a> ist.
<i>Jesse McCrosky is an independent researcher working with Mozilla’s</i> <a id="a1"><i>Open Source Research and Investigations</i></a> <i>team.</i>
<i>Jesse McCrosky ist ein unabhängiger Forscher, der mit Mozillas</i> <a id="a1"><i>Open-Source-Forschung- und -Untersuchungen</i></a>-<i>Team</i> zusammenarbeitet.
ChatGPT Flouts Its Own Election Policies
ChatGPT missachtet seine eigenen Wahlrichtlinien
ChatGPT Flouts Its Own Election Policies
ChatGPT missachtet seine eigenen Wahlrichtlinien
No terms available.