KI, die dich umstimmt – besser als jeder Mensch?
Kürzlich ist ein sogenanntes Extended Abstract aufgetaucht, das mich gleichermassen fasziniert wie irritiert. Es beschreibt ein Experiment, bei dem KI systematisch in Diskussionen auf Reddit eingegriffen hat – mit dem Ziel, Meinungen zu verändern. Und das Erschreckende: Die künstlich generierten Kommentare waren bis zu sechsmal überzeugender als die von echten Menschen. Personalisierte Tonalität, freundlicher Stil, hohe Akzeptanz in der Community. Niemand bemerkte, dass die Beiträge von einer Maschine stammten.
Ich habe ähnliche Tests gemacht – nicht im Verborgenen, sondern offen: in den Kommentarspalten der Berner Zeitung online oder bei SRF News. Mit einem GPT, das meine Gedanken formuliert. Und ich muss zugeben: Nüchtern, respektvoll, empathisch funktioniert in den meisten Fällen besser als mein gewohnt sarkastischer Stil. Touché. KI schlägt Zynismus.

Was ist das für eine „Studie“?
Wichtig: Bei dem Dokument handelt es sich nicht um eine offizielle, wissenschaftlich publizierte Studie, sondern um ein Extended Abstract (gemäss Datum von Ende April) unbekannter Herkunft, das auf mehreren Servern gespiegelt wurde. Der Text verweist auf ein Experiment, das offenbar auf Reddit durchgeführt wurde, wobei die Plattform selbst nicht involviert, sondern betroffenes Ziel war.
Die Urheberschaft ist bislang nicht verifiziert, wird aber im Umfeld der Universität Zürich vermutet. Die Verantwortlichen haben angekündigt, auf eine offizielle Veröffentlichung zu verzichten – wohl auch, weil das Projekt massive ethische Kritik ausgelöst hat: Es wurden offenbar künstliche Identitäten (sogenannte „Sockpuppets“) erschaffen, um gezielt Einfluss auf Diskussionen zu nehmen. Ohne Kennzeichnung. Ohne Zustimmung der Plattform. Ohne Rücksicht auf Transparenz.
Und trotzdem – sehe ich Potenzial für Kampagnen? Ja.
Was in diesem Experiment aus ethischer Sicht nicht vertretbar war, könnte in anderen Kontexten sehr wohl sinnvoll eingesetzt werden – wenn klare Spielregeln gelten.
Ich sehe beispielsweise in der Kundenkommunikation grosses Potenzial: Hotels oder Restaurants, die täglich mit Lob, Kritik oder Beschwerden auf Social Media konfrontiert sind, könnten durch eine konsequent empathische, KI-gestützte Antwortkultur punkten. Immer freundlich. Immer klar. Nie genervt. Wer hätte das nicht gern?
Der entscheidende Unterschied: echter Absender vs. künstlicher Avatar
Der Hauptkritikpunkt an dem Experiment liegt genau hier: Es wurden virtuelle Stimmen geschaffen, die sich als echte Personen ausgaben. In der professionellen Kommunikation arbeiten wir nicht so. Im Gegenteil: Wer überzeugen will, muss erkennbar und glaubwürdig sein. Unsere Botschaften kommen im Namen realer Absender. Alles andere untergräbt Vertrauen – und macht den Einsatz der Technologie letztlich wirkungslos.
Die eigentliche Frage: Macht die Formulierung den Unterschied – oder die Identität?
Das bleibt offen. Das Abstract trennt nicht explizit zwischen dem Einfluss der Sprache und dem der Absenderidentität. Fakt ist: Die KI-Beiträge waren so formuliert, dass sie wie menschliche Kommentare wirkten – und sie stammten von Accounts, die sich als Menschen ausgaben. Beide Faktoren wirken zusammen. Doch was wäre passiert, wenn die Posts als KI erkennbar gewesen wären?
Genau das interessiert mich an dieser Diskussion. Denn wenn es nur die Sprache ist, die überzeugt – dann können wir die Technologie gezielt einsetzen, ohne irgendwen zu täuschen.
Meine Prinzipien für den Einsatz in der Kommunikation
- Keine künstlichen Identitäten. Nur echte Absender, kein Versteckspiel.
- Transparenz nach Kontext. Im Kundenservice reicht oft schon ein stiller Hinweis: „Antwort automatisch generiert, persönlich geprüft“.
- Respektiere die Spielregeln der Plattform. Jede Community hat ihren Code. Wer dort mitspielen will, hält sich daran.
- Keine verdeckte Personalisierung. Wenn, dann basiert sie auf freiwillig gegebenen Informationen.
- Stil statt Manipulation. Nüchtern. Freundlich. Empathisch. Keine Taschenspielertricks.
- Eskalation an Menschen. Die KI schreibt Entwürfe. Entscheiden und verantworten tun wir.
Fazit: Verantwortung schlägt Machbarkeit
Diese Technologie ist mächtig. Sie kann Debatten verändern – zum Guten wie zum Schlechten. Ob wir sie einsetzen, ist keine rein technische, sondern eine ethische Entscheidung.
Ich bin dafür, dass wir sie mit klarem Absender, klarer Haltung und klarer Verantwortung nutzen. Nicht, um Menschen zu manipulieren. Sondern um besser zu kommunizieren.
Denn überzeugend sein – das ist erlaubt. Täuschung nicht.




Schreiben Sie einen Kommentar