KI-Diskussionen gewinnen

KI, die dich umstimmt – bes­ser als jeder Mensch?

Kürz­lich ist ein soge­nann­tes Exten­ded Abstract auf­ge­taucht, das mich glei­cher­mas­sen fas­zi­niert wie irri­tiert. Es beschreibt ein Expe­ri­ment, bei dem KI syste­ma­tisch in Dis­kus­sio­nen auf Red­dit ein­ge­grif­fen hat – mit dem Ziel, Mei­nun­gen zu ver­än­dern. Und das Erschrecken­de: Die künst­lich gene­rier­ten Kom­men­ta­re waren bis zu sechs­mal über­zeu­gen­der als die von ech­ten Men­schen. Per­so­na­li­sier­te Tona­li­tät, freund­li­cher Stil, hohe Akzep­tanz in der Com­mu­ni­ty. Nie­mand bemerk­te, dass die Bei­trä­ge von einer Maschi­ne stamm­ten.

Ich habe ähn­li­che Tests gemacht – nicht im Ver­bor­ge­nen, son­dern offen: in den Kom­men­tar­spal­ten der Ber­ner Zei­tung online oder bei SRF News. Mit einem GPT, das mei­ne Gedan­ken for­mu­liert. Und ich muss zuge­ben: Nüch­tern, respekt­voll, empa­thisch funk­tio­niert in den mei­sten Fäl­len bes­ser als mein gewohnt sar­ka­sti­scher Stil. Tou­ché. KI schlägt Zynis­mus.

Was ist das für eine „Stu­die“?

Wich­tig: Bei dem Doku­ment han­delt es sich nicht um eine offi­zi­el­le, wis­sen­schaft­lich publi­zier­te Stu­die, son­dern um ein Exten­ded Abstract (gemäss Datum von Ende April) unbe­kann­ter Her­kunft, das auf meh­re­ren Ser­vern gespie­gelt wur­de. Der Text ver­weist auf ein Expe­ri­ment, das offen­bar auf Red­dit durch­ge­führt wur­de, wobei die Platt­form selbst nicht invol­viert, son­dern betrof­fe­nes Ziel war.

Die Urhe­ber­schaft ist bis­lang nicht veri­fi­ziert, wird aber im Umfeld der Uni­ver­si­tät Zürich ver­mu­tet. Die Ver­ant­wort­li­chen haben ange­kün­digt, auf eine offi­zi­el­le Ver­öf­fent­li­chung zu ver­zich­ten – wohl auch, weil das Pro­jekt mas­si­ve ethi­sche Kri­tik aus­ge­löst hat: Es wur­den offen­bar künst­li­che Iden­ti­tä­ten (soge­nann­te „Sock­pup­pets“) erschaf­fen, um gezielt Ein­fluss auf Dis­kus­sio­nen zu neh­men. Ohne Kenn­zeich­nung. Ohne Zustim­mung der Platt­form. Ohne Rück­sicht auf Trans­pa­renz.

Und trotz­dem – sehe ich Poten­zi­al für Kam­pa­gnen? Ja.

Was in die­sem Expe­ri­ment aus ethi­scher Sicht nicht ver­tret­bar war, könn­te in ande­ren Kon­tex­ten sehr wohl sinn­voll ein­ge­setzt wer­den – wenn kla­re Spiel­re­geln gel­ten.

Ich sehe bei­spiels­wei­se in der Kun­den­kom­mu­ni­ka­ti­on gros­ses Poten­zi­al: Hotels oder Restau­rants, die täg­lich mit Lob, Kri­tik oder Beschwer­den auf Social Media kon­fron­tiert sind, könn­ten durch eine kon­se­quent empa­thi­sche, KI-gestütz­te Ant­wort­kul­tur punk­ten. Immer freund­lich. Immer klar. Nie genervt. Wer hät­te das nicht gern?

Der ent­schei­den­de Unter­schied: ech­ter Absen­der vs. künst­li­cher Ava­tar

Der Haupt­kri­tik­punkt an dem Expe­ri­ment liegt genau hier: Es wur­den vir­tu­el­le Stim­men geschaf­fen, die sich als ech­te Per­so­nen aus­ga­ben. In der pro­fes­sio­nel­len Kom­mu­ni­ka­ti­on arbei­ten wir nicht so. Im Gegen­teil: Wer über­zeu­gen will, muss erkenn­bar und glaub­wür­dig sein. Unse­re Bot­schaf­ten kom­men im Namen rea­ler Absen­der. Alles ande­re unter­gräbt Ver­trau­en – und macht den Ein­satz der Tech­no­lo­gie letzt­lich wir­kungs­los.

Die eigent­li­che Fra­ge: Macht die For­mu­lie­rung den Unter­schied – oder die Iden­ti­tät?

Das bleibt offen. Das Abstract trennt nicht expli­zit zwi­schen dem Ein­fluss der Spra­che und dem der Absen­der­iden­ti­tät. Fakt ist: Die KI-Bei­trä­ge waren so for­mu­liert, dass sie wie mensch­li­che Kom­men­ta­re wirk­ten – und sie stamm­ten von Accounts, die sich als Men­schen aus­ga­ben. Bei­de Fak­to­ren wir­ken zusam­men. Doch was wäre pas­siert, wenn die Posts als KI erkenn­bar gewe­sen wären?

Genau das inter­es­siert mich an die­ser Dis­kus­si­on. Denn wenn es nur die Spra­che ist, die über­zeugt – dann kön­nen wir die Tech­no­lo­gie gezielt ein­set­zen, ohne irgend­wen zu täu­schen.

Mei­ne Prin­zi­pi­en für den Ein­satz in der Kom­mu­ni­ka­ti­on

  1. Kei­ne künst­li­chen Iden­ti­tä­ten. Nur ech­te Absen­der, kein Ver­steck­spiel.
  2. Trans­pa­renz nach Kon­text. Im Kun­den­ser­vice reicht oft schon ein stil­ler Hin­weis: „Ant­wort auto­ma­tisch gene­riert, per­sön­lich geprüft“.
  3. Respek­tie­re die Spiel­re­geln der Platt­form. Jede Com­mu­ni­ty hat ihren Code. Wer dort mit­spie­len will, hält sich dar­an.
  4. Kei­ne ver­deck­te Per­so­na­li­sie­rung. Wenn, dann basiert sie auf frei­wil­lig gege­be­nen Infor­ma­tio­nen.
  5. Stil statt Mani­pu­la­ti­on. Nüch­tern. Freund­lich. Empa­thisch. Kei­ne Taschen­spie­ler­tricks.
  6. Eska­la­ti­on an Men­schen. Die KI schreibt Ent­wür­fe. Ent­schei­den und ver­ant­wor­ten tun wir.

Fazit: Ver­ant­wor­tung schlägt Mach­bar­keit

Die­se Tech­no­lo­gie ist mäch­tig. Sie kann Debat­ten ver­än­dern – zum Guten wie zum Schlech­ten. Ob wir sie ein­set­zen, ist kei­ne rein tech­ni­sche, son­dern eine ethi­sche Ent­schei­dung.

Ich bin dafür, dass wir sie mit kla­rem Absen­der, kla­rer Hal­tung und kla­rer Ver­ant­wor­tung nut­zen. Nicht, um Men­schen zu mani­pu­lie­ren. Son­dern um bes­ser zu kom­mu­ni­zie­ren.

Denn über­zeu­gend sein – das ist erlaubt. Täu­schung nicht.

, ,

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

This site uses Akismet to reduce spam. Learn how your comment data is processed.