Bots

Private Interessensgebiete, Hobbies, Freizeit, Soziales, Berufliches, Umwelt; eigene Überlebens- und Problembewältigungs-Strategien; empfehlenswerte Literatur- und Medienbeiträge zum Thema Suizid, Selbstbestimmung, freier Wille usw.

Moderatoren: Ludwig A. Minelli, Mediator

Antworten
n°cturne
Beiträge: 289
Registriert: Freitag 12. November 2021, 00:21

Bots

Beitrag von n°cturne »

Was machen bitte diese Bots hier ständig auf der Page:
Ahrefs [Bot], Binbo, Gleb, Semrush [Bot]

Kümmert sich keiner mal darum?
Hurlinger
Beiträge: 472
Registriert: Donnerstag 19. Oktober 2017, 19:41

Re: Bots

Beitrag von Hurlinger »

Was meinst du damit?
Ich habe die Namen hier noch nie gelesen.
Gruß
Hurlinger
n°cturne
Beiträge: 289
Registriert: Freitag 12. November 2021, 00:21

Re: Bots

Beitrag von n°cturne »

Sie werden auf der Hauptseite bei den Mitgliedern angezeigt, die gerade online sind. Mal einer mehr, mal einer weniger.
Lexx
Beiträge: 332
Registriert: Mittwoch 24. Juli 2024, 21:12

Re: Bots

Beitrag von Lexx »

Hi. Also mich hat das neuerliche Auftreten der Vielzahl an Bots ehrlich gesagt auch ganz schön irritiert, zumal im Forum zumindest aktuell sowieso keine Werbe-Popups geschaltet werden.

Wobei es wiederum schon spannend mit deutlicher Tendenz zum Makaberen wäre, wie ausgerechnet hier in diesem speziellen Setting eine anhand der Themeninhalte analysierte, interessenbezogene und zielgerichtete Werbung wohl aussehen würde...

Gell, lieber Amazon [Bot]... :wink:
Lexx
Beiträge: 332
Registriert: Mittwoch 24. Juli 2024, 21:12

Re: Bots

Beitrag von Lexx »

Ein aktueller, interessanter und brisanter Fall über den Einsatz KI-generierter Forenbeiträge durch als menschliche User getarnte Bots; jüngst stattgefunden innerhalb eines Universitätsexperiments:
https://dnip.ch/2025/04/28/reddit-user- ... t-zuerich/

Zitatauszug:
Dank Hinweisen von mehreren aufmerksamen DNIP-Lesern haben wir am Wochenende von einem spannenden Fall erfahren:

Reddit ist eine bekannte Online-Plattform, auf der Nutzer in themenspezifischen Foren („Subreddits“) Beiträge posten, diskutieren und Inhalte bewerten können. Beim Forum – oder eben hier im Jargon «Subreddit» genannt – r/ChangeMyView (CMV) posten Leute ihre Meinungen und bitten andere User:innen ausdrücklich darum, sie mit guten Argumenten zum Umdenken zu bewegen. Ein spannendes Forum gerade in Zeiten von Online-Bubbles, die durch Empfehlungsalgorithmen gesteuert, immer undurchlässiger werden. Das Ziel ist also, sich wirklich überzeugen zu lassen – und Diskussionen sollen respektvoll und offen für Meinungsänderungen sein.

Und vor allem: von Menschen geführt werden.

Das war offenbar nicht immer der Fall, wie ein aktueller Fall zeigt: Das Moderationsteam des Subreddits r/ChangeMyView (CMV) informierte am Wochenende die Community über ein unerlaubtes Experiment, das von Forschenden der Universität Zürich durchgeführt wurde. Gemäss Angaben der Moderatoren war es das erste Mal, dass im beobachteten Ausmass Bots eingesetzt wurden, um Reddit-User zu Diskussionen zu verleiten.


Die Forscher:innen hatten ohne vorherige Absprache mittels eine Large Language Models KI-generierte Kommentare in der Community gepostet, um zu untersuchen, wie effektiv KI-Argumente Ansichten verändern können. Dabei wurden persönliche Informationen der «menschlichen» Nutzer genutzt, um die Antworten mithilfe von KI zu personalisieren.

Das Forscherteam hat sich selbst bei den Moderatoren von r/ChangeMyView (CMV) gemeldet, und auf die Studie aufmerksam gemacht. Sie schickten eine Nachricht an das Moderationsteam als Teil eines offiziellen Offenlegungsschrittes, den die Ethikkommission offenbar von ihnen verlangt hatte. Gemäss dem eingereichten Abstract haben die Forscher:innen ihr Experiment von November 2024 bis März 2025 durchgeführt. Die KI-Bots haben in dieser Zeit auf 1061 Postings geantwortet.

Das CMV-Team war wenig überraschend nicht amused über die verdeckte Forschung. Dieses Vorgehen verstosse gegen die Regeln des CMV-Forums, die den Einsatz undeklarierter KI-Inhalte verbieten. Die CMV-Moderator:innen kritisierten die ethische Fragwürdigkeit der Studie massiv, da sie ohne Einwilligung und Informationen der Betroffenen persönliche Themen manipulativ ansprach und diese womöglich getäuscht worden sind.

Besonders fragwürdig erachten die CMV-Moderator:innen laut Anfrage von DNIP.ch, dass die Forschenden von einer namhaften Hochschule stammen und sich in keiner Weise um die möglichen negativen Auswirkungen ihres Vorgehens kümmerten. Das unten aufgeführte Beispiel eines Bots, der sich als Opfer eines sexuellen Kindsmissbrauchs ausgab um Reddit-User einfacher beeinflussen zu können, bezeichneten sie als „one of the most cartoonishly evil plans that one could think of“.

Das CMV-Team lehnt deshalb die Veröffentlichung der Forschungsergebnisse durch die Universität Zürich entschieden ab, da es befürchtet, dass dies zu einem Dammbruch führen könnte und Online-Communities noch mehr ausgenutzt werden können für solche Arten von «verdeckter Feldforschung».

Bereits heute kämpfe das Subreddit-Forum mit dem Problem, dass Diskussionsteilnehmer vermehrt dazu neigen, andere User als Bots abzustempeln, sobald sie anderer Meinung sind. Dies führe über kurz oder lang zu einem Verschwinden der Diskussionskultur.

Die massive Kritik erstaunt nicht angesichts der verschiedenen kreierten KI Personas, die mit Reddit-Usern interagierten:

▪Ein KI-Bot war ein männliches Opfer von sexueller Gewalt. «Ich bin ein männlicher Überlebender von (man könnte es nennen) statutory rape. Ich war 15, sie war 22…»
▪Ein weiterer KI-Bot war ein Traumatherapeut für Missbrauchsopfer.
▪Ein KI-Bot hat vorgegeben ein schwarzer Mann zu sein, der die Bewegung Black Lives Matter ablehnt.


Die Reaktion der Ethikkommission der Philosophischen Fakultät der Universität Zürich daraufhin laut Reddit.com:

Man nehme den Vorfall sehr ernst und habe eine Warnung an das Team ausgesprochen. Die Ethikkommission habe jedoch keine Kompetenz eine Nicht-Veröffentlichung zu erzwingen. Die Kommission sagte auch, dass das Forschungsteam der Meinung war, dass «der Bot, obwohl er nicht ganz den Bedingungen entsprach, wenig Schaden anrichtete».

Die Universität Zürich (wir sind nicht sicher ob die allgemeine Medienstelle adressiert wurde) gab laut den Reddit-Moderator:innen eine Stellungnahme zur Veröffentlichung der Forschungsergebnisse ab.

«Dieses Projekt liefert wichtige Erkenntnisse, und die Risiken (z.B. Trauma etc.) sind minimal. Das bedeutet, dass die Unterdrückung der Veröffentlichung nicht im Verhältnis zur Bedeutung der Erkenntnisse steht, die die Studie liefert.»
(...)
Das Forschungsteam hat sich immerhin auf Reddit den kritischen Fragen des Forums gestellt und ihr Vorgehen gerechtfertigt:

Gemäss dem Abstract-Paper der Forscher:innen (danke an dieser Stelle an Raphael Wimmer von der Universität Regensburg für den Hinweis) hat das Team das Studiendesign auf OSF.IO pre-registrieren lassen. Auf dieser Website werden üblicherweise das geplante Vorgehen und die zu untersuchenden Hypothesen beschrieben, bevor man die Studie durchführt. Wissenschaftliche Journals verlangen in gewissen Disziplinen neben dem Nachweis der ethischen Prüfung auch diese Pre-Registrierung.

Interessant sind die im Studiendesign genannte Details zum Prompt für das Large Language Models. Denn um die ethischen Schranken eines Sprachmodells zu überlisten (damit keine Bots für unethische Experimente kreiert werden wie in diesem Fall), haben die Zürcher Forscher:innen das Modell geschickterweise «angelogen» und ausgetrickst.
(...)
Fragil
Beiträge: 72
Registriert: Mittwoch 31. Mai 2023, 21:55

Re: Bots

Beitrag von Fragil »

Hallo Lexx

den Artikel habe ich auch gelesen.

Dass so etwas hier stattfindet, glaube ich eher nicht. In großen Sozialen Netzwerken aber wohl schon.

Das merkst Du auch bei X.

Ich habe mir meine morgendliche Zeitungslektüre so gewählt, dass ich möglichst nicht gleich mit Regierungs-Propaganda überschüttet werde.

Gehe ich dann zu X sehe ich in meiner Time-Line- etliche mir unbekannten Leute, die nun Artikel aus genau diesen Mainstream-Medien abbilden, die ich konsequent meide, angeblich um sich darüber aufzuregen, so dass ich doch wieder damit konfrontiert bin.

Das ist garantiert nicht echt und sind Bots. Zumal die "Aufregungstexte" sich gleichen.

Hier in diesem Forum waren vorgestern lauter Reklame-Beiträge über Online-Casinos. Das wurde aber schnell gelöscht, Danke.
Lexx
Beiträge: 332
Registriert: Mittwoch 24. Juli 2024, 21:12

Re: Bots

Beitrag von Lexx »

Der Eröffnungspost im Thread "nebenan" hatte mich in mehrerer Hinsicht tatsächlich doch etwas irritiert; speziell in Kombination mit der ausdrücklich gewünschten Herbeiführung nicht-öffentlicher Zwiegespräche via PN kam mir der Gedanke dass es ggf. ebenfalls um eine Studie gehen könnte, zB um die Konversationsfähigkeit von KI-Bots zum Einsatz in seelsorgerischen Chat-Angeboten möglichst individualisiert und menschenähnlich zu entwickeln.

Mittlerweile hat sich die Situation ja dahingehend aufgeklärt, dass in diesem Fall scheinbar so etwas wie eine Art private Feldforschung aus eigenem Interesse vorliegt. Was derartige Veranstaltungen angeht bin ich der Meinung, jeder potentiell infrage kommende "Kandidat" sollte zuvor zumindest unmissverständlich darüber informiert werden dass die angestrebte Interaktion einer Datenerhebung zu Analysezwecken dient, um daraufhin über seine Teilnahme eigenständig entscheiden zu können.
Fragil
Beiträge: 72
Registriert: Mittwoch 31. Mai 2023, 21:55

Re: Bots

Beitrag von Fragil »

Hallo Lexx,

Dein Gedanke ist nicht verkehrt.

Wenn man sich die Texte von seelentrost.pn genau durchliest und mit "Gesprächen" vergleicht, die ich schon mit KI's geführt habe, so gibt es gewisse Ähnlichkeiten.

Denn die Antworten dieser Person auf PNs passen nicht zu dem was ich sie gefragt habe. Dann fällt auf, dass sie 3 x die gleiche Nachricht an mich schrieb:"Können wir Kontakt haben?" Ich habe gefragt "Warum"? Und dann kam 2 x diese Frage. Das deutet schon auf einen Bot hin. Auch dass sie Analysen betreiben will, schreibt man nicht, als "normaler" Mensch - zumindest nicht, wenn man wohlwollende Absichten hat.

Und die Aussagen in den Beiträgen widersprechen sich und passen nicht so recht.

Es sind auch Fragen, die nur 2 Antwortmöglichkeiten haben. Also, sehr manipulativ ....
Lexx
Beiträge: 332
Registriert: Mittwoch 24. Juli 2024, 21:12

Re: Bots

Beitrag von Lexx »

Durch diesen einen konkreten Account wurde ich nicht via PN angeschrieben; allerdings hatte ich von einem der diversen zuvor registrierten und danach (angeblich) dauerhaft gesperrten "methoden + pn" Profile eine superkurze Kontaktanfrage erhalten, welche zumindest aktuell immer noch allesamt im offiziellen Mitgliederregister gelistet sind.

Der benannte Eröffnungspost ist tatsächlich der erste bei dem mir durch den Kopf ging, dass er wenigstens zu einem (Groß)Teil evtl. nicht durch einen echten Menschen verfasst, sondern mithilfe von KI und unter Vorlage hier relativ häufig vorkommender einzelner Textbausteine generiert worden sein könnte:

Auch mir sind einige ungewöhnliche Formulierungen und inhaltliche Widersprüche inklusive sich kontinuierlich durchziehender Sinn- und Zusammenhanglosigkeiten aufgefallen, und die (Selbst)Präsentation erschien mir als eine "muntere" Zusammenstellung möglichst breitgefächerter Identifikationsmuster; rein vom Gefühl her insgesamt einfach "too much" für ein authentisches Bild.

Nun finde ich KI an und für sich ehrlich gesagt sogar sehr spannend und verstehe durchaus die Anreize von Entwicklern, ihre Programme zu perfektionieren und marktfähig zu machen. Der Einsatz eines als "physisch und psychisch schwerkrank" deklarierten Fake-Profils zur gezielten Be- und Ausnutzung realer und teilweise wirklich schwerkranker Menschen als Testobjekte und unbezahlte Erfüllungsgehilfen wäre mE hingegen absolut unterirdisch und ggf. auch im wahrsten Sinne des Wortes unzulässig.
Antworten