this post was submitted on 23 Sep 2024
69 points (97.3% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

2128 readers
309 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 5 months ago
MODERATORS
 

Martin Bernklau wird Opfer der Künstlichen Intelligenz

Martin Bernklau aus Tübingen hat sich nie etwas zuschulden kommen lassen. Doch das, was er jetzt erlebt, versetzt ihn in Schock. Im Chat mit Copilot, der Künstlichen Intelligenz (KI) von Microsoft, wird er als verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie oder Witwenbetrüger bezeichnet.
....
Zusätzlich liefert Copilot noch die volle Adresse von Bernklau mit Telefonnummer und Routenplaner.
...
Viele Jahrzehnte war Bernklau Gerichtsreporter, hat für verschiedene Zeitungen über Prozesse aus dem Landgericht Tübingen berichtet - über Fälle von Missbrauch, Gewalt und Betrug, mit denen er jetzt in Verbindung gebracht wird, weil sie auch im Internet zu finden sind. Die KI kombiniert, trägt zusammen und macht so den Reporter zum Täter.
.....
Der zuständige Datenschutzbeauftragte vom bayerischen Landesamt wendet sich - Monate nach einer Beschwerde Bernklaus - mit dem Fall an Microsoft. Dort sichert man zu, das Problem abzustellen. Tatsächlich verschwinden die Einträge recht schnell. Doch nach ein paar Tagen erscheinen dieselben Aussagen wieder im Chat. ...

EDIT: Der Link hat gefehlt! Sorry.

you are viewing a single comment's thread
view the rest of the comments
[–] [email protected] 1 points 2 months ago (1 children)

Wie ein anderer bereits schrieb, ließe sich die Gesetzeslage so, sei sie denn tatsächlich so wie hier vermutet, ausnutzen. Man schreibe ein statistisches Programm (GPT) welches von einer breiten Masse benutzt wird und dessen Aussagen, mangels technischer Kenntnisse, größtenteils für Wahr genommen werden. Man nutze dieses Programm explizit für die Verbreitung von Fake News. Man beeinflusse so politische und gesellschaftliche Verhältnisse. Verfolgt werden kann solch Praxis anscheinend nicht, da keine wahrhafte Person dafür verantwortlich ist. Das ist ein Problem.

So etwas gibt es ja schon in Form von Twitter/X, nur, dass es immens mehr Arbeit ist den gewünschten Content manuell in persona zu moderieren. Diese Arbeit übernimmt das hypothetische böse GPT für dich.

Siehst du das nicht als Problem?

[–] General_Effort 1 points 2 months ago

Das wird so nicht funktionieren. Es ist ziemlich egal, wie du die Verleumdung verbreitest. Es kommt darauf an, dass du es tust.

In diesem Fall ist es ziemlich unwahrscheinlich, dass irgendjemand bei OpenAI jemals auch nur von diesem Mann gehört hat. Wie können sie ihn dann verleumden?

Sollte sein Ruf durch das Produkt gelitten haben, dann gäbe es wahrscheinlich die Möglichkeit Schadenersatz zu verlangen. Der Artikel gibt aber keinen Hinweis auf so einen Schaden. Ich sehe nicht mal einen Hinweis, dass sonst irgendwer ChatGPT über den Mann befragt hätte, geschweige denn die Aussage geglaubt hat.