this post was submitted on 03 Jul 2023
15 points (94.1% liked)

DACH - jetzt auf feddit.org

8872 readers
1 users here now

Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!

Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos

Auch hier gelten die Serverregeln von https://feddit.de !

Banner: SirSamuelVimes

founded 1 year ago
MODERATORS
 

Crossgeposted von: https://discuss.tchncs.de/post/453970

Im Mittelpunkt der Debatte über künstliche Intelligenz (KI) steht auch die Sorge vor automatisch generierter Falschinformation. Wie berechtigt diese ist, untermauert eine aktuelle Studie, wonach KI-generierte Texte in sozialen Netzwerken oft glaubwürdiger erscheinen als jene von Menschen. Ein heimischer Experte plädiert für eine strenge Regulierung – in Österreich gebe es generell großen Aufholbedarf.

In einer Studie zeigen Schweizer Forscherinnen und Forscher, dass ...

die fast 700 Probandinnen und Probanden nicht in der Lage waren, die KI-Tweets zuverlässig von den Texten realer Personen zu unterscheiden.

Außerdem zeigte sich, dass ...

die vom Sprachmodell GPT-3 generierten Texte oft leichter verständlich waren als die Texte von realen Twitter-Nutzerinnen und -Nutzern – auch wenn der Inhalt nicht der Wahrheit entsprach. Die „Fake News“ der KI wirkten laut den Probandinnen und Probanden oft überzeugender als falsche Informationen, die von Menschen geschrieben wurden.

Schwieriges Thema und vorallem schwierig hier eine sinnvolle Reglementierung zu finden, ohne zuweit einzugreifen. Vorallem ist es technisch schwer, da solche Systeme in der Entscheidungsfindung grundsätzlich eine BlackBox darstellen, aber dadurch auch interessant wie man solche Gefahren in Zukunft mitigieren will.

top 9 comments
sorted by: hot top controversial new old
[–] [email protected] 4 points 1 year ago (2 children)

Mit Angst vor KI Regulation pushen halte ich fast für gefährlicher. Es gibt keine gute theoretische Möglichkeit KI generierte Texte zu identifizieren und Zugriff auf KI Tools wird man fast unmöglich so einschränken können, dass nicht jene Personen darauf zugreifen können

[–] [email protected] 1 points 1 year ago

Dass das Recht jetzt einfach kapituliert ist aber auch keine gute Option.

[–] [email protected] 1 points 1 year ago

Stimme ich zu. Deshalb ist es auch interessant wie das, rein technisch, funktionieren soll. Ich spreche aber von der Anpassung der KI Modelle um solche Dinge zu mitigieren in Zukunft, weniger davon zu versuchen den Zugriff auf die Technologie einzuschränken, das ist nicht realistisch.

Es gibt bsplw. sehr erfolgreiche Forschung in die Richtung KI generierte Bilder zu erkennen. Von Texten ist mir bisher aber nichts bekannt, schließe aber nicht aus, dass auch das möglich ist.

[–] [email protected] 4 points 1 year ago (3 children)

Die vermeintlich einfachste Lösung ist der Einsatz des menschlichen Verstandes. 

Dinge hinterfragen, verstehen, verbinden. Das große Ganze sehen. Zusammenhänge verstehen. Auswirkungen eruieren. Selbstreflektion. Dinge ins Verhältnis setzen. Usw.

Ist vermutlich zu viel verlangt.

[–] [email protected] 5 points 1 year ago (1 children)

Ist vermutlich zu viel verlangt.

Viele verstehen ja auch nicht, dass ChatGPT keine Suchmaschine ist, sondern schlicht Texte generiert. Von daher...

[–] [email protected] 0 points 1 year ago (1 children)

Jain. Ich habe ChatGPT schon mehrfach anstelle von Google benutzt und war sehr zufrieden, Antworten zu erhalten anstelle von Links.

[–] [email protected] 3 points 1 year ago

Natürlich bekommst du antworten. Mit ein wenig Glück taugt die Antwort sogar etwas, kann aber halt auch genausogut Blödsinn mit überzeugend aussehenden Quellen sein. Als Suchmaschine taugt es entsprechend nicht.

[–] [email protected] 1 points 1 year ago

Das denke ich mir auch.

Echt merkwürdig, dass das so neu zu sein scheint. Aber wir leben wohl schon längst in einer Zeit, in der die Leute im Internet / in der Bild viel Mist lesen und einfach hinnehmen. Quellen prüfen und kritisch bleiben - das sollte man nicht nur bei der Nutzung von ChatGPT.

[–] [email protected] 1 points 1 year ago

Absolut. Das ist aber ein generelles Problem der Gesellschaft und der verrückt schnellen Entwicklung der Online-Medienkultur und weniger bezogen auf das hier beschriebene, eher technische, Problem.

Sprich: Man sollte es nicht ignorieren weil jeder selbst genug Verstand haben muss Fake News zu erkennen und wenn nicht Pech gehabt ;) Noch dazu sind die generierten anscheinend qualitativ besser formuliert, im Sinne von schwerer als Falschmeldung identifizierbar für viele, digital weniger kompetente Menschen. Es fehlt schon an Kompetenz, wie du sagst, aber das zu verbessern wird ein paar Generationen brauchen, wenn überhaupt. Viele gute Ansätze sehe ich im Bildungsystem dafür ja nicht.