this post was submitted on 05 Jul 2023
480 points (98.2% liked)
DACH - jetzt auf feddit.org
8872 readers
1 users here now
Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!
Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos
Auch hier gelten die Serverregeln von https://feddit.de !
Banner: SirSamuelVimes
founded 2 years ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Könnte das nicht genau so gut ein Troll/False-Flag sein, der Reddit schlecht dastehen lassen soll?
Gerade wenn es um r/programming geht, gibt es doch wahrscheinlich keinen Mangel an Leuten, die ein kurzes Script schreiben können, das mit der ChatGPT-API auf Reddit-Kommentare antwortet.
Es ist auf jeden Fall schon auffällig, dass die Bot-Kommentare in r/programming sind und nicht einfach überall, wo kritisch über Reddit geredet wird.
Unwahrscheinlich. So etwas in der Breite zu erstellen ist nicht so einfach wie du dir das eventuell vorstellst. Erstens müssen die Kommentare von ChatGPT gelesen und verstanden werden (1 API request), dann bewertet werden ob etwas pro/contro Reddit gesagt wird (1 API request), dann eine entsprechende Response generiert werden (1 API request). Also 3 API requests pro Kommentar. Und auch wenn es einfach wäre, kostet doch jeder Zugriff auf GPT-3.5 oder GPT-4 via OpenAI's API Geld. Skripten via ChatGPT kann zu einem Ban führen.
Nach erneutem Nachdenken glaube ich dass man das billiger lösen kann indem man verschiedene Kommentare in einem API request zusammenfasst und dann GPT anweist die Ziel-Kommentare herauszufiltern. Dann kann man das an eine andere Komponente weiterleiten und die entsprechenden Antworten generieren lassen. Es stimmt also, dass so etwas konzeptionell sicher einfach zu erstellen ist (ich bin ja schließlich auch darauf gekommen wie man so etwas baut), aber so ein Unterfangen ist sicher nicht an einem Nachmittag umgesetzt.
Die OpenAI Kosten werden pro Token (entspricht in etwa einigen Buchstaben) berechnet. Für längere input Texte zahlt man also mehr.
Könnte man das nicht alles in einem Prompt machen? Z.B.:
Wenn man sich die API-Preise anguckt, dann kostet grob überschlagen 15 Kommentare reinwerfen und von GPT-4 entsprechende Antworten (jeweils ~50 Worte lang) generieren zu lassen $0.1. Mit $10 könnte man also vielleicht schon so um die 1500 Trollkommentare erzeugen lassen. Man müsste natürlich z.B. anhand von ein paar Stichworten vorfiltern, damit man nicht 99% irrelevante Kommentare reinwirft.
Da wäre die Frage, wie lange es dauert und ob einen Troll das überhaupt juckt.