39
this post was submitted on 21 Aug 2023
39 points (95.3% liked)
DACH - jetzt auf feddit.org
8872 readers
1 users here now
Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!
Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos
Auch hier gelten die Serverregeln von https://feddit.de !
Banner: SirSamuelVimes
founded 1 year ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Der Artikel versucht zwar ein bisschen weiter zu gehen, sie sprechen z.B. das Problem an, wie man zukünftig versuchen wird, immer mehr "künstliche" Filter und Beschränkungen einzubauen, aber ca. die Hälfte des Artikel ist das typische "Haha, guck mal, ChatGPT gibt noch ganz viele dumme Antworten, wie nutzlos es ist!".
Bezugnehmen darauf, dass die Behauptung aufgestellt wird, ChatGPT könnte Programmierern in Zukunft viel Arbeit abnehmen, verweisen sie darauf, dass Untersuchungen zeigen, dass ChatGPT oft Fehler im Code produziert. Dass es aber Recherchearbeit für Code gut abnehmen kann und einen geschulten Programmierer, der den Code noch grob korrigiert, ein mächtiges Tool bietet, wird vollkommen übersehen. Ganz abgesehen davon, dass doch gewaltiges Entwicklungspotential da ist und die jetzigen Erkenntnisse in vielen Bereichen noch keinen Anlass dazu geben, maschinelles Lernen als enttäuschend zu bezeichnen.
Wenn mich jemand fragt, was denn typisch deutsch sei: Genau so eine Einstellung.
"Was, dieses neue Ding, das es erst seit kurzem gibt, ist noch nicht vollständig perfekt? Da kann man das ganze Konzept in die Tonne kloppen!"
Puh, also ich hab ChatGPT jetzt schon öfter versucht als Hilfestellung fürs programmieren zu benutzen und es kam immer Bullshit raus. Der hat immer irgendwelche Bibliotheken und Parameter erfunden die so wirken als wären sie die genaue Wunderwaffe für mein Problem. Das Problem ist dann, dass ChatGPT diese Bibliotheken aus zB Javascript kennt, mein Problem aber zB in GoLang ist, ChatGPT "übersetzt" dann die Dokumentation von der Javascript Bibliothek so dass sie aussieht als wäre sie Go.
Ich sehe großes Potenzial in ChatGPT wenn man es richtig einsetzt. Man kann es super nutzen um zB seine Texte umschreiben zu lassen. ChatGPT interpretiert dann den Text wie es ihn versteht und wenn die neue Variante von ChatGPT Fehler enthält, kann man gut daraus schließen wo der Ursprungstext Interpretationsspielraum bietet und falsch verstanden werden kann. Auch für schnelle Businessmails ist das gut. Aber in meinen Augen nicht fürs Programmieren
Ich benutze es gerade fürs Programmieren. Kleine Konstrukte, keine kompletten Programme, schreibt es mir relativ zuverlässig und es sind meist nur Kleinigkeiten, die ich korrigieren muss. Oder solche Sachen, wie etwas verzwicktere regular expressions inkl. dem Drumherum, wie dem genauen Verwerten der Ergebnisse, kriegt es gut hin. Gerade das ist auch etwas, was immer etwas umständlich zu googeln ist. ChatGPT ersetzt mich als Programmierer nicht, aber macht mich in einigen Bereich durchaus effizienter.
Aber worum es mir eigentlich ging ist, dass der Artikel maschinelles Lernen mit den falschen Argumenten jetzt schon abschreibt.
¿Wo schreibt der Artikel maschinelles Lernen ab? Nach meinem Verständnis schreibt es den Hype, dass ChatGPT und Co alles könne und immer recht haben, ab, und weist darauf hin, dass man es nur dafür einsetzen sollte, wofür es was taugt, und dies dann auch angibt.
Oder du hast den Fehler noch nicht gefunden weil du dich gefreut hast das dir das jemand abgenommen hat...
Für Regex gibt ja relativ gute Checker, womit das auch schnell überprüfen kann
Also für bisschen python skripten fand ich es top. Hat mir jede Menge Recherche zu irgendwelchen Bibliotheken abgenommen.
Klingt eigentlich genau wie der Junior-Dev, dem man Google wegnimmt und zu einer Antwort nötigt.
Wäre das gleiche wie einem Handwerker den Hammer wegnehmen und ihn bitten einen Nagel rein zu schlagen. Mir ist schon klar, was Du meinst, aber Google ist heutzutage ein essenzielles Werkzeug für Programmierer. Senior-Devs haben zweifellos durch ihre langjährige Erfahrung ein tieferes Wissen, aber ich denke, dass das Nutzen von Ressourcen wie Google und mittlerweile auch ChatGPT auch eine wichtige Fähigkeit ist.
naja, dann muss er aber immernoch genau erklären können, wie man einen Chromnagel einschlägt, auch wenn er das noch nie selbst gemacht hat.
Klar, wir sind uns einig. Aber ChatGPT hat halt Google nicht zur Verfügung und kann eher schlecht Transferwissen anwenden.
Unter diesen Voraussetzungen würden Menschen sehr ähnlich performen.
Das ist doch genau was OP mitunter meinte. Es geht nicht um den ist-Zustand, sondern um den Weg, der hier geebnet wird und der irgendwann unser aller Leben beeinflussen wird.
OP hat aber den Ist-Zustand bei seinem Programmierbeispiel beschrieben und darauf bin ich eingegangen :) zumindest für meine Anwendungsfälle ist es aktuell eher problematisch als hilfreich
Ah also wie bei der Forschung an der Fusionskraft. Hab ich verstanden.
Guck was schon alles nutzloses möglich ist, in 5 Jahren revulotioniert es die Welt.
Maschinelles Lernen wird in der Medizin schon regelmäßig eingesetzt, zB zur Tumorerkennung auf CT-Bildern. Das kann man natürlich nutzlos nennen, aber naja...
Wirklich? In welcher Klinik wird das im routine Diagnostikverfahren angewandt?
https://healthitanalytics.com/news/one-third-of-orgs-use-artificial-intelligence-in-medical-imaging https://newsnetwork.mayoclinic.org/discussion/using-ai-in-radiology-clinical-practice/
Es gibt auch kommerziell erhältliche AI Pakete, zB von Philips und Siemens: https://www.siemens-healthineers.com/digital-health-solutions/ai-rad-companion
Hm okay, aus Deutschland lese ich eher Nachrichten wie: Oh Gott niemand hat die Website von ChatGPT geöffnet, was kommt jetzt auf uns zu. Jedenfalls in den Nachrichten.
Ich habe das Problem kaum, aber ich nutze GPT 4 seit verfügbar und gehe recht konservativ an die Sache ran. Immer nur ein, zwei Probleme auf einmal, dann schrittweise erweitern, überschaubarer Kontext, Handkorrektur wenn notwendig, dann meist neuer Chat um den alten Kontext mit Fehlern nicht drin zu behalten. Die API ist super, da kann man direkt die Antworten editieren, dann kann man das sparen. Und natürlich proaktiv auf Fehler hinweisen, in vielen Fällen reicht das, insbesondere mit Fehlermeldungen, aber wenn nicht, sollte man genug Ahnung haben, um es geradezurücken.
Größere Projekte passen halt nicht in den Kontext oder es sind einfach zu viele Infos. Ich behandle das Ding so ähnlich wie einen brillianten, aber absolut unerfahrenen Azubi. Einfache Arbeiten mit wenig Domänenwissen abgeben, Ergebnisse prüfen, Feedback geben, nicht zu viel erwarten und über schnelle Erfolge freuen weil nicht selbstverständlich. Selbst damit spare ich oft mehrere Stunden am Stück.
Schon GitHub Copilot probiert? Das steigert wirklich die Produktivität, einfach weil es ganze Blöcke an Boilerplate automatisch und angepasst vorschlagen kann.
Wo es auch spitzenmäßig ist und ein Gamechanger, ist das Potential von LLM‘s als „API Hub“ von allen ML Subkategorien.
Waren bisher Computer Vision, Schrift, Sprache, Diagnostik, Robotik, etc alles eingekapstelte Unterbereiche von ML, so können diese nun miteinander „kommunizieren“ und zusammen arbeiten. Man kann Videos nach Texten erstellen, Videoaudio transkribieren, Roboter per Sprache steuern und vieles mehr. Das war vorher nicht möglich, denn es gab die semantischen Verbindungen nicht, die LLM‘s ermöglichen. Da wird uns noch einiges Krasses die nächsten Monate überraschen