Wie nutzt ihr KI?

Mitglied seit
25.09.2014
Beiträge
4.911
Reaktionen
1.206
Aktuell ist die Technologie für sie ein Verlustgeschäft. Allein OpenAI soll 2022 ein Minus von einer halben Milliarde Dollar gemacht haben. Noch pumpen optimistische Investoren und große Techkonzerne weiter Geld in den Markt, um sich Anteile zu sichern. Doch es gibt auch Zweifel, ob die Technologie dem Hype gerecht wird: Was, wenn Nvidias Kunden ihre Versprechen nicht halten können, wenn KI-Assistenten weiter bloß Texte zusammenfassen und mittelmäßige E-Mails formulieren, die große Revolution aber ausbleibt? Nicht ausgeschlossen, dass den Goldgräbern dann irgendwann das Geld für die Spitzhacken ausgeht.
Na gut, dass es OpenAI darum geht, mit ChatGPT Geld zu verdienen. :rolleyes:

Tatsächlich profitiert man als User doch aktuell davon, dass ChatGPT und Co brutal underpriced sind. Ich würde auch das Drei-, Fünf- oder Zehnfache bezahlen mit der einzigen Einschränkung, dass ich nicht mehr for the lulz noch Claude und Gemini gleichzeitig abonnieren würde.
 

Das Schaf

Tippspielmeister WM 2018
Mitglied seit
27.06.2002
Beiträge
19.948
Reaktionen
4.399
Ort
Wo auf den Bergen Schlösser wachsen
Na gut, dass es OpenAI darum geht, mit ChatGPT Geld zu verdienen. :rolleyes:

Tatsächlich profitiert man als User doch aktuell davon, dass ChatGPT und Co brutal underpriced sind. Ich würde auch das Drei-, Fünf- oder Zehnfache bezahlen mit der einzigen Einschränkung, dass ich nicht mehr for the lulz noch Claude und Gemini gleichzeitig abonnieren würde.
Echt warum? Meine Antworten sind zu 80% einfach falsch
 
Mitglied seit
15.08.2000
Beiträge
9.919
Reaktionen
780
Wofür nutzt ihr denn ChatGPT und Co.?

Ich bin da wohl nicht einfallsreich genug. Hier und da mal ne Frage beantworten oder einen Text umschreiben okay. Dann war ich vor kurzem in Paris und hatte wenig Zeit und habe mir von ChatGPT eine Besichtigungsroute ansagen lassen. Das war eigentlich schon mein Highlight. Bisher fällt die AI-Revolution bei mir kläglich aus.
 
Mitglied seit
09.02.2021
Beiträge
1.927
Reaktionen
1.559
ki ist halt genau so buzz wie krypto oder dieses neumodische interwebs. longscale hat das durchaus wucht, aber die prozesse laufen viel unterschwelliger und langsamer. dotcom war ziemlich heisser shit, dass daraus mal so dominierende giga-konzerne wie google oder amazon entstehen würden, hat man zwar vermutet, dass es zwei jahrzehnte dafür braucht, eher nicht. krypto gleiches spiel, die zugrundeliegende technik ist weder neu noch bahnbrechend und die derzeitigen anwendungen im besten fall eher spielerisch, die zugrunde liegende idee ist aber gut und da, die wird auch nicht mehr weggehen. zu ki: das sind halt erstmal algorithmen mit big data in fancy. macht das produkt dann halt gleich etwas wertiger, wenn man irgendwas mit krypto und ki dranpappen kann. wo wir da in 20 jahren stehen, i don't fuckin know und ehrlich gesagt i don't fuckin care.

anwendungszenarien die ich bisher so gesehen hab: das ding wird halt im bewerbungs- und marketingprozess eiskalt eingesetzt. da passiert imho zunehmend immer weniger originäres, die derzeitige endstufe hiervon war ein online-bewerbervideo, das ich die tage gesehen habe, wo links aufm monitor teams lief und rechts ne ki-applikation und der dann fragen gegenlaufen hat lassen. ansonsten neben text-feinschliff find ich die ganze video-geschichte maximal irritierend, die qualität davon ist mittlerweile gruselig gut, bin gespannt ob das diese "in der eigenen bubble leben weil der rest ist ja potentiell ki-fakenews" damit noch weiter befeuert wird und wir in 20 jahren alle grundsätzlich aluhüte tragen und jeden informationsschnitzel und auch banalste aussagen wie "heute wird das wetter trocken und schön" erstmal kritisch ablehnen/hinterfragen.
 
Mitglied seit
27.06.2014
Beiträge
3.624
Reaktionen
1.358
Ort
Hamburg
Wofür nutzt ihr denn ChatGPT und Co.?

Ich bin da wohl nicht einfallsreich genug. Hier und da mal ne Frage beantworten oder einen Text umschreiben okay. Dann war ich vor kurzem in Paris und hatte wenig Zeit und habe mir von ChatGPT eine Besichtigungsroute ansagen lassen. Das war eigentlich schon mein Highlight. Bisher fällt die AI-Revolution bei mir kläglich aus.
Eine coole Sache ist bspw. die Auswertung und Zusammenfassung von Inhalten.

Kleines Beispiel: Du hast eine Mitarbeiter- oder Kundenbefragung mit Freitextfeldern.
Das Feedback daraus zusammenzufassen geht mit sowas wie ChatGPT schnell & oft besser als wenn es jemand manuell versucht.

Größeres Beispiel: Du packst verschiedene Datenquellen und Metadaten in ein System:

Datenquellen:
  • Freitextfellder Kundenbefragung
  • Tickets (bspw technischer Support)
  • Branchennewsletter, -Magazine, -Blogs
  • Bestimmte Subreddits
Metadaten:
  • Branche des Kunden
  • Timestamp
  • Produktgruppe
  • Wettbewerber
Jetzt kannst du daraus automatisiert Dinge ableiten wie:
  • "What's the biggest sentiment change compared to a quarter ago?"
  • "Summarize the feedback of the last 30 days, group by product & competitor and send it monthly to this alias"
 
Mitglied seit
15.09.2000
Beiträge
1.474
Reaktionen
296
1719829170245.png


88% aller Entwickler geben an mit Github Copilot besser zu sein. Des ist sogar noch von Sep2022, seitdem wurde das in meiner Erfahrung echt nochmal besser.

Wenn das jetzt 90% der 30 Millionen Entwickler weltweit um xx% produktiver macht ist die Wertschöpfung gigantisch.

Nehmen wir an 20% Produktivitätsgewinn und 50k $ durchschnittlicher Jahreslohn, gibt das 270bn pro Jahr. In einem einzigen Use Case.
 
Mitglied seit
25.09.2014
Beiträge
4.911
Reaktionen
1.206
Echt warum? Meine Antworten sind zu 80% einfach falsch
Als Coding Assistant. Ich schätze, dass ChatGPT und Co mich - schwankt natürlich sehr jenachdem, worum es genau geht - um nen Faktor 2 bis 10 produktiver machen. Ohne könnte ich meine aktuelle Rolle wahrscheinlich gar nicht ausfüllen, weil ich gleichzeitig meinen Zeiteinsatz nur sehr begrenzt skalieren kann.
 
Mitglied seit
24.08.2000
Beiträge
1.738
Reaktionen
474
Eine coole Sache ist bspw. die Auswertung und Zusammenfassung von Inhalten.

Kleines Beispiel: Du hast eine Mitarbeiter- oder Kundenbefragung mit Freitextfeldern.
Das Feedback daraus zusammenzufassen geht mit sowas wie ChatGPT schnell & oft besser als wenn es jemand manuell versucht.

Größeres Beispiel: Du packst verschiedene Datenquellen und Metadaten in ein System:

Datenquellen:
  • Freitextfellder Kundenbefragung
  • Tickets (bspw technischer Support)
  • Branchennewsletter, -Magazine, -Blogs
  • Bestimmte Subreddits
Metadaten:
  • Branche des Kunden
  • Timestamp
  • Produktgruppe
  • Wettbewerber
Jetzt kannst du daraus automatisiert Dinge ableiten wie:
  • "What's the biggest sentiment change compared to a quarter ago?"
  • "Summarize the feedback of the last 30 days, group by product & competitor and send it monthly to this alias"
Prüft ihr das auch gegen? Jedes mal, wenn ich LLms zur Auswertung von Daten verwenden wollte, wurde mir bisher immer nur irgendein Mist zusammenhalluziniert, der vlt. oberflächlich noch stimmig ist, aber im Detail dann häufig schlicht falsch. Wenn das die Abnehmerseite nicht interessiert, hat man dann natürlich schöne Texte.
 

Benrath

Community-Forum
Mitglied seit
19.05.2003
Beiträge
19.572
Reaktionen
699
Nein einfach rein und dann deployen. Nichts vorher testen etc. Einfach rein....


Spaß beiseite. Erstmal rausgeteilt, weil es nichts mehr mit den "Märkten" zu tun hatte

Ich kann mich sonst saistead anschließen. Ich hab quasi sofort was mit Python machen können, weil ich wusste was ich will und grundsätzlich statistisches Verständnis habe, aber bisher nie was mit Python gemacht habe.

Soinst auch mal gerne aus Faulheit. X bullets für Thema Y und meistens passt es. Sind in der Regel aber auch Sachen die ich selber aufschreiben könnte und zu faul bin oder es zu lange dauern würde.

@Xantos
Aber natürlich ohne personenbezogenen Daten :mond: ?
 
Mitglied seit
14.09.2003
Beiträge
3.795
Reaktionen
165
Ort
Paderborn
Hab mir n Arsch voll VBA Scripte geschrieben die meinen Arbeitsalltag elegant vereinfachen. Ich hab keine Ahnung von programmieren, aber jetzt habe ich eine Suchmaschine mit einer Levenshtein-Distanz geschrieben. Ich hab nicht mal ne Ahnung davon, was das ist aber es funktioniert super :ugly:
 
Mitglied seit
24.08.2000
Beiträge
1.738
Reaktionen
474
Für das coden liefert ChatGPT in der Tat häufig funktionierende Beispiele (wobei es da stark auf die Sprache ankommt. Python funktioniert meist gut, DAX aber zum Beispiel häufig garnicht). Wobei mir mit blick in die Zukunft die Code-Qualität da ziemliche Sorgen bereitet. Hab nen Nicht-Programmierer-Kollegen* der viel mit ChatGPT zusammenskriptet. Das geht meist am Anfang alles, aber irgendwann türmen sich dann viele Fehler, die ihm auch der Chatbot nicht mehr korrigieren kann und er kommt dann zu mir. Ich schau mir den Code dann an und kriege Haarausfall durch den wilden Mix an verschiedenen Coding-Styles und seltsamen Umweg-Lösungen, die auf 5 Zeilen machen, was auf einer gehen sollte.

Fand ChatGPT aber als Inspirations-Quelle häufig ziemlich sinnvoll. Selbst wenn der Vorschlag vom Bot nicht läuft, bringt er mich häufig auf die richtige Fährte (meist nach mehreren Anläufen und korrekturfragen).


* Nicht das ich wirklich Programmierer wäre, aber ich habe zumindest eine Art "autodidaktisches" Grundverständnis. Besagter Kollege wusste nicht, was ein For-Loop ist, als er auf Chat-GPT losgelassen wurde :ugly:
 
Mitglied seit
27.06.2006
Beiträge
1.614
Reaktionen
77
Ich mache damit viel Frontend Prototyping oder lasse mir irgendwelche Datenstrukturen generieren. Meistens lasse ich mir die Sachen abnehmen, die ohnehin überwiegend Tipparbeit sind und von denen ich weiß, dass die ohnehin schon in 1000 Varianten gelöst wurden.
 
Mitglied seit
10.05.2003
Beiträge
5.155
Reaktionen
385
Nach meiner Erfahrung:
Chatgpt zum coden ist toll wenn es darum geht relativ bekannte syntax nachzuschlagen. wenn man schon weiss was man machen will. sowas wie z.B. "give me a simple example of c++ to intialize a glew window and draws a triangle using glsl". sowas konnte man natürlich auch schon vor chatgpt finden, aber es geht halt schneller, ist meistens übersichtlicher und genau das was man sucht.
Es ist auch toll um bekannte Algorithmen zu finden die ein spezielles Problem lösen, z.b. "what is an algorithm to calculate a camera pose from a 2d image with known positions"

Es ist hingegen furchtbar schlecht wenn es darum geht komplexen code wirklich zu schreiben. Bisher ist jeder Versuch damit geendet zuerst eine Menge Fehler zu beseitigen, und hinterher alles neu zu schreiben weil die Struktur auch Mist war.
Und es ist auch furchtbar schlecht wenn es darum geht code in eher obskuren Sprachen oder unter verwendung seltenerer APIs zu schreiben. Dann funktioniert überhaupt nichts weil es einfach fröhlich halluziniert und mit fester Überzeugung Funktionen erfindet die es nichtmal ansatzweise gibt.

@Xantos2 : du gibst Firmendaten in chatgpt ein? mutig mutig...
 
Mitglied seit
21.01.2011
Beiträge
542
Reaktionen
9
Ich nutze KI relativ regelmäßig in meiner Freizeit, selten für die Arbeit

Sprach-Modelle:
1. Behördenbriefe / Bewerbungen / Arbeitszeugnisse (kommt natürlich auf 1-3 Dokumente pro Jahr hin, und man muss es umschreiben, liefert aber einen ordentlichen Rahmen).
2. Geschichten schreiben lassen (mittlerweile aufgegeben). War am Anfang als es neu war ganz witzig, und habe es immer mal wieder mit neuen Modellen / Versionen probiert, sehe aber da keine Verbesserung. Auch wenn sprachlich manchmal schöne Sätze herauskommen, versteht die KI einfach nicht, was ich von ihr will, und die Handlung und Satzaufbau verläuft (sprichwörtlich verlaufen) nach ähnlichen Mustern. Liegt laut vielen Nutzern wohl u.a. an der sehr strengen Zensur, und lokale Modelle sollen nicht so mächtig sein, dafür aber ohne Zensur insgesammt leistungsfähiger. Kann ich nicht bewerten, da mein PC dafür einfach zu grottig ist.
3. Nutze ich immer noch recht häufig: Kurze Ideen für Sätze, die ich schreiben möchte, und ich beim Ausdruck einfach auf dem Schlauch stehe.
4. Wissenschaftliche Konzepte schnell erklären lassen: Die KIs sind ziemlich gut darin eine kurze Zusammenfassung zu recht speziellen Fragen zu schreiben. Wikipedia, Bücher oder sogar wissenschaftliche Arbeiten sind natürlich akkurater und treffsicherer. Die Sprach-KIs sind aber ziemlich gut einem zumindest das Konzept kurz zu erklären, und die wichtigsten Fremdwörter fallen zu lassen, nach denen man dann googlen kann.

Musik-Ki:
suno.ai - einfach mal ausprobieren, wenn noch nicht bekannt. Ist ziemlich beeindruckend, was das kann. Nutze ich hin und wieder, und höre "meine" Kreationen dann beim Sport oder Autofahren. Ähnlich wie bei den Sprachmodellen fallen einem nach einer gewissen Zeit jedoch gewisse Muster auf.
Jedoch besonders erschreckend: Deutscher Pop kann tatsächlich gut sein. Meiner Meinung nach könnte man alle Mark Förster und wie diese ganzen Lappen heißen die Musiklizenz entziehen und suno oder andere Musik-KIs dafür das deutsche Musik-Programm kreieren lassen. An wirklich gute Musik (eagles - hotels california, etc.) kommt es aber einfach noch nicht ran.

Stimmen-KI:
Damit generiere ich selber nicht, da es (,glaube ich,) momentan nur eine gute Seite gibt, die seit ca. 1-1,5 Jahren sehr glaubwürdige Stimmenimitationen kann. Mir wäre es zu brenzlig damit berühmte Persönlichkeiten zu immitieren, höre mir aber gerne die Memes an, die es auf den einschlägigen Seiten gibt. Teilweise tränen gelacht :rofl2:. Ich glaube das ganze ist jedoch wieder etwas aus dem Trend geraten.

Bilder-Ki:
Stable Diffusion, sollte den meisten bekannt sein. Unglaublich, dass man das bisher "umsonst" nutzen kann und es eigentlich gar keine Zensur erfährt im Gegensatz zu all den anderen KI-Modellen. Wird natürlich hauptsächlich dafür genutzt reitende Astronauten auf Elephanten zu generieren. :troll:
 
Mitglied seit
27.06.2014
Beiträge
3.624
Reaktionen
1.358
Ort
Hamburg
Prüft ihr das auch gegen? Jedes mal, wenn ich LLms zur Auswertung von Daten verwenden wollte, wurde mir bisher immer nur irgendein Mist zusammenhalluziniert, der vlt. oberflächlich noch stimmig ist, aber im Detail dann häufig schlicht falsch. Wenn das die Abnehmerseite nicht interessiert, hat man dann natürlich schöne Texte.
Jop, das muss man natürlich testen.

Bisher ist es auf jeden Fall besser als dass eine Person mit wenig Zeit 200 Freitext-Antworten zusammen fassen soll.
 
Mitglied seit
18.07.2001
Beiträge
2.148
Reaktionen
2
Ort
Nürnberg
Der Copilot ist ganz nett. Zum unit Tests erstellen ist die Command completion oft hilfreich oder für intelligentes renaming in einer Datei. Aber es geht nichts projektweites und die Intelligenz liegt doch eher auf naivem Junior coder Niveau.

ChatGPT an sich ist aber schon sehr hilfreich wenn man fragen hat bei denen man sich sonst durch die erste Google Seite arbeiten müsste um die Infos zusammen zu suchen. Oder wenn man eine billige utility Funktion/Script braucht bzw. Den Startpunkt dafür.
Und für Analyse... Was ist der Unterschied zwischen json a und b. Zeig mir einen Beispiel http Proxy requests wie er in einer Typescript lamda ankommt..

Natürlich muss man immer damit rechnen belogen zu werden :)
 
Mitglied seit
25.09.2014
Beiträge
4.911
Reaktionen
1.206
Es ist hingegen furchtbar schlecht wenn es darum geht komplexen code wirklich zu schreiben. Bisher ist jeder Versuch damit geendet zuerst eine Menge Fehler zu beseitigen, und hinterher alles neu zu schreiben weil die Struktur auch Mist war.
Und es ist auch furchtbar schlecht wenn es darum geht code in eher obskuren Sprachen oder unter verwendung seltenerer APIs zu schreiben. Dann funktioniert überhaupt nichts weil es einfach fröhlich halluziniert und mit fester Überzeugung Funktionen erfindet die es nichtmal ansatzweise gibt.
Naja, diese Probleme existieren definitiv. Aber durch gutes Prompting lassen sie sich imo zumindest in vielen Fällen ausgleichen:
-Die neuesten Modelle haben eine deutlich größere Context Length als die Vorgänger. Da passt einiges an API-Documentation, Code-Beispielen usw. rein, wenn das Modell eine Sprache oder API nicht aus dem Effeff beherrscht. Zugegebenermaßen bin ich so Mainstream unterwegs, dass ich das Problem seltener habe.
-Die Struktur kann man auch stark beeinflussen. Gerade ChatGPT neigt dazu, sehr schnell Code auszuspucken. Imo ist es aber oft hilfreich, darauf erstmal explizit zu verzichten, sondern ein paar Prompts darauf zu verwenden, das Problem zu erklären, anhand der Antworten zu prüfen, ob das Modell verstanden hat, worum es geht und dann sowas wie Struktur im Voraus zu klären. Die tatsächliche Implementierung steht am Ende der Kette.
-Dass es trotzdem immer mal wieder Funktionen erfindet, ist wahr. Aber das ist oft kein großes Problem, weil die entsprechende Funktion einfach unter einem anderen Namen existiert, den man schnell herausfindet, oder eine ähnliche Funktion, die man mit leichten Änderungen verwenden kann oder man lässt die Funktion anhand ähnlicher Funktionen schreiben.
 

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
19.471
Reaktionen
1.388
Ort
Hamburg
@Xantos2 : du gibst Firmendaten in chatgpt ein? mutig mutig...
Das wäre in der Tat eine interessante Frage. Wie wird es bei euch in den Firmen gehandhabt? Wir dürfen keinerlei Daten dort prompten, was dann meist dazu führt, dass man sich seine Fragestellungen etwas abstrahiert, aber den Kontext beibehält.
 
Mitglied seit
09.12.2003
Beiträge
3.421
Reaktionen
521
Beruflich nutze ich ChatGPT für "Sparing". Ich diskutiere bspw. mit der KI das Projekt-Setup, lass es nach Fehlern und Schwachstellen in meiner Annäherung suchen. Manchmal führe ich auch Fachgespräche in der Tiefe und lasse mir Dinge erklären. Gelegentlich lass ich auch Verträge (anonymisiert, nur Passagen, nie den ganzen Text), die ich aufsetze gegenlesen bevor ich es unseren Anwälten zur Prüfung schicke.

Privat hilft mir die KI aktuell JAVA zu lernen.
 
Zuletzt bearbeitet:

Benrath

Community-Forum
Mitglied seit
19.05.2003
Beiträge
19.572
Reaktionen
699
Das wäre in der Tat eine interessante Frage. Wie wird es bei euch in den Firmen gehandhabt? Wir dürfen keinerlei Daten dort prompten, was dann meist dazu führt, dass man sich seine Fragestellungen etwas abstrahiert, aber den Kontext beibehält.

Machen deswegen nicht gerade alle RAG Ansätze mit den eigenen Daten in der Vektordatenbank und lokalen Sprachmodellen oder Sprachmodellen in private Cloud oder großem Versprechen, dass nix geloggt wird und nur die Antwort erstellt wird.

Sonst natürlich nur nicht sensitive Daten. Gerade beim Coden geht das auch ganz gut, weil man den Code gut aufteilen kann, etc.
Wenn ich z.B. dran denke wieviel Zeit ich mit Format von Regressionstabellen, Latextabellen und sonstiger Plots auf Stack Overflow verschwendet habe...
 

GeckoVOD

Moderator
Mitglied seit
18.03.2019
Beiträge
4.134
Reaktionen
2.407
Prüft ihr das auch gegen? Jedes mal, wenn ich LLms zur Auswertung von Daten verwenden wollte, wurde mir bisher immer nur irgendein Mist zusammenhalluziniert, der vlt. oberflächlich noch stimmig ist, aber im Detail dann häufig schlicht falsch. Wenn das die Abnehmerseite nicht interessiert, hat man dann natürlich schöne Texte.

Anwendungsbeispiel für Textproduktion (Newsletter, Webinar-Inhalte, etc.) funktioniert das okay, solange man allgemeingültige Inhalte erhalten möchte. Quellen für Aussagen sind allerdings extrem abenteuerlich, zumindest bei mir. Interessanterweise hat mir ChatGPT Links für Zusammenfassungen / Positionspapiere ausgespuckt, die super klingen, aber keinerlei Prüfung stand halten. Mit Angabe, von welchen Seiten er sich etwas holen soll funktionieren besser, aber auch nicht auf einem Level, das ungeprüft auf die Menschheit losgelassen werden soll.

Aktuell nutze ich es (eher selten) für:
- Newsletterstuss (siehe oben)
- Argumente für Positionspapiere / Zusammenfassungen, für die ich viel zu faul bin und dem Ding einfach Stichworte hinrotze
- Gliederungen für irgendwelche Random-Präsentationen (Webinare, sonstige Vorträge im Kontext Marketing)
- Inspiration für potenziellen Mailverkehr / Anschreiben an Behörden
- Potenzielle Argumente für spezielle Fördervorhaben inkl. Gliederung, wenn die Förderung bekannt ist und der Gegenstand abstrahiert beschrieben werden kann (hier ist EFRE-Bundesland in der Förderdatenbank und in Gesetzestext, mein Fördervorhaben ist CAFM-Einführung mit Energiemanagement, Rechtsträger ist KdöR, eine Schule - wie sollte der Antrag in etwa formuliert werden?)
- Gegencheck für Sonderprojekte ("folgende Punkte hab ich im Bericht für den Nachhaltigsbericht, welche Punkte gäbe es dazu noch?")
- Verbesserung von Texten, die ich selbst zu kompliziert finde

Obv. knall ich da keine konkreten Kundeninfos oder Internas rein (konkrete Date/Datenstrukturen, Vorhaben, Namen, ...), die nicht sowieso öffentlich auf unserer Homepage oder sonstwo zu finden wäre (siehe Nachhaltigsbericht).

In Excel / VBA / teilweise Access (nicht, dass ich das wollte, aber... ) hab ich mit ChatGPT schon deutlich mehr probiert, die Ergebnisse sind ziemlich gut. Insofern es mir teilweise einfache Formeln / Bedientricks ausspuckt, die ich vorher nicht gehört habe, oder zu umständlich gegoogelt hätte. Bei Scripten ist es so, wie du es beschrieben hast. Netter Startpunkt, aber wenn es sauber laufen soll, dann geht's meist auch deutlich einfacher und effizienter. Unter'm Strich ist es eine Zeitersparnis, weil es hilft das eigene Denken, bzw. die Anfrage, etwas sauberer zu durchdenken, als einfach random googlen und hoffen der Suchbegriff passt auf das, was man tatsächlich will. Alleine die Möglichkeit eines Dialogs mit Präzisierungen nimmt viel Arbeit ab. Andererseits bin ich kein Programmierer oder hatte ein IT-basiertes Studium, daher werden nicht-Autodidakten wahrscheinlich nicht so viel brauchen.
 

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
19.471
Reaktionen
1.388
Ort
Hamburg
Na dann fang mal bei dir an und troll nicht jeden Post von @Xantos2 mit diesen dämlichen reactions.

Es ist offensichtlich, dass Xantos nicht ausschließlich ChatGPT meinte.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
45.846
Reaktionen
8.631
Na dann fang mal bei dir an und troll nicht jeden Post von @Xantos2 mit diesen dämlichen reactions.

Es ist offensichtlich, dass Xantos nicht ausschließlich ChatGPT meinte.
Du hast mich da offensichtlich miss verstanden. Das war durchaus moderativ gemeint, du neigst zu zuvielen "lustigen" 2 wort posts im com. Lass das mal bitte bzw. tu es seltener, danke.
 
Mitglied seit
21.08.2010
Beiträge
7.646
Reaktionen
897
Prüft ihr das auch gegen? Jedes mal, wenn ich LLms zur Auswertung von Daten verwenden wollte, wurde mir bisher immer nur irgendein Mist zusammenhalluziniert, der vlt. oberflächlich noch stimmig ist, aber im Detail dann häufig schlicht falsch. Wenn das die Abnehmerseite nicht interessiert, hat man dann natürlich schöne Texte.
Das ist auch meine Erfahrung.

Copilot in der JetBrains IDE für mich vor allem. Ansonsten ganz nett, um sich verwurschtelten Code zerlegen zu lassen.

Als Faktenquelle eher meh.

Zum Schreiben von lästigem Code wie Unit Tests ganz hilfreich, aber wenn man zum Beispiel einen Airflow-DAG generiert haben will, scheitert es schnell daran, dass es eben nur für Tutorial-Level und leicht darüber reicht.

@Xantos2 Branchenextraktion funktioniert meiner Erfahrung nach nur wenn man eine Erwartung an "Branche" hat, die mit der im Trainingsset halbwegs übereinstimmt (also ziemlich grob). Klassifikation in eine fixe Struktur ist problematisch bis unmöglich … sobald die Definition der Klassen hinreichend scharf definiert und abgegrenzt ist.

Für das coden liefert ChatGPT in der Tat häufig funktionierende Beispiele (wobei es da stark auf die Sprache ankommt. Python funktioniert meist gut, DAX aber zum Beispiel häufig garnicht). Wobei mir mit blick in die Zukunft die Code-Qualität da ziemliche Sorgen bereitet. Hab nen Nicht-Programmierer-Kollegen* der viel mit ChatGPT zusammenskriptet. Das geht meist am Anfang alles, aber irgendwann türmen sich dann viele Fehler, die ihm auch der Chatbot nicht mehr korrigieren kann und er kommt dann zu mir. Ich schau mir den Code dann an und kriege Haarausfall durch den wilden Mix an verschiedenen Coding-Styles und seltsamen Umweg-Lösungen, die auf 5 Zeilen machen, was auf einer gehen sollte.
Ich finde das sehr beruhigend.


Am Ende ist es für mich ein nettes Tool und ein extrem interessantes Werkzeug. Allerdings arbeite ich halt auch in einem direkt angrenzenden Bereich … und bin da eher nüchtern würde ich sagen. Ich spüre sehr den Hype wenn ich mit Managern rede. Die wollen am liebsten alles mit GenAI lösen und gleichzeitig hassen sie es zu hören, dass das eben nicht sinnvoll geht wenn man korrekte Ergebnisse haben will.
Bin gespannt wie das Projekt "GenAI generierte BI queries" laufen wird :mond:
 

Benrath

Community-Forum
Mitglied seit
19.05.2003
Beiträge
19.572
Reaktionen
699
Bin gespannt wie das Projekt "GenAI generierte BI queries" laufen wird :mond:

Da hab ich jetzt aber schon Ansätze gesehen. Power BI hat es in der Data Fabric bereits integriert und teilweise schein es zu funktionieren.
Nicht für mega komplexe Visuals aber für ein paar Sachen.

Hab auch anderer Ansätze gesehen, wo die Metadaten der Datenbanken in einem RAG liegen plus die KI über ans Warehouse angeschlossen ist und dann die Abfrage aus Basis des Promts schreibt und dir das Ergebnis gibt.

Ob man das wirklich braucht, sei mal dahingestellt
 
Mitglied seit
27.06.2014
Beiträge
3.624
Reaktionen
1.358
Ort
Hamburg
@Xantos2 Branchenextraktion funktioniert meiner Erfahrung nach nur wenn man eine Erwartung an "Branche" hat, die mit der im Trainingsset halbwegs übereinstimmt (also ziemlich grob). Klassifikation in eine fixe Struktur ist problematisch bis unmöglich … sobald die Definition der Klassen hinreichend scharf definiert und abgegrenzt ist.
Jop - idealerweise ist das eine konkrete Branchentaxonomie, die an einer relevanten Teilmenge des Inputs hängt (bspw. Kundentickets).
 

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
19.471
Reaktionen
1.388
Ort
Hamburg
Da hab ich jetzt aber schon Ansätze gesehen. Power BI hat es in der Data Fabric bereits integriert und teilweise schein es zu funktionieren.
Nicht für mega komplexe Visuals aber für ein paar Sachen.

Hab auch anderer Ansätze gesehen, wo die Metadaten der Datenbanken in einem RAG liegen plus die KI über ans Warehouse angeschlossen ist und dann die Abfrage aus Basis des Promts schreibt und dir das Ergebnis gibt.

Ob man das wirklich braucht, sei mal dahingestellt
Das Problem wird sein, dass das zielgenaue prompten die erste große Hürde sein wird für alle, die von den Strukturen zu wenig wissen.
Ich lass mich gerne eines besseren belehren, aber ich seh da aktuell wenig Nutzbarkeit in einem Umfeld mit selbst einem moderat großen und komplexen Datawarehouse.
 
Oben