Wie nutzt ihr KI?

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
19.833
Reaktionen
1.586
Ort
Hamburg
Das wird ab einer gewissen Komplexität aber auch nur noch wenig bringen. Wir nutzen bis heute noch immer M(/R)OLAP und Tabular, das gibt nach außen zumindest mit PowerPivot/PowerQuerylPoweBI eine gewisse Flexibilität, wenn man seine power user ordentlich einweist. Aber für die breite Fläche ist das imo nichts, sondern beschränkt sich zumindest hier auf maximal 800-1000 Leute.
 
Zuletzt bearbeitet:

Gustavo

Doppelspitze 2019
Mitglied seit
22.03.2004
Beiträge
6.330
Reaktionen
2.280
Als Coding Assistant. Ich schätze, dass ChatGPT und Co mich - schwankt natürlich sehr jenachdem, worum es genau geht - um nen Faktor 2 bis 10 produktiver machen. Ohne könnte ich meine aktuelle Rolle wahrscheinlich gar nicht ausfüllen, weil ich gleichzeitig meinen Zeiteinsatz nur sehr begrenzt skalieren kann.

Das hier. Zumal meine Kollaboratoren halt alle möglichen Anwendungen/Sprachen benutzen: Wenn R oder Python ist es meistens kein Problem, selbst zu schreiben. Für Leute, die unironisch Stata benutzen oder mir irgendwelche "hier, schreib mal einen Idealpunktschätzer, aber kann er bitte in BUGS sein?" Wünsche vor den Latz knallen greife ich dann doch häufig auf ChatGPT zurück.
 
Mitglied seit
25.09.2014
Beiträge
5.101
Reaktionen
1.352
Hab nur bis zu den Tränchen gelesen, dass Nvidia passionierte Fast-Food-Servierer ihres Lebenszwecks beraubt, kam noch was? :eagle:
 

haschischtasche

Ährenpenis
Mitglied seit
28.09.2002
Beiträge
30.021
Reaktionen
6.351
Die Seeaustrockne und Waldplaniertechnologie wird aller Voraussicht nach weiter Seen austrocknen und Wälder planieren.
Nichts grundlegend Neues, aber demnächst dann mit X * 15.000W statt mit <X * 7000W. 🤷‍♀️


/e: Ist halt nett, dass das mal jemand auf Seite der Techjournalisten anspricht, weil quasi alles was aus dem Feld über die letzten drei Jahre zu hören "Ich kann das AI Gelaber nicht mehr hören" war.
 
Mitglied seit
25.09.2014
Beiträge
5.101
Reaktionen
1.352
Ich versteh halt den Punkt an der Diskussion nicht: Was ist denn die Alternative? AI-Revolution verschieben, weil wir im Zuge der energetischen Transformation grad durch nen Flaschenhals gehen? :rolleyes:
Am Ende werden entweder alle Modelle Richtung Effizienz konvergieren - 1 Mio. H100 brauchst du nicht für Application/Inferenz, sondern um foundation models zu trainieren. Oder Energie wird einfach so billig, dass es egal ist.
 
Zuletzt bearbeitet:

haschischtasche

Ährenpenis
Mitglied seit
28.09.2002
Beiträge
30.021
Reaktionen
6.351
1 Mio. H100 brauchst du nicht für Application/Inferenz
:rolleyeskaffn:
For instance, it has been estimated that, at its peak, ChatGPT had upward of 10 million users per day; the most recent statistics indicate that the ChatGPT login page received 1.7B visits in October 2023. Even assuming a single query per user, which is rarely the case, the energy costs of deploying it would surpass its training costs after a few weeks or months of deployment.

Die Revolution besteht momentan daraus, dass keiner einen Plan hat wie sie ihre zusammengeklauten mit Sklavenarbeit entwickelten Schlangen relevant weiterentwickeln ohne dass die sich selbst auffuttern, und die mit Abstand größte Firma in dem Bereich mit der größten zusammengeklauten Sklavenarbeitsschlange verliert mal eben in diesem Jahr allein 50% der über die letzten 8 Jahren zusammengescheffelten Finanzmittel, weil teure Schlange.
:deliver:
 
Mitglied seit
25.09.2014
Beiträge
5.101
Reaktionen
1.352
Training remains orders of magnitude more energy- and carbon-intensive than inference.
Mein Punkt. Dass die Inferenzkosten mit der Anzahl der User skaliert und du bei nem Produkt, das hunderte Millionen Leute nutzen, auch andere Größenordnungen erreichst, ändert daran nichts. Mein persönlicher LLM-Use kostet ein paar Watt. Big Deal im Vergleich zu analogen Tätigkeiten wie Autofahren, Duschen, Wäschewaschen ...

Die Revolution besteht momentan daraus, dass keiner einen Plan hat wie sie ihre zusammengeklauten mit Sklavenarbeit entwickelten Schlangen relevant weiterentwickeln ohne dass die sich selbst auffuttern, und die mit Abstand größte Firma in dem Bereich mit der größten zusammengeklauten Sklavenarbeitsschlange verliert mal eben in diesem Jahr allein 50% der über die letzten 8 Jahren zusammengescheffelten Finanzmittel, weil teure Schlange.
:deliver:
🍪
 
Zuletzt bearbeitet:
Mitglied seit
21.08.2010
Beiträge
7.843
Reaktionen
1.021
Hab nur bis zu den Tränchen gelesen, dass Nvidia passionierte Fast-Food-Servierer ihres Lebenszwecks beraubt, kam noch was? :eagle:
Nicht wirklich.
Gejammer, dass es sehr unfair ist, dass uns jetzt Roboter die Arbeit wegnehmen, dass Männer daran schuld sind, dass der Glaube an den Nutzen von mehr Technologie total doof ist und dass man doch mal mehr an die Gletscher und die Menschen denken soll weil die doch einen Sinn im Leben brauchen (z.B. Burger bei McD bauen).

Ich finde jetzt auch nicht alles toll wozu moderne Technik genutzt wird, aber die Argumentation ist halt schon einfach dum.

Allein schon weil NV et al. ihre CPUs ja ständig effizienter machen, um mehr Compute pro Watt zu erreichen. Menschen zu sagen "mach das nicht weil pfui-bäh" hat halt noch nie funktioniert, weder in autoritären noch in demokratischen Staaten. Sowohl der Wandel am Arbeitsmarkt als auch in der Energiebereitstellung wird stattfinden, egal wie man es moralisch bewerten will. Da ist es schon irgendwie smarter, wenn man versucht durch geschickte Leitplankensetzung sicherzustellen, dass externe Effekte minimiert werden.

Der einzige Punkt den ich interessant finde ist, wie die Gesellschaften der Zukunft das Problem lösen werden, dass relevant viele Menschen in jeder Disziplin von Maschinen übertroffen werden. Das dürfte unser Verständnis von Menschenwürde auf die Probe stellen. Aber auch das ist nicht ultimativ Schuld der Technik. Das Problem "abgehängter Menschen" haben wir jetzt schon, nur ist es zu klein um relevant zu sein.
 
Oben