• Liebe User, bitte beachtet folgendes Thema: Was im Forum passiert, bleibt im Forum! Danke!
  • Hallo Gemeinde! Das Problem leidet zurzeit unter technischen Problemen. Wir sind da dran, aber das Zeitkontingent ist begrenzt. In der Zwischenzeit dürfte den meisten aufgefallen sein, dass das Erstellen von Posts funktioniert, auch wenn das Forum erstmal eine Fehlermeldung wirft. Um unseren Löschaufwand zu minimieren, bitten wir euch darum, nicht mehrmals auf 'Post Reply' zu klicken, da das zur Mehrfachposts führt. Grußworte.

Wie nutzt ihr KI?

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
20.342
Reaktionen
1.793
Ort
St. Gallen
Das wird ab einer gewissen Komplexität aber auch nur noch wenig bringen. Wir nutzen bis heute noch immer M(/R)OLAP und Tabular, das gibt nach außen zumindest mit PowerPivot/PowerQuerylPoweBI eine gewisse Flexibilität, wenn man seine power user ordentlich einweist. Aber für die breite Fläche ist das imo nichts, sondern beschränkt sich zumindest hier auf maximal 800-1000 Leute.
 
Zuletzt bearbeitet:

Gustavo

Doppelspitze 2019
Mitglied seit
22.03.2004
Beiträge
7.220
Reaktionen
2.794
Als Coding Assistant. Ich schätze, dass ChatGPT und Co mich - schwankt natürlich sehr jenachdem, worum es genau geht - um nen Faktor 2 bis 10 produktiver machen. Ohne könnte ich meine aktuelle Rolle wahrscheinlich gar nicht ausfüllen, weil ich gleichzeitig meinen Zeiteinsatz nur sehr begrenzt skalieren kann.

Das hier. Zumal meine Kollaboratoren halt alle möglichen Anwendungen/Sprachen benutzen: Wenn R oder Python ist es meistens kein Problem, selbst zu schreiben. Für Leute, die unironisch Stata benutzen oder mir irgendwelche "hier, schreib mal einen Idealpunktschätzer, aber kann er bitte in BUGS sein?" Wünsche vor den Latz knallen greife ich dann doch häufig auf ChatGPT zurück.
 
Mitglied seit
25.09.2014
Beiträge
5.327
Reaktionen
1.477
Hab nur bis zu den Tränchen gelesen, dass Nvidia passionierte Fast-Food-Servierer ihres Lebenszwecks beraubt, kam noch was? :eagle:
 

haschischtasche

Ährenpenis
Mitglied seit
28.09.2002
Beiträge
37.501
Reaktionen
7.945
Die Seeaustrockne und Waldplaniertechnologie wird aller Voraussicht nach weiter Seen austrocknen und Wälder planieren.
Nichts grundlegend Neues, aber demnächst dann mit X * 15.000W statt mit <X * 7000W. 🤷‍♀️


/e: Ist halt nett, dass das mal jemand auf Seite der Techjournalisten anspricht, weil quasi alles was aus dem Feld über die letzten drei Jahre zu hören "Ich kann das AI Gelaber nicht mehr hören" war.
 
Mitglied seit
25.09.2014
Beiträge
5.327
Reaktionen
1.477
Ich versteh halt den Punkt an der Diskussion nicht: Was ist denn die Alternative? AI-Revolution verschieben, weil wir im Zuge der energetischen Transformation grad durch nen Flaschenhals gehen? :rolleyes:
Am Ende werden entweder alle Modelle Richtung Effizienz konvergieren - 1 Mio. H100 brauchst du nicht für Application/Inferenz, sondern um foundation models zu trainieren. Oder Energie wird einfach so billig, dass es egal ist.
 
Zuletzt bearbeitet:

haschischtasche

Ährenpenis
Mitglied seit
28.09.2002
Beiträge
37.501
Reaktionen
7.945
1 Mio. H100 brauchst du nicht für Application/Inferenz
:rolleyeskaffn:
For instance, it has been estimated that, at its peak, ChatGPT had upward of 10 million users per day; the most recent statistics indicate that the ChatGPT login page received 1.7B visits in October 2023. Even assuming a single query per user, which is rarely the case, the energy costs of deploying it would surpass its training costs after a few weeks or months of deployment.

Die Revolution besteht momentan daraus, dass keiner einen Plan hat wie sie ihre zusammengeklauten mit Sklavenarbeit entwickelten Schlangen relevant weiterentwickeln ohne dass die sich selbst auffuttern, und die mit Abstand größte Firma in dem Bereich mit der größten zusammengeklauten Sklavenarbeitsschlange verliert mal eben in diesem Jahr allein 50% der über die letzten 8 Jahren zusammengescheffelten Finanzmittel, weil teure Schlange.
:deliver:
 
Mitglied seit
25.09.2014
Beiträge
5.327
Reaktionen
1.477
Training remains orders of magnitude more energy- and carbon-intensive than inference.
Mein Punkt. Dass die Inferenzkosten mit der Anzahl der User skaliert und du bei nem Produkt, das hunderte Millionen Leute nutzen, auch andere Größenordnungen erreichst, ändert daran nichts. Mein persönlicher LLM-Use kostet ein paar Watt. Big Deal im Vergleich zu analogen Tätigkeiten wie Autofahren, Duschen, Wäschewaschen ...

Die Revolution besteht momentan daraus, dass keiner einen Plan hat wie sie ihre zusammengeklauten mit Sklavenarbeit entwickelten Schlangen relevant weiterentwickeln ohne dass die sich selbst auffuttern, und die mit Abstand größte Firma in dem Bereich mit der größten zusammengeklauten Sklavenarbeitsschlange verliert mal eben in diesem Jahr allein 50% der über die letzten 8 Jahren zusammengescheffelten Finanzmittel, weil teure Schlange.
:deliver:
🍪
 
Zuletzt bearbeitet:
Mitglied seit
21.08.2010
Beiträge
8.010
Reaktionen
1.107
Hab nur bis zu den Tränchen gelesen, dass Nvidia passionierte Fast-Food-Servierer ihres Lebenszwecks beraubt, kam noch was? :eagle:
Nicht wirklich.
Gejammer, dass es sehr unfair ist, dass uns jetzt Roboter die Arbeit wegnehmen, dass Männer daran schuld sind, dass der Glaube an den Nutzen von mehr Technologie total doof ist und dass man doch mal mehr an die Gletscher und die Menschen denken soll weil die doch einen Sinn im Leben brauchen (z.B. Burger bei McD bauen).

Ich finde jetzt auch nicht alles toll wozu moderne Technik genutzt wird, aber die Argumentation ist halt schon einfach dum.

Allein schon weil NV et al. ihre CPUs ja ständig effizienter machen, um mehr Compute pro Watt zu erreichen. Menschen zu sagen "mach das nicht weil pfui-bäh" hat halt noch nie funktioniert, weder in autoritären noch in demokratischen Staaten. Sowohl der Wandel am Arbeitsmarkt als auch in der Energiebereitstellung wird stattfinden, egal wie man es moralisch bewerten will. Da ist es schon irgendwie smarter, wenn man versucht durch geschickte Leitplankensetzung sicherzustellen, dass externe Effekte minimiert werden.

Der einzige Punkt den ich interessant finde ist, wie die Gesellschaften der Zukunft das Problem lösen werden, dass relevant viele Menschen in jeder Disziplin von Maschinen übertroffen werden. Das dürfte unser Verständnis von Menschenwürde auf die Probe stellen. Aber auch das ist nicht ultimativ Schuld der Technik. Das Problem "abgehängter Menschen" haben wir jetzt schon, nur ist es zu klein um relevant zu sein.
 
Mitglied seit
25.09.2014
Beiträge
5.327
Reaktionen
1.477
Mich würde hier mal ein Update interessieren nach dem Unlock der letzten drei Monate. Schreibt noch jemand Code selbst? :birb:
 
Mitglied seit
23.11.2004
Beiträge
1.177
Reaktionen
23
Ja, ich (bin reiner Softwareentwickler, keine managementtätigkeit).
Ich verwende zwar auch vermehrt ki, aber nur zur recherche und für triviale Sachen von denen ich keinen plan hab (docker files erstellen z.b.).
 
Mitglied seit
18.07.2001
Beiträge
2.153
Reaktionen
2
Ort
Nürnberg
Chat GPT rockt. Damit kann man oft besser technische Fragen diskutieren als mit dem durchschnittlichen anderen Entwickler. Phantasiert manchmal wenn er keine Ahnung von was hat aber das tut das management auch :p

Coden selbst mit vscode / copilot (gpt codex oder Claude) auch Nice.

Eins meiner letzten Erfahrungen: aus Tests generierte opensearch queries in gpt geposted, die Index definition dazu und Frage sinngemäß "was ist hier schlecht gelöst, welche mappings sind falsch und wie Performen die queries". Da kommt deutlich hilfreicheres dabei raus als wenn man die fünf Kollegen fragt die alle Mal was an den queries erweitern durften aber die jeweils nur oberflächliches wissen auf dem Gebiet haben.

Was sich das management erträumt steht dann wieder auf einem anderen Blatt. Aber den Reality check muss die Realität geben, die kann es sich leisten sich unbeliebt zu machen :p
 
Mitglied seit
31.03.2001
Beiträge
27.337
Reaktionen
578
Welche Blase? :deliver:

[Edit]
Ernst gemeinte Frage. Höre es häufig, verstehe es nicht
Naja es ist im Moment halt der große Zug auf den jeder aufspringt, ob nun Firmen auf individueller Basis oder die großen Techgiganten mit den generellen Modellen, zusätzlich fangen ja jetzt auch einige Länder an da mitzuspielen, weil sie halt der Vorreiter sein wollen.

Auf der 08/15-Firmenebene wird halt versucht Dinge zu automatisieren, dabei wird zum einen selten geguckt, ob das bestehende System überhaupt die Daten passend ausgibt, dass die gut "KI-verarbeitbar" sind, und/oder was auch immer die KI ausgibt wieder gut ins System zurückgehen kann. Das mag dann teils für den extremen Standardfall hinhauen, sobald es aber etwas spezieller wird, fliegt das Ganze dann gerne mal völlig auf die Fresse. Optimalerweise hat man natürlich schon mal ein paar Mitarbeiter rausgeworfen (denn KI macht ja jetzt die Arbeit :mond: ) und der Rest soll dann mal "nebenbei" die KI und ihre Probleme lösen.

Bei den Techgiganten ist natürlich der Klassiker, dass jeder seine eigene KI machen "muss", selbst wenn die meisten auch nur die Hälfte von dem können werden, was jetzt versprochen wird, dürfte es wohl eher unwahrscheinlich sein, dass wir in 10 Jahren 20 KIs mit solidem Marktanteil haben. Vermutlich werden da wohl eher höchstens 3-5 von richtig überleben. Ob die Gewinner dann den Bedarf haben die Datencenter der Konkurrenz alle aufzukaufen...fraglich.
 

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
20.342
Reaktionen
1.793
Ort
St. Gallen
Es ist im Techbereich an sich auch gar nicht so unüblich, dass sich die Vorreiter nicht durchsetzen. Vor Google gab es Yahoo und Konsorten, davon lebt heute nichts mehr und Google als Nachzügler ist der absolute Platzhirsch*. Ich habe wenig Argumente dagegen, wieso das nicht auch bei den KI Modellen so werden sollte.

* Gleiches gilt beispielsweise auch für Facebook.
 
Mitglied seit
02.09.2002
Beiträge
3.284
Reaktionen
106
Welche Blase? :deliver:

[Edit]
Ernst gemeinte Frage. Höre es häufig, verstehe es nicht
Edit: ok, wies scheint schreibe ich diesen Beitrag scheibchenweise...

1. Die Tech Firmen verbrennen grade Geld wie Heu.

2. Sie verdienen damit kein Geld.
Der Einsatz von KI ist ziemlich rechenintensiv.
Google bietet dir ja neben der klassischen Suche auch einen "KI-Modus". Der braucht aber Faktor 10.000 mehr Ressourcen als die Suche. Google bietet das halt (noch) für lau an, weil das der modus operandi der SV Techfirmen ist: Mit Risikokapital eine riesige Nutzerbasis, idealerweise mit Monopol, aufbauen und dann mal schauen wie man das monetarisiert. Wir sind noch in Phase 1.
Dazu gibts ein meme, dass das ganz gut auf den Punkt bringt:
openai-profit-v0-vku2uvwoy66g1.png

3. The Bitter Lesson
Zsfg: Die großen Fortschritte in der KI kamen bisher meist daher, dass man heute das 100-fache der Rechenleistung auf das Problem werfen kann als gestern, während Forschung und Entwicklung im klassischen Sinne weniger effektiv und teils sogar hinderlich waren.

Fazit:
In KI wird grade unheimlich viel Geld investiert. Dabei ist fraglich, ob diese Investitionen den Unternehmen einen echten Vorsprung und in Zukunft eine entsprechende Marktposition verschaffen. Kann auch sein, dass in 10 Jahren jeder seine eigene KI aufm Smartphone trainiert.

Edit: Ende
 
Zuletzt bearbeitet:
Mitglied seit
25.09.2014
Beiträge
5.327
Reaktionen
1.477
Mit AI wird schon ordentlich Geld verdient. Nur im Vergleich zu dem, was investiert wird, sind das Peanuts. Diese Investitionen spiegeln den Glauben an das Potential der Technologie wieder. Ich halte diesen Glauben im Wesentlichen für berechtigt und die Investitionen - in die Kerntechnologie - auch nicht für übertrieben. Dass es in diesem Dunstkreis auch ne Menge Hype gibt und viele VC-gefütterte Startups, die eigentlich nur dünne Wrapper um Foundation Models sind, schnell wieder sterben werden: geschenkt.

Mich fasziniert bei dem Thema vielmehr, wie wenig es uns als Gesellschaft bisher beschäftigt - außerhalb einer relativ kleinen Bubble.

In KI wird grade unheimlich viel Geld investiert. Dabei ist fraglich, ob diese Investitionen den Unternehmen einen echten Vorsprung und in Zukunft eine entsprechende Marktposition verschaffen. Kann auch sein, dass in 10 Jahren jeder seine eigene KI aufm Smartphone trainiert.
Das ist NICHT die bitter lesson. Und sie hat mit der Frage auch wenig zu tun.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.711
Reaktionen
10.282
Mit AI wird schon ordentlich Geld verdient.
Von wem? Ich sehe hier nur Nvidia.
Weder die "KI-Fabriken" bringen Geld, noch verdienen die LLM- Hersteller, ganz im Gegenteil. Unabhängig von den Investitionskosten sind allein die operativen Kosten DEUTLICH höher als die Einnahmen. Zumindest wenn ich mir die Zahlen von OpenAI, Amazon, Microsoft, xAI und co anschaue. Die einzigen die relevant Geld verdienen sind Nvidia, vergleiche Schaufeln im Goldrausch.
 

Scorn4

Servitor
Mitglied seit
13.02.2003
Beiträge
6.044
Reaktionen
965
Ort
Münster
Von wem? Ich sehe hier nur Nvidia.
Weder die "KI-Fabriken" bringen Geld, noch verdienen die LLM- Hersteller, ganz im Gegenteil. Unabhängig von den Investitionskosten sind allein die operativen Kosten DEUTLICH höher als die Einnahmen. Zumindest wenn ich mir die Zahlen von OpenAI, Amazon, Microsoft, xAI und co anschaue. Die einzigen die relevant Geld verdienen sind Nvidia, vergleiche Schaufeln im Goldrausch.
Von Influencern, denen die KI-Gläubigen hinterher rennen
 

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
20.342
Reaktionen
1.793
Ort
St. Gallen
Von wem? Ich sehe hier nur Nvidia.
Weder die "KI-Fabriken" bringen Geld, noch verdienen die LLM- Hersteller, ganz im Gegenteil. Unabhängig von den Investitionskosten sind allein die operativen Kosten DEUTLICH höher als die Einnahmen. Zumindest wenn ich mir die Zahlen von OpenAI, Amazon, Microsoft, xAI und co anschaue. Die einzigen die relevant Geld verdienen sind Nvidia, vergleiche Schaufeln im Goldrausch.
Hat er es nicht in seinem zweiten Satz in Relation zu den Investitionskosten gestellt?
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.711
Reaktionen
10.282
Geld verdienen heißt für mich wenigstens operativ Gewinn machen.
 
Mitglied seit
27.06.2014
Beiträge
4.101
Reaktionen
1.637
Ort
Hamburg
Neben Nvidia machen die Cloud Hyperscaler operativen Gewinn mit ihren AI-Produkten. Die Investitionen sind ja für das Wachstum gedacht, also um die wachsende Nachfrage befriedigen zu können.

Palantir -so unsympathisch das Unternehmen ist- ebenso.

Firmen wie Anthropic sind davon noch weit entfernt, aber es ist absehbar: Das Geschäftsmodell funktioniert grundsätzlich und "der nächste Sale" von Claude hat bspw einen deutlich positiven Deckungsbeitrag.

Spannend wird es, wie und wie schnell sich die Auswirkungen auf die Nutzer der AI messen lassen. Also bspw bessere Customer Experience durch AI auf Umsatz, oder effizientere Prozesse auf Kosten. Das wird vermutlich oft schwerer messbar bspw wegen Zeitverzögerungen und Attribution.
 
Mitglied seit
09.02.2021
Beiträge
3.151
Reaktionen
2.881
die frage wird wohl eher sein, ab wann AI ressourcentechnisch in eine sackgasse läuft. nicht im bezug auf hardware, sondern auch in sachen strom- und wasserverbrauch.

Langfristige Verträge: OpenAI hat Abkommen für IT-Infrastruktur und Chips im Wert von ca. 1,5 Billionen US-Dollar mit Unternehmen wie Nvidia, Oracle, AMD und Broadcom abgeschlossen.

1500 milliarden dollar langfristiger verträge. ab diesem punkt sinds halt irgendwann nur noch zahlen.
 
Mitglied seit
25.09.2014
Beiträge
5.327
Reaktionen
1.477
Und kannst du erklären, wie das "ressourcentechnisch in eine Sackgasse" laufen soll?

Witzigerweise hört man ja zwei entgegengesetzte Argumente parallel:
-Die Nachfrage nach KI wird so gigantisch sein, dass wir sie gar nicht erfüllen können, ohne den Planeten zu wrecken!
-Alles ne Blase, die Datacenter sind nur teure Heizungen!

Vielleicht liegt die Wahrheit ja in der Mitte und wir sind fein raus. ;)
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.711
Reaktionen
10.282
Was meinst du damit? Dass die Investitionen in R&D und Infrastruktur aus laufenden Gewinnen bezahlt werden sollten? :eek3:
Damit meine ich das wenigstens der Betrieb der Infrastruktur und sonstige laufenden Kosten (Gehälter z.B.) durch die Einnahmen gegenfinanziert ist. OpenAI zeigt transparent auf das nicht einmal das derzeit gegeben ist.
 
Mitglied seit
09.02.2021
Beiträge
3.151
Reaktionen
2.881
Und kannst du erklären, wie das "ressourcentechnisch in eine Sackgasse" laufen soll?

ram produktion bis 2028 ausverkauft. solid-states auf einem ähnlichen weg.

verbrauch derzeit 1.000 terawattstunden/jahr für ai-rechenzentren. deutschland braucht 484,2 TWh. progose gehen von einer verdreifachung bis 2030 aus.

wer wirklich meint, dass es hier mittelfristig nicht zu einer konsolidierung kommt, lebt in einer traumwelt. gibt zwischen "AI ist tot/nutzlos" und "AI wird die welt in den nächsten 18 monaten verändern, wie nichts zuvor in der weltgeschichte" auch noch zwischentöne. wie oben geschrieben, usecase ai ist gegeben, momentan euphoriephase wo geld drauf geworfen wird ohne groß auf die details zu schauen, das wird so nicht bleiben. nutzwert und ökonomische parameter werden korrelieren und sich einpendeln.
 

Gustavo

Doppelspitze 2019
Mitglied seit
22.03.2004
Beiträge
7.220
Reaktionen
2.794
Es ist im Techbereich an sich auch gar nicht so unüblich, dass sich die Vorreiter nicht durchsetzen. Vor Google gab es Yahoo und Konsorten, davon lebt heute nichts mehr und Google als Nachzügler ist der absolute Platzhirsch*. Ich habe wenig Argumente dagegen, wieso das nicht auch bei den KI Modellen so werden sollte.

* Gleiches gilt beispielsweise auch für Facebook.

Na ja, die ganzen Hype-Äffchen reden ja primär von AGI. Sollte die wirklich erreicht werden (was mir ehrlich gesagt ein bisschen unplausibel vorkommt) dann wäre da per se eigentlich nur Platz für einen Anbieter, weil alle anderen dadurch instant obsolet würden, oder?
 
Mitglied seit
25.09.2014
Beiträge
5.327
Reaktionen
1.477
Wie kommst du darauf? AGI ist ja kein Switch, den man umlegt. Letztlich ist der Markt selbst an der Spitze - u.a. durch Personalkarussel - viel zu transparent, als dass sich da jemand wirklich absetzen könnte. Du wirst also höchst wahrscheinlich mehrere Labs haben, die zeitlich eng beieinander diese Stufe erreichen. Wie eng, hängt natürlich von den Rahmenbedingungen ab. Es besteht natürlich die Möglichkeit, dass ein Lab irgendwie vorauszieht und durch compound effects dann doch einen signifikanten Zeitvorteil erreicht.
Aber selbst da muss man halt beachten: Nach allem, was sich heute erahnen lässt, wird so ein Modell auch sehr stark compute-skaliert sein. D.h. du kannst es nicht mal eben so massenhaft ausrollen.
Ne andere Möglichkeit ist, dass es vorher doch noch innerhalb der Top Labs zu deutlichen Verschiebungen kommt. OAI ist strategisch imo in der prekärsten Position, Google in der gefestigsten.

Btw, was verstehst du denn unter AGI?
Wenn man darunter ein System versteht, das kognitiv im Wesentlichen analog zu uns funktioniert, nur auf GW-Cluster-Scale, dann wird sich das mit der aktuellen Modell-Architektur ziemlich sicher nicht erreichen lassen.
Der Denkfehler, den ich häufig bemerke, ist aber, daraus zu schließen, dass die aktuelle Modell-Architektur deshalb prinzipiell nicht in der Lage sei, uns in kognitiver Leistungsfähigkeit in annähernd jeder (relevanten) Hinsicht zu übertreffen.
Um es mal platt zu sagen: Wenn mein Coworker-Agent jede meiner Aufgaben schneller und besser ausführen kann als ich, dann muss es mich nicht weiter stören, dass er sich daneben wie ein präpubertärer autistischer Savant aufführt.

Damit meine ich das wenigstens der Betrieb der Infrastruktur und sonstige laufenden Kosten (Gehälter z.B.) durch die Einnahmen gegenfinanziert ist. OpenAI zeigt transparent auf das nicht einmal das derzeit gegeben ist.
Ist das so? Ich glaube nicht, dass OpenAI, Anthropic und Google mit ihren APIs aktiv Geld verbrennen. Das ist halt ein Wettkampf um market share. OAI subventioniert de facto über 700 Mio. aktive Nutzer, die 0 Euro zahlen. Bei Anthropic ist es nicht so schlimm, aber das Delta zwischen den Tokens, die man über API vs Claude Max bekommt, lässt darauf schließen, dass das innerhalb der Zielgruppe ebenfalls passiert.
Das ist natürlich eine Wette darauf, dass sich die Userbase langfristig monetarisieren lässt.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.711
Reaktionen
10.282
Joa, das ist absolut so. Übrigens auch bei den Hyperscalern, die verstecken das auf die eine oder andere Art wunderbar. Beispielhaft soll da die Microsoftsche Lizenzpolitik zu nennen sein.
Natürlich ist das aus ihrer Sicht "sinnvoller Invest mit Wette auf Monetarisierung, aber das kommt halt zu den unglaublich hohen R&D- und Hardwareinvestkosten dazu.
Bottom Line: Nein, im Moment verdienen die eben kein Geld damit.
 

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
20.342
Reaktionen
1.793
Ort
St. Gallen
Na ja, die ganzen Hype-Äffchen reden ja primär von AGI. Sollte die wirklich erreicht werden (was mir ehrlich gesagt ein bisschen unplausibel vorkommt) dann wäre da per se eigentlich nur Platz für einen Anbieter, weil alle anderen dadurch instant obsolet würden, oder?
Gute Frage. Ich bin absolut null in der Position irgendetwas sinnvolles zur Entwicklung in den kommenden Jahren/Jahrzehnten zu sagen. Meine Annahme ist aber, dass wenn der Endzustand AGI bzw. Singularität ist, dann werden auf dem Weg einfach eine Reihe von Firmen scheitern* und ich gehe davon aus, dass die aktuellen Vorreiter nicht in der jetzigen Form bestehen werden.
Ich kann mich natürlich täuschen, weil KI mMn nicht einfach die nächste Sau im Dorf ist, die durchs Dorf getrieben wird. Aber für ausgeschlossen halte ich es auch nicht.

*Gründe sind ja btw vielfältig. In jedem Fall bleibt ein Großteil des Fortschritts ja irgendwie bestehen bzw. fließt in die Zukunft mit ein.
 
Mitglied seit
25.09.2014
Beiträge
5.327
Reaktionen
1.477
@Shihatsu
Das wäre, wie gesagt, auch eine etwas naive Erwartung. Wenn wir in 1830 wären und gerade das gesamte Know-how für elektrische Eisenbahnen vom Himmel gefallen wäre, dann würde ich es auch für vernünftiger halten, sofort alles zu investieren, was an Kapital verfügbar gemacht werden kann, um so früh wie möglich die Benefits zu kriegen.
Super-powerful AI bietet potentiell größere Benefits als so ziemlich jede andere Technologie der Geschichte, darum hielte ich es für tendenziell unvernünftig, da auf die Bremse zu treten: Es gibt sehr viele große Probleme, die wir mit Hilfe von AI gerne lösen würden und es wäre ne Schande, wenn wir die ewig lang queuen müssten, weil wir so compute-constrained sind.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.711
Reaktionen
10.282
Diesem Luftschlösslich würde ich ja folgen, aber das ist Wunschvorstellung. AI wird für tausendfachen Schwachsinn benutzt, nicht für 1% sinnvollen % - gefühlt. Und die TEchnik vergiftet sich selber bevor sie fertig ist. Aber das ist eine völlig andere Diskussion als "Verdienen damit Geld" - das ist im Moment eine MASSIVE Verbrennung von REssourcen. Scheiss aufs Geld, das Wasser macht mir ernsthaft Sorgen.
 
Mitglied seit
09.02.2021
Beiträge
3.151
Reaktionen
2.881
Super-powerful AI bietet potentiell größere Benefits als so ziemlich jede andere Technologie der Geschichte, darum hielte ich es für tendenziell unvernünftig, da auf die Bremse zu treten: Es gibt sehr viele große Probleme, die wir mit Hilfe von AI gerne lösen würden und es wäre ne Schande, wenn wir die ewig lang queuen müssten, weil wir so compute-constrained sind.

ist ja gut jetzt, elon. ansonsten ist das halt wie mit einem lotto-gewinner, der idr. erstmal nicht mit der kohle umgehen kann. die ai-unternehmen werden derzeit derartig zugeschissen mit kohle und der prämisse, das rat-race zu gewinnen. von daher ist "vernünftig" in dem szenario einfach unsinn. das ist nach wie vor die trial and error phase. mehr geld bedeutet hier nicht zwangsläufig nicht bessere oder schnellere ergebnisse. nur eben mehr davon.
 
Oben