• Liebe User, bitte beachtet folgendes Thema: Was im Forum passiert, bleibt im Forum! Danke!
  • Hallo Gemeinde! Das Problem leidet zurzeit unter technischen Problemen. Wir sind da dran, aber das Zeitkontingent ist begrenzt. In der Zwischenzeit dürfte den meisten aufgefallen sein, dass das Erstellen von Posts funktioniert, auch wenn das Forum erstmal eine Fehlermeldung wirft. Um unseren Löschaufwand zu minimieren, bitten wir euch darum, nicht mehrmals auf 'Post Reply' zu klicken, da das zur Mehrfachposts führt. Grußworte.

Wie nutzt ihr KI?

Scorn4

Servitor
Mitglied seit
13.02.2003
Beiträge
6.077
Reaktionen
973
Ort
Münster
Ja klar. Bei BC gab es meines Wissens gar keine solche systematische Wette. Es wurden halt kleinanleger en masse gescammt. So richtig Zusammenhang sehe ich nicht zur ki.
Du hast natürlich Recht, dass die Blockchain nicht mal annähernd so präsent war wie die KI derzeit. Das liegt daran, dass die handfesten Ergebnisse, die die KI liefert, die Blockchain nicht nur in den Schatten stellt sondern verschwinden lässt.
ChatGPT ist ein netter Gesprächspartner, der wirklich jedem in den Arsch kriecht. Mit Geok kann man Sexualstraftaten begehen und in manchen Fällen geben die KIs auch brauchbare Antworten auf komplexe Fragen.
Die Blockchain ist jetzt nicht nutzlos oder so. Mit Kryptowährungeln kann man Vermögen verstecken, illegale Geschäfte finanzieren und Geldwäsche betreiben.
Sowas ist aber eher ein Nischeninteresse. Die Bürokollegin nackt sehen ist ein weiter verbreitetes Anliegen als Kokaingeld zu waschen.
Dazu kommt, dass viele von den oberflächlichen Ergebnissen der KI so geblendet sind, dass sie der KI Kernaufgaben anvertrauen möchten.
 
Mitglied seit
25.09.2014
Beiträge
5.337
Reaktionen
1.487
Aber Modelle müssen die ganze Zeit nachtrainiert werden, selbst die "speziellsten". Und das ist wirklich aufwändig, weil du z.B. bei den generellen Sprachmodellen ja auch Halluzinationen rausfiltern musst - da geht immer mehr Aufwand rein. Bisher hauen die großen LLMs jeden Monat mehr Ressourcen in ihr Training, der Mehraufwand nimmt deutlich schneller zu als die Effizienz gesteigert wird. Vergleiche hierzu einfach Nvidias Verkaufszahlen und Geschäftsberichte der Hypedrscaler. Die verstecken die immensen Kosten btw. zur Zeit MASSIV, weils den Aktionären schwer zu erklären ist, und "normale" Hyperscalerdinge werden ja gerade massiv teurer, unter anderem genau deswegen.
Ich sehe wirklich kein belastbares Geschäftsmodell obenrum, und die Wette erinnert doch mittlerweile krass an "Metaverse" und "Blockchain" - ist von beidem was übrig geblieben, aber waren beide Blasenartig...
Das Training an sich ist doch nicht das Problem, sondern die Expansion: Selbst wenn du mit einem einzelnen Modell über die seine Lebenszeit (Entwicklung, Training, Deployment) Gewinn erwirtschaftest, wreckt es deine Bilanz, wenn du aufgrund des Innovationsdrucks währenddessen ein x-Mail größeres Modell entwickeln und trainieren musst. Aber dieser Druck nimmt mit der Zeit ab, weil Modelle nicht unbegrenzt wachsen werden wegen diminishing returns und begrenzten Ressourcen. D.h. du kannst mit der Zeit einen inner größeren Teil deines Computes zur Inferenz verwenden.
Diese Wette geht auf, solange Inferenz langfristig genug Marge bringt und man sich dazwischen nicht verspekuliert: Wenn du zu wenig in Infra investierst, cappst du nur deinen Gewinn. Wenn du deutlich zu viel investierst und entweder nicht genug User hast oder nicht genug monetarisieren kannst, hast du ein Problem. OAI hat da sicher am meisten Exposure und wir werden sehen, wie gut das aufgeht.
Mir persönlich ist allerdings schwer vorstellbar, dass wir demnächst in ein Regime mit zu wenig Nachfrage kommen.


[Edit]
in manchen Fällen geben die KIs auch brauchbare Antworten auf komplexe Fragen
:rofl2:
 
Zuletzt bearbeitet:
Mitglied seit
31.03.2001
Beiträge
27.357
Reaktionen
587
Blockchain hat aber mehr erhoffen lassen als nur ein paar kuriose Währungen. Der Grundgedanke war bei weitem nicht so nischig.
 

GeckoVOD

Moderator
Mitglied seit
18.03.2019
Beiträge
4.709
Reaktionen
2.849
OK, guter Punkt. Du hast Recht, dass man sowas landläufig KI nennt.
[...]
Jetzt kann man behaupten, woah, sowas ist ja voll intelligent und funktioniert genauso wie ein menschliches Gehirn.
Wenn du dich an dem Wort Intelligenz so stark aufhängst, dann beginnst du eine Reise in den Kaninchenbau. Neuronale Netze simulieren das Gehirn und der Ansatz ist deutlich effizienter als ein reines Script oder gängige Software. Grundsätzlich befreit es dich aber nicht von der Herausforderung, ein spezifisches Problem sehr genau zu definieren, mit allen gegebenen (möglichen) Inputs und letztlich auch der Interpretation des Outputs. Eventuell hast du die Vorstellung, eine künstliche Intelligenz müsse den Output objektivierbar, also als empirisch prüfbare und verifizierbare (falsifizierbare) Darstellung ausformulieren, die noch dazu den Rahmen des Inputs übersteigt. Aber können wir als Mensch das denn? Diese Forderung wird kein uns bekanntes Lebewesen allumfassend erfüllen und alleine diese Art der Diskussion biegt sehr schnell in die Grundlagen der Philosophie ab.

KI wird noch sehr lange "einfach nur" ein sehr nützliches Werkzeug sein. Gerade dort, wo wir an unsere eigene Grenzen stoßen, weil wir Schwierigkeiten haben, die Gegebenheiten umständlich in uns greifbare Konzepte umzuwandeln, oder in die Gefahr laufen, immer wieder auf unsere Instinkte zu hören, die für die Probleme nicht geschaffen sind. In diesem Bereich sind die Ergebnisse im Mindestfalle Anhaltspunkte, im Bestfalle eine Abkürzung Lösungen zu erhalten. Ein Code wird nicht ohne weiteres wirklich etwas Neues erzeugen, das vorher nicht schon im Input steckte, andererseits ist das auch für Lösungen nicht immer nötig (Philosophie außen vor) - schon Neandertaler nutzten Speere, ohne die Ballistik formulieren zu können. Im Falle von Predictive Maintenance "denkt" eine Maschine nicht in Naturgesetzen, wertet aber Daten extrem brauchbar aus und mehr muss sie da auch nicht tun. Das kann sie, weil sie aus dem scheinbar chaotischen Input Muster offensichtlich macht, die für Menschen nur schwer erkennbar sind, weil wir Chaos und System in großen Maßstäben nur schwer erkennen können (da unser Gehirn noch viel mehr Input erhält). Es ist daher schon nachvollziehbar, dass wir das Vorgehen "intelligent" nennen, auch wenn es das im engeren Sinn nicht immer ist. Es ist anders.

Außen vor, dass KI uns auch viele Bequemlichkeiten gibt, die wiederum Fallstricke in den Alltagsanwendungen haben. Nur sollte man von den halbgaren Alltagsvarianten nicht auf alle Einsatzgebiete schließen.

Ich gebe es dir, irgendwo da steckt schon ein Punkt, siehe

Es gibt einen Begriff von AGI oder ASI, der menschliche Intelligenz als Teilmenge enthält. Das unterstellt, dass AI uns kognitiv erstmal ähnlich werden muss, um uns schließlich zu übertrumpfen.
Damit gehe ich noch mit. Allerdings:

In terms of pure intelligence, it is smarter than a Nobel Prize winner across most relevant fields – biology, programming, math, engineering, writing, etc. This means it can prove unsolved mathematical theorems

Solange eine KI nur einen Beweis ausspuckt, aber keiner den Lösungsweg nachvollziehen kann: Wie lange bringt uns das was? Abgesehen davon, dass da en passant ausgelassen wird, wie schwierig es überhaupt sein wird, von den aktuellen Systemen die Erklärung des Lösungswegs in eine irgendwie verständlich geartete Notation zu übersetzen, die zumindest die Elite des Fachgebiets gut und halbwegs schnell versteht (wenn wir es denn überhaupt können). Zugegeben kenne ich mich im MINT-Bereich der Modelle wenig aus, aber die Verschränkung der verschiedenen Teilgebiete erscheint mir alles andere als simpel oder nahe an dem, das da als Ziel formuliert wurde. Es klingt insgesamt als Verkauf eines Invests, ohne den Status Quo realistisch zu betrachten. Möglich ja, aber möglich ist vieles. Bis zu den Punkten dürfte es schon noch dauern.
 
Mitglied seit
25.09.2014
Beiträge
5.337
Reaktionen
1.487
Ich sehe keinen Grund, warum eine LLM-basierte AI mit der Macht, signifikante mathematische Resultate zu liefern, diese nicht auch erklären oder direkt in Lean formalisieren können sollte. In den formalen Wissenschaften ist Verifikation daher relativ einfach. Die Grenze, an die man da stößt, ist eher quantitativ, wenn die Menge des nützlichen Outputs irgendwann einfach zu groß wird. Aber das wird dann eher ein Luxusproblem.
Der Flaschenhals ist deutlich enger in Bereichen, die experimenteller Verifikation bedürfen und zudem noch stark reguliert sind.
 

GeckoVOD

Moderator
Mitglied seit
18.03.2019
Beiträge
4.709
Reaktionen
2.849
Ich kenne mich zu wenig in der Mathematik (und Naturwissenschaften) aus, um das abschließend beurteilen zu können.

Mein Gedankengang orientiert sich ein Stück am oben genannten Stockfish und den Analysen, die ich bei IMs/GMs sehe, wenn sie mit deren Zügen konfrontiert sind. Eine Notation ist da indirekt mitgeliefert, da die Engine im Zweifel die Varianten auf Nachfrage (auch grafisch und gewichtet) darstellen kann. Zweifelslos sind die Züge durchdacht, deren Sinn verstehen aber selbst die Elitespieler nicht ohne weiteres, zumindest nicht, ohne wirklich lange und tiefe Analysen einer gegebenen Stellung (zu schweigen von so random Idioten wie mir). Am Ende sagen selbst die stärksten Spieler, dass sie vermuten den Sinn zu verstehen, aber formulierbar scheint es selbst für diese Leute nicht. Und diese Gruppe an Analysten sind schon eine handvoll vorselektierter Personen, die das Rüstzeug für die Analyse mitbringen und die Werkzeuge haben, die Notation an der Wirklichkeit zu testen.

Daher auch die Frage, ob eine KI uns das jemals so simplifizieren kann, dass wir das verstehen oder uns "darauf verlassen" können. Abhängig vom Teilgebiet und der Anwendbarkeit ist das schon ein hohes "falls". Wie du selbst sagst, die Art das zu bewerten ist völlig anders als das Verständnis, das der menschliche Geist mit sich bringt.

Und vorgeschaltet müsste überhaupt die Verknüpfung des Analyseparts mit dem Übersetzungpart erfolgen, wobei die Übersetzung wiederum sehr anwendungspezifisch sein dürfte. Ich schließe es nicht aus, dass wir da hinkommen, nur scheint mir der Weg viel, viel länger, als von obigem Artikel zitiert.
 
Mitglied seit
18.08.2002
Beiträge
2.598
Reaktionen
202
LLMs formulieren doch schon mathematische Sätze für die formale Beweisführung in Lean. Jeder Beweisschritt wird durch einen Lean Compiler geprüft und so lange verbessert bis die Lösung logisch korrekt ist. AlphaProof ist da ziemlich stark drin und hat bei der IMO Silber Niveau erreicht.

Scorns Getrolle ist langsam unverständlich.
 
Mitglied seit
25.09.2014
Beiträge
5.337
Reaktionen
1.487
Wir reden hier über zwei sehr unterschiedliche Arten von System.

AlphaProof und seine Nachfolger (Deepseek Prover, Aleph Prover usw.) sind spezialisierte Systeme und architektonisch nahe mit AlphaGo verwandt: Du hast einen formal eingegrenzten Zustandsraum (Brettpositionen, proof state), über dem du gewisse Aktionen (Zug, tactic) durchführen kannst. Dann kombiniert man neuronale Netze für Policy (nächster Zug?) und Value (Gewinnwahrscheinlichkeit?) mit klassischen Suchalgorithmen (MCTS).
AlphaGo Zero hat Policy- und Value-Network from scratch über Self-Play und Reinforcement Learning trainiert. Theorem-Prover benutzen vortrainierte LLMs als Backbone. Die grundsätzliche Methode ist relativ ähnlich.

Diese Systeme haben den großen Vorteil, dass du einen deterministischen Lean-Kernel zur Verifikation nutzen kannst. Ein weiterer Vorteil ist, dass du im Gegensatz zu reinen LLMs effektiver off-policy erkunden kannst: Du entdeckst bei der Suche Lösungswege, die das LLM allein nicht gefunden hätte. Dadurch outperformen solche Systeme reine LLMs in formalisierten Settings, aber der Compute-Overhead für die Suche ist hoch: Es ist viel teurer mit so einem System ein Problem zu lösen als mit einem reinen LLM.
Dazu kommt: Während AlphaGo Zero sein Policy- und Value-Network durch reines Self-Play und RL bootstrappen konnte, sind solche Theorem-Prover viel stärker durch ihren Policy-Prior constrained: Ihre Leistungsfähigkeit skaliert ganz wesentlich mit der Leistungsfähigkeit des LLM-Backbones.

Allein die Möglichkeit der formalen Verifizierung macht solche Systeme sehr wertvoll, aber ihre Entwicklung hängt letztlich von der Entwicklung der zugrundeliegenden LLMs ab.
Meine Bemerkung oben war tatsächlich auf reine LLMs (mit CoT/Reasoning) bezogen, mit denen ich einiges an Erfahrung (vs. null mit spezialisierten Provern/Lean) im Lösen mathematischer Probleme habe. Der Fortschritt, den die Models hier in den letzten ein, zwei Jahren gemacht haben, ist ähnlich spektakulär wie beim Coden.
Mal als Referenz in Bezug auf AlphaProof: Ein Jahr später war quasi jedes SOTA LLM in einem guten Agent-Harness in der Lage IMO-Gold-Level zu erreichen:

Die neuesten Modelle sind nochmal spürbar besser geworden und bringen echten Mehrwert als Research-Assistenten - wenn auch noch nicht auf PhD-Level, wie öfter behauptet wird. Ich selbst setze hauptsächlich GPT 5.2 ein und würde mit hoher Konfidenz behaupten, dass es in allgemeiner mathematischer Problemlösekompetenz deutlich über einem durchschnittlichen Mathematik-Absolventen (Bachelor/Master) liegt.
Etwas ernüchtert musste ich z.B. neulich feststellen, dass es als erstes Model das Hauptresultat meiner Bachelorarbeit mühelos in vollständiger und rigoroser Form beweisen konnte. Geminis Kommentar in seiner Rolle als Juror, nachdem sein eigener Beweisversuch eher mittelmäßig ausgefallen war:
Ich gebe dem Beweis eine glatte 10 von 10 Punkten.

Der Beweis ist meinem in puncto mathematischer Strenge (Rigorosität), Detailtiefe und didaktischem Aufbau deutlich überlegen. Er liest sich wie ein hervorragend ausgearbeiteter Beweis aus einem fortgeschrittenen Lehrbuch zur Wahrscheinlichkeitstheorie.
(Mein eigener Beweis von damals hat es leider nur auf 7 von 10 Punkten gebracht. :8[:)
 
Mitglied seit
18.08.2002
Beiträge
2.598
Reaktionen
202
Ja, ich denke in "High-Stakes"-Bereichen wie der Medizin, der Statik oder der Rechtsprechung, wo Fehler teuer und gefährlich sind, wird man auch langfristig ähnlich strikte guardrails und spezialisierte Architekturen brauchen wie bei AlphaProof und Konsorten, auch wenn sie teuer und langsamer sind als reine LLMs.
Man muss sich aber immer wieder vor Augen führen, in welchen Zeiträumen diese Fortschritte erzielt werden. Das ist glaube ich, was die meisten Leute unterschätzen und was gleichzeitig faszinierend aber auch enorme gesellschaftliche Sprengkraft hat. In etwas mehr als einem Jahr haben sich die großen LLMs von "stochastischen Papageien" zu reasoning Spezialisten entwickelt, die eben nicht mehr nur nachbeten können, was in den Trainingsdaten vorgegeben ist (siehe humanity's last exam).
 
Mitglied seit
25.09.2014
Beiträge
5.337
Reaktionen
1.487
Naja, die Message sollte eher sein, dass diese spezielle Methode nur unter Voraussetzungen funktioniert, die außerhalb bestimmter Bereiche wie Mathematik, Coding, allgemein: formalen Systemen, nicht existieren.
 
Oben