• Liebe User, bitte beachtet folgendes Thema: Was im Forum passiert, bleibt im Forum! Danke!
  • Hallo Gemeinde! Das Problem leidet zurzeit unter technischen Problemen. Wir sind da dran, aber das Zeitkontingent ist begrenzt. In der Zwischenzeit dürfte den meisten aufgefallen sein, dass das Erstellen von Posts funktioniert, auch wenn das Forum erstmal eine Fehlermeldung wirft. Um unseren Löschaufwand zu minimieren, bitten wir euch darum, nicht mehrmals auf 'Post Reply' zu klicken, da das zur Mehrfachposts führt. Grußworte.

Wie nutzt ihr KI?

Scorn4

Servitor
Mitglied seit
13.02.2003
Beiträge
6.062
Reaktionen
967
Ort
Münster
Stockfish zum Beispiel, auch wenn es Notation versteht, erklärt es seine Züge nicht in Sprachform wie es ein LLM tun sollte. Ansonsten, man möge mich korrigieren, so was wie predictive maintenance
OK, aber Stockfish ist jetzt keine KI sondern eine Engine; eine Chess Engine.
Das ist keine Intelligenz, das ist ein Wenn-Dann-Algorithmus.

Ich habe mal ein Blackjack-Programm geschrieben und für den Bank-Spieler verschiedene Profile gegeben, wie der reagiert und wbis zu welchem Limit er wann zieht.
Klar ist Stockfish wahnsinnig komplexer, aber im Grunde genommen ist das genau das.
Sowas ist keine KI.
 
Zuletzt bearbeitet:

GeckoVOD

Moderator
Mitglied seit
18.03.2019
Beiträge
4.707
Reaktionen
2.848
OK, aber Stockfish ist jetzt keine KI sondern eine Engine; eine Chess Engine.
Das ist keine Intelligenz, das ist ein Wenn-Dann-Algorithmus.

Ich habe mal ein Blackjack-Programm geschrieben und für den Bank-Spieler verschiedene Profile gegeben, wie der reagiert und wbis zu welchem Limit er wann zieht.
Klar ist Stockfish wahnsinnig komplexer, aber im Grunde genommen ist das genau das.
Sowas ist keine KI.
Ich habe mich nicht in der Tiefe mit der Funktionsweise von Stockfish beschäftigt, meines Wissens nach setzt es aber schon neuronale Netze für die Evaluation ein, teilweise in unterschiedlicher Tiefe und sollte damit die Definition einer schwachen / spezifischen KI erfüllen: Einer KI, die exakt für einen Zweck da ist; bei Stockfish die Evaluation einer Position, der Selektion von Kandidatenzügen und das Abspielen der weiteren Partie.

"Selbstverständlich" ist es "nur" eine Engine mit Wenn-Dann-Logik auf abstrakter Ebene, so wie unser Gehirn auch. Es ist dann aber bei genauerer Betrachtung mehr als eine SQL-Abfrage aller potenzieller Partien, bei der exakt der Zug gewählt wird, die die meisten Gewinnspiele am Ende der Kette selektiert. Oder ein stumpfes Durchlaufen eines Entscheidungsbaumes, der unklare Enden der Wenn-Dann-Logik mit allgemeinen, vorgegebenen Regeln auflöst. Hier scheint das Verständnisproblem erster Ordnung zu liegen, es gibt keine starke KI, die einen Turing-Test bestehen könnte, noch propagiert das irgendwer. Bis dahin dauert es noch sehr lange.

Meines Verständnisses nach (simplifiziert) trifft KI nach einem Input eine Vorhersage, basierend auf Wahrscheinlichkeiten, die meist wiederum auf Analyse der Trainingsdaten basieren. Hier liegt wohl dein Verständnisproblem zweiter Ordnung. Es sind noch Wenn-Dann-Logiken, die allerdings laufend eigenständig durch weitere Algorithmen mit Gewichten angepasst werden und über die Zeit immer präziser werden. Das löst bei einem Menschen diverse Probleme aus, weil die Entscheidungsfindung, im Gegensatz zu vorherigen Algorithmen, im Detail kaum nachvollziehbar sind (Black Box Problem), sondern man Fehlerquellen erahnen, oder die Lösung akzeptieren muss.

Im Falle von Stockfish können dir viele Großmeister, Levy Rozman als internationaler Meister eingeschlossen, häufig nicht sagen, was ein Zug soll. Sie sehen allerdings nach längerer Analyse, das was dran ist, wenn sie die Kandidatenzüge durchspielen. Durchspielen müssen sie das aber, eben weil die "Engine" inhumane Züge macht, die übliche Regelsätze bricht, da sie diese nicht "kennt" und stattdessen eigene Regelbäume erstellt, die nicht auskommentiert sind, weil die Auskommentierung nicht Bestandteil der Funktionsweise ist - das ist ein komplett anderes Fachgebiet, da sind wir wieder im Bereich von LLM. Es ist wie ein Lehrer, der ein Inseltalent in seinem Fachgebiet ist, aber unterirdisch in Didaktik ist. Eine KI mit menschlichen Verben und Adjektiven zu beschreiben hilft btw auch nicht.

Wenn du dich näher mit der Funktionsweise von ML, Deep Learning, neuronalen Netzen und was weiß ich beschäftigst, dann verstehst du auch, warum diese Buchstabenzählerei bei LLM gar nicht mal so trivial ist. Das Ding analysiert keine Buchstaben oder Wörter, sondern Muster in Wortbestandteilen. Entsprechend gut kann eine LLM kohärente und halbwegs sinnige Texte erstellen, ohne jemals im menschlichen Sinne eine Sprache gelernt zu haben, weil bereits Sprache ein Verständnis von mindestens einem weiteren Prozess / Aufgabengebiet voraussetzt, der beschrieben werden soll. Eine reine Inhaltsanalyse, so wie du sie in der Schule gelernt hast, macht eine LLM nie, am ehesten wäre es mit einer qualitativen Inhaltsanalyse in der Empirie vergleichbar. Interessanterweise führt das trotzdem zu guten Ergebnissen. Der KI-Bestandteil einer LLM prognostiziert, welcher Text (Wörter) deine Frage statistisch gesehen am ehesten beantworten und produziert diesen entsprechend. Beantworten meint dann, dass du eine positive Rückmeldung formulierst ("Danke!"), oder du einfach keine Rückfragen stellst. Man kann sogar anhand deiner Verweildauer in etwa schätzen, ob du das schnell oder eher nicht schnell verstanden hast. War es gut, dann passt es, löste es Rückfragen oder eine lange Verweildauer aus, dann wird die nächste Antwort vereinfacht. Es ist schon ein sehr erstaunliches Tool.

Und ja, auch da gibt es berechtigte Kritik, u.a. weil die LLM an deiner Reaktion misst, ob die Antwort richtig oder falsch war, nicht an objektiven Fakten. Nimmst du eine falsch-positive Antwort an, dann verstetigen sich Fehler. Oder das LLM halluziniert antworten, weil sie in etwa erahnen kann, was dir richtig erscheint, unabhängig davon, ob es in den Trainingsdaten Evidenz für die Existenz der Halluzination gibt. Oder das LLM gräbt das Geschäftsmodell von Autoren, Künstlern, Journalisten oder sonstigen ab, da deren Content ohne Erlaubnis analysiert wird. Von der Auswertung von Massendaten durch andere KI-Formen zu schweigen, die echt gruselig werden können - siehe den Social Score.

Das Buchstabenzählen-Beispiel deinerseits soll Fehler provozieren, weil es eine Schwachstelle in der Funktion offenbart. Aber ehrlich, bei allen Kritikpunkten, das hat schon was einen Hammer zu verurteilen, weil er Schrauben nicht gut in die Wand kriegt.
 
Mitglied seit
18.08.2002
Beiträge
2.595
Reaktionen
201
OK, interessant.
Welche KI ist kein LLM?
Alle moderenen KIs basieren auf neuronalen Netzen, aber der Input, Regeln und Struktur unterscheiden sich teils erheblich, was einen Einfluss darauf hat wie viel beim Ergebnis "halluziniert" werden kann.
Bei stockfish werden vereinfacht gesagt die Schachregeln als unumstößliche Wahrheit einprogrammiert, also praktisch alle legalen Spielzüge. Dann spielt dass Programm millionenfach gegen sich selbst, bis es besser ist als ein Mensch. Schach ist im Prinzip ein Sonderfall, weil man da auch regelbasierte Lösungen schreiben kann, die Entscheidungsbäume durchgehen. Auch diese waren ja schon früh in der Lage Schach Großmeister zu besiegen, aber gegen stockfish haben sie nicht den Hauch einer Chance.

Interessant wird es bei Spielen mit unsicherer Informationslage wie StarCraft. Alphastar bekommt auch hier die Spielregeln bzw. das Api zum Spiel und spielt millionenfach gegen sich selbst; probiert aber (im Rahmen der Regeln) unterschiedliche Wege aus, um zum Sieg zu kommen (bei LLMs würde man analog von halluzinieren reden). Fast alle diese Wege scheitern, besonders am Anfang, aber mit der Zeit werden sie halt unschlagbar gut.

Ich verstehe noch nicht so ganz was hier das Ziel der Debatte ist. KI wird immer auch Fehler machen, das ist unstrittig. Menschen machen aber auch Fehler, teils schwerwiegende. Selbstfahrende Autos bauen weniger Unfälle als 99% aller Menschen, aber sie bauen noch welche. Perfektion ist überhaupt kein sinnvoller Benchmark.
 

Scorn4

Servitor
Mitglied seit
13.02.2003
Beiträge
6.062
Reaktionen
967
Ort
Münster
Ich habe mich nicht in der Tiefe mit der Funktionsweise von Stockfish beschäftigt, meines Wissens nach setzt es aber schon neuronale Netze für die Evaluation ein, teilweise in unterschiedlicher Tiefe und sollte damit die Definition einer schwachen / spezifischen KI erfüllen: Einer KI, die exakt für einen Zweck da ist; bei Stockfish die Evaluation einer Position, der Selektion von Kandidatenzügen und das Abspielen der weiteren Partie.

"Selbstverständlich" ist es "nur" eine Engine mit Wenn-Dann-Logik auf abstrakter Ebene, so wie unser Gehirn auch. Es ist dann aber bei genauerer Betrachtung mehr als eine SQL-Abfrage aller potenzieller Partien, bei der exakt der Zug gewählt wird, die die meisten Gewinnspiele am Ende der Kette selektiert. Oder ein stumpfes Durchlaufen eines Entscheidungsbaumes, der unklare Enden der Wenn-Dann-Logik mit allgemeinen, vorgegebenen Regeln auflöst. Hier scheint das Verständnisproblem erster Ordnung zu liegen, es gibt keine starke KI, die einen Turing-Test bestehen könnte, noch propagiert das irgendwer. Bis dahin dauert es noch sehr lange.
OK, guter Punkt. Du hast Recht, dass man sowas landläufig KI nennt.
Sowas ist dann aber keine Intelligenz. stockfish, alphazero und co. sind nicht intelligent und denken ebenso wenig wie mein Blackjack-Programm mit seinen 300 Zeilen Code.
Der Unterschied zwischen meinem Blackjack-Programm und stockfish ist, dass stockfish die Zugfolgen nicht vorgegeben bekommt sondern sich durch probieren selbst eine Datenbank aufbaut und aufgrund dieser Datenbank Entscheidungen trifft.
Jetzt kann man behaupten, woah, sowas ist ja voll intelligent und funktioniert genauso wie ein menschliches Gehirn.
Ich habe auch ein Tic-Tac-Toe-Programm gechrieben, das sich das komplette Spiel durchrechnet und gegen jeden menschlichen Spieler Remis hält. Es rechnet selber, ich habe ihm keine Zugfolge vorgegeben. Das ist natürlich nicht so komplex wie stockfish und nutzt keine neuronalen Netze. Es macht aber im Prinzip das gleiche. Sowas ist keine KI.
Warum ich hier Position beziehe, sind solche Aussagen:
Das ist doch auch wieder Krampf. Ein gewisses Wissen/Intelligenz (sicher nicht AGI) ist hier zweifellos vorhanden. Das spürt man wenn man komplexere Dinge von der KI machen lässt. Wie weit der reine LLM approach noch trägt ist natürlich trotzdem die Frage. Aktuell ist es natürlich noch weit vom Menschen entfernt (bzw. völlig andersartig) und hat auch riesige Defizite.
Zweifellos!
Nach offizieller Definition fängt KI schon lange vor LLMs an.
Offizielle Definition, ja?
"Es existieren zahlreiche Definitionen für den Begriff der KI. Je nach Sichtweise wird die künstliche Intelligenz in Industrie, Forschung und Politik entweder über die zu erzielenden Anwendungen oder den Blick auf die wissenschaftlichen Grundlagen definiert"

Ich habe selbst versucht, KI zu nutzen, als Unterstützung für meine Salesforce-Architektur. Sowohl ChatGPT als auch das Salesforce-eigene Agentforce.
Das ist alles Mist.
Zwei Wochen lang hat sich ein Kollege damit rumgeschlagen, einen Flow nachzubauen, den ihm die KI vorgeschlagen hat, mit Nachfragen und neu probieren. Dann hat er mich gefragt. Ich habe mir den Chatverlauf angeschaut und mir standen die Haare zu Berge. Die KI wollte immer einen Vorgang durchsetzen, der einfach nicht geht. Und bei dem Hinweis, dass das nicht geht, hat die KI alles andere im Flow umgeworfen, aber nur an diesem einen falschen Punkt die ganze Zeit festgehalten. Das war im Prinzip nicht Wildes. Aus einer Reihe von Daten sollte eine Picklist gebaut werden. Was da genau falsch lief, weiß ich nicht. Ich vermute, dass fehlerhafte Diskussionen im Internet als Datengrundlage gewählt wurden.
Auch Excel mit KI kann echt frustrierend sein. Für einen Datenimport wollte ich Daten in einer wilden Excelliste strukturieren. Da waren Personennamen einem Account zugeordnet und standen in einer Spalte mit Komma gretrennt zusammen. So ging der Import halt nicht, da wollte ich - mal eben - die Liste umbauen.
Vorher:
Code:
Firma01; Person01, Person02, Person03
Nachher:
Code:
Firma01; Person02
Firma01; Person02
Firma01; Person03
Und das in einer Liste mit 100.000+ Einträgen.
OK, cool, fragste doch mal ChatGPT, das kann ja so schwer nicht sein.
Alter Falter!
Dass ChatGPT deutsche und englische Befehle durcheinander geworfen hat, war noch harmlos. Bei jeder Rückmeldung meinerseits, dass das nicht funktioniert, wurde der Code wilder, mit LAMBDA, VSTAPELN, usw.
Hat mir einen ganze Nachtmittag gefressen, bis ich ChatGPT ausgemacht habe und das am nächsten Tag selbst gelöst habe.
 
Mitglied seit
23.11.2004
Beiträge
1.184
Reaktionen
25
Jo und ich habe die KI bereits erfolgreich eingesetzt um Prototypen zu erstellen. Ich check gar nicht was du überhaupt argumentieren willst hier.

Edit: natürlich hab ich auch viele Sachen probiert, die nicht funktioniert haben, but whats the point?
 
Zuletzt bearbeitet:
Mitglied seit
31.03.2001
Beiträge
27.348
Reaktionen
581
Offizielle Definition, ja?
"Es existieren zahlreiche Definitionen für den Begriff der KI. Je nach Sichtweise wird die künstliche Intelligenz in Industrie, Forschung und Politik entweder über die zu erzielenden Anwendungen oder den Blick auf die wissenschaftlichen Grundlagen definiert"
natürlich ist man sich am Ende selten 100% trennscharf einige bei der Definition. Aber wir hatten im alten Job mal einen Vortrag zu KI (natürlich mandatory, obwohl der Vortrag echt nix tolles war), bei dessen Definition war meine Reaktion auch erstmal "viel zu weit, so ein Unsinn" und hab dann den Rest des Vortrags nebenbei gegoogelt und da ist schon ein überragender Teil der Forscher etc immer der Meinung, dass der ganze alte Kram auch bereits unter AI fiel. Mit der Meinung das nicht mal LLMs drunterfallen dürfte Trilo wohl sehr weit ab vom Schuss stehen.
 

Scorn4

Servitor
Mitglied seit
13.02.2003
Beiträge
6.062
Reaktionen
967
Ort
Münster
Jo und ich habe die KI bereits erfolgreich eingesetzt um Prototypen zu erstellen. Ich check gar nicht was du überhaupt argumentieren willst hier.

Edit: natürlich hab ich auch viele Sachen probiert, die nicht funktioniert haben, but whats the point?
The point ist, dass KI eine nette Ergänzung für einen fachkundigen Experten ist, aber genau diesen Experten nicht ersetzen kann.
Auf zu vielen Entscheidungsebenen wird aber so getan, als sei KI die kommende Lösung für so gut wie alles.
Für jemanden mit wenig Einsicht in das jeweilige Thema kann KI teilweise helfen, aber dann auch wieder sehr kontraproduktiv sein, Abwegen fördern und Verwirrung stiften, immer mit dem freundlichen "Ah jetzt habe ich das Problem verstanden! Jetzt ist mir alles klar" als Rückmeldung.
natürlich ist man sich am Ende selten 100% trennscharf einige bei der Definition. Aber wir hatten im alten Job mal einen Vortrag zu KI (natürlich mandatory, obwohl der Vortrag echt nix tolles war), bei dessen Definition war meine Reaktion auch erstmal "viel zu weit, so ein Unsinn" und hab dann den Rest des Vortrags nebenbei gegoogelt und da ist schon ein überragender Teil der Forscher etc immer der Meinung, dass der ganze alte Kram auch bereits unter AI fiel. Mit der Meinung das nicht mal LLMs drunterfallen dürfte Trilo wohl sehr weit ab vom Schuss stehen.
Ja weil weder KI ordentlich definiert ist noch jemand weiß, wie man Intelligenz - künstlich oder nicht - nachweisen sollte.
Viele definieren dann mit Bezug auf uns Menschen, und LLMs können Menschlichkeit gut vorspielen. Aber das ist halt nur vorgespielt. Schaut man genauer hin, zerfällt die Illusion. So wie in meinen Beispielen.
 
Mitglied seit
18.08.2002
Beiträge
2.595
Reaktionen
201
Ich versteh dieses Versteifen auf ChatGPT nicht. Warum habt ihr nicht wenigstens mal ein Modell ausprobiert, das State of the Art ist und für das Problem optimiert, das man lösen will? Claude, Gemini oder wenigstens ein Reasoning Modell? Daten Transformation dieser Art mache ich ständig und es funktioniert einwandfrei. Wenn es zu komplex ist, lasse ich mir Code generieren und das Programm macht dann die Transformation. Auch das geht immer noch schneller als es selbst zu machen.

Dass heute die meisten Menschen nicht vollständig von KI ersetzt werden können ist selbstverständlich, aber dass es eine Frage von wenigen Jahren ist, bis gängige Büroarbeiten aus technischer Sicht fast vollständig automatisierbar sind, ist jetzt keine allzu mutige Prognose. Das Meiste geht schon heute, aber die Interfaces sind noch nicht optimal und für die meisten Menschen im Alltag zu umständlich, um produktiv damit arbeiten zu können.

Ob Intelligenz oder nicht ist eher eine philosphische Frage und eigentlich auch zweitrangig. LLMs sind Statistikmaschinen, denen durch Training und Fine Tunining ein Bias zur Korrektheit und Höflichkeit eingeimpft wurde, wodurch korrekte und höfliche Antworten statistisch wahrscheinlicher werden. Wenn man das nicht als Intelligenz bezeichnen möchte, muss man zumindest anerkennen, dass ein Modell ab einer bestimmten Komplexität Konzepte, die es in der realen Welt gibt, repräsentieren und dynamisch für jeden beliebigen Prompt verknüpfen können muss. Das Verständnis dieser Zusammenhänge ist rein statistisch und erreicht nicht immer die Tiefe von menschlicher Expertise, aber das Prinzip ist trotzdem wie bei uns: wir bekommen Input auf unsere Sensorik, Neuronen feuern, es kommt eine Reaktion. Wenn wir von einem Thema keine Ahung haben reden wir Bullshit oder wir sagen nix. Ein LLM sagt immer was, weil ihm schweigen nicht beigebracht worden ist und ist rein reaktiv. Es gibt keine Motivation, kein Ego, kein Ziel, nur Verknüpfung von Konzepten bei hoher Komplexität. Zwischen hochkomplexer Statistik und "echter Intelligenz" zu unterscheiden wird aber schwierig, wenn man letzteres nicht definieren kann oder immer so definiert, dass Maschinen gerade so nicht darunter fallen, Menschen aber schon. Wenn die Statistik gut genug ist, um Krebs zu heilen oder Proteine zu falten, ist diese Frage aber sowieso egal.
 
Mitglied seit
31.03.2001
Beiträge
27.348
Reaktionen
581
Ich versteh dieses Versteifen auf ChatGPT nicht. Warum habt ihr nicht wenigstens mal ein Modell ausprobiert, das State of the Art ist und für das Problem optimiert, das man lösen will? Claude, Gemini oder wenigstens ein Reasoning Modell?
Die Corpo-Mühlen bei mahlen ja oft auch langsam bei sowas. Aus meinem Umfeld hab ich bisher eigentlich gefühlt immer nur gehört, dass bei den Leuten wenn dann ChatGPT eingesetzt wird. Einmal war auch ein Wechsel dabei, aber hab wieder vergessen auf was. Keine Ahnung ob die Firmen sich da mit ihren Lizenzen auch länger binden oder an sich wechseln könnten, aber da werden auch nicht immer alle am Puls der zeit sein.
 
Mitglied seit
23.11.2004
Beiträge
1.184
Reaktionen
25
Nochmal paar Gedanken dazu. Ich bin grad mehr oder weniger gezwungen nen Code agent zu nutzen da ich relativ schnell einen Prototypen in einer mir ungeläufigen Technologie erstellen soll.
Und es funktioniert schon. Aber ich hasse es auch immer mehr. Es ist halt als ob man einen wahnsinnig schnellen Juniorentwickler hat, der alles irgendwie kann aber dann doch Schrottcode produziert. Man wird selbst einerseits faul weil die ki ja alles kann, andererseits ist der code halt auf lange Sicht doch nicht brauchbar. Frustrierend, und das schon bei einem Prototyp, das nimmt einem wirklich jede Freude. Ich hoffe nur das Management besteht nicht drauf dass das für den richtigen code dann auch eingesetzt wird, weils ja schneller geht.

Also ich wäre wirklich nicht traurig wenn das eine Blase ist und die zeitnah platzt. Und die ganze Scheisse wieder in der Versenkung verschwindet.
 

Scorn4

Servitor
Mitglied seit
13.02.2003
Beiträge
6.062
Reaktionen
967
Ort
Münster
Ich versteh dieses Versteifen auf ChatGPT nicht. Warum habt ihr nicht wenigstens mal ein Modell ausprobiert, das State of the Art ist und für das Problem optimiert, das man lösen will?
Für Salesforce habe ich das Salesforce-eigene Agentforce eingesetzt. Ich habe auch extra dafür ein tolles Zertifkat mit offizieller Prüfung und so. Ich bin ausgewiesener Agentforce Specialist.
Das hilft auch nicht weiter und bringt obig genannte Probleme mit.
 
Mitglied seit
25.09.2014
Beiträge
5.331
Reaktionen
1.481
Zu glauben, dass AI wieder verschwindet, halte ich für sehr naiv. Ich rate, im Gegenteil, eigentlich jedem, sich so intensiv wie möglich mit dem Thema zu beschäftigen: Wie die aktuelle Generation von AI funktioniert, wie man sie richtig einsetzt und wo ihre Grenzen liegen.

Wer sich zum Beispiel im Jahr 2026 noch darüber mokiert, dass LLMs Probleme damit haben, Buchstaben in Wörtern zu zählen, dem würde ich erstmal unterstellen, dass die AI-Kompetenz noch ausbaufähig ist. (Ich persönlich finde es, im Gegenteil, eher erstaunlich, dass LLMs sowas überhaupt können.)

Was den allgemeinen Ausblick und die AGI-Timeline angeht:
Man sollte gut zwischen zwei verschiedenen Aspekten unterscheiden.

Es gibt einen Begriff von AGI oder ASI, der menschliche Intelligenz als Teilmenge enthält. Das unterstellt, dass AI uns kognitiv erstmal ähnlich werden muss, um uns schließlich zu übertrumpfen. In diesem Sinne sind wir von AGI/ASI noch relativ weit entfernt - nicht notwendigerweise in Jahren, aber qualitativ: Quasi jeder würde zugestehen, dass die aktuelle Modell-Architektur dazu nicht in der Lage ist, wir also noch den ein oder anderen Durchbruch in der Forschung brauchen, um dieses Ziel zu erreichen. Wie lange das dauert, lässt sich schwer abschätzen.

Wir können aber auch über den möglichen Impact von AI nachdenken und dabei agnostisch gegenüber ihrer Funktionsweise bleiben. Der entscheidende Punkt ist: AI muss dem Menschen nicht unbedingt ähnlicher werden, um ihn in wesentlichen Bereichen zu übertreffen. Sie muss einfach nur besser werden.
Was ich eher vor Augen habe, wenn ich an die Singularität denke, ist nichts, was notwendigerweise uns Menschen in irgendeiner Form ähnelt und schließt auch überhaupt nicht aus, dass AI in gewissen Nischen im Vergleich zu Menschen weiterhin kläglich versagt, sondern stellt einzig und allein auf den Impact ab.
Mir schwebt ganz grob etwa vor:
By powerful AI, I have in mind an AI model—likely similar to today’s LLMs in form, though it might be based on a different architecture, might involve several interacting models, and might be trained differently—with the following properties:

In terms of pure intelligence, it is smarter than a Nobel Prize winner across most relevant fields – biology, programming, math, engineering, writing, etc. This means it can prove unsolved mathematical theorems, write extremely good novels, write difficult codebases from scratch, etc.
In addition to just being a “smart thing you talk to”, it has all the “interfaces” available to a human working virtually, including text, audio, video, mouse and keyboard control, and internet access. It can engage in any actions, communications, or remote operations enabled by this interface, including taking actions on the internet, taking or giving directions to humans, ordering materials, directing experiments, watching videos, making videos, and so on. It does all of these tasks with, again, a skill exceeding that of the most capable humans in the world.
It does not just passively answer questions; instead, it can be given tasks that take hours, days, or weeks to complete, and then goes off and does those tasks autonomously, in the way a smart employee would, asking for clarification as necessary.
It does not have a physical embodiment (other than living on a computer screen), but it can control existing physical tools, robots, or laboratory equipment through a computer; in theory it could even design robots or equipment for itself to use.
The resources used to train the model can be repurposed to run millions of instances of it (this matches projected cluster sizes by ~2027), and the model can absorb information and generate actions at roughly 10x-100x human speed. It may however be limited by the response time of the physical world or of software it interacts with.
Each of these million copies can act independently on unrelated tasks, or if needed can all work together in the same way humans would collaborate, perhaps with different subpopulations fine-tuned to be especially good at particular tasks.

We could summarize this as a “country of geniuses in a datacenter”.

Man kann sicher über einzelne Punkte streiten. AI wird die Art, wie wir arbeiten und leben, auch schon massiv verändern, bevor wir dieses Niveau erreichen.
Aber wenn ich einfach anhand der Entwicklung der letzten Jahre versuche zu eyeballen, was wir aus dem aktuellen Forschungsstand (Transformer, RLVR etc.) und den verfügbaren Ressourcen mit inkrementellen Verbesserungen und weiter expandierendem Engineering-Know-how herausholen können, dann halte ich es für realistisch, dass wir dieser Vision innerhalb der nächsten Jahre sehr nahe kommen - wenigstens in einigen wesentlichen Bereichen.
Dabei berücksichtige ich weder die Möglichkeit unvorhersehbarer wissenschaftlicher Quantensprünge noch Second-Order-Effects wie self-improving AI usw.
Natürlich sind die Konfidenzintervalle groß, aber wenn ich mit Gott als Richter genau jetzt eine 10.000-Euro-Wette abschließen müsste, ob wir innerhalb von 10 Jahren näher am "country of geniuses in a datacenter" oder am Status quo sind, dann würde ich ohne irgendein Zögern auf ersteres setzen.
 
Mitglied seit
31.03.2001
Beiträge
27.348
Reaktionen
581
sich so intensiv wie möglich mit dem Thema zu beschäftigen: [...] und wo ihre Grenzen liegen.
Wer sich zum Beispiel im Jahr 2026 noch darüber mokiert, dass LLMs Probleme damit haben, Buchstaben in Wörtern zu zählen, dem würde ich erstmal unterstellen, dass die AI-Kompetenz noch ausbaufähig ist. (Ich persönlich finde es, im Gegenteil, eher erstaunlich, dass LLMs sowas überhaupt können.)
Also Buchstaben halbgar zählen können ist jetzt dann plötzlich schon irgendwas herausragendes? Ist das was du mit guter KI meintest?
 
Mitglied seit
23.11.2004
Beiträge
1.184
Reaktionen
25
Ich fürchte auch dass die KI nicht mehr weg geht, aber lieber wärs mir.

@Btah, du raffst hier gar nicht worums geht oder?
 
Mitglied seit
09.02.2021
Beiträge
3.171
Reaktionen
2.902
man muss schon sagen, dass die ganzen ai-bros ein bisschen wie die crypto- und strukturvertrieb-bros daherkommen. ich bin recht technikaffin, behaupte aber mal, dass AI derzeit ein buzzword für investoren ist, für die algorithmus nicht hip genug ist. bei openclaw kotze ich dann auch im strahl. aber jeder wie er meint. crypto wird nicht weggehen, ai wirds auch nicht. grundsätzlich werden einige wenige sehr davon profitieren, für den großteil wirds einfach künftig nochmal eine ecke beschissener und das hamsterrad dreht sich schneller. mal sehen, wann die ganze kacke implodiert.
 

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
20.345
Reaktionen
1.795
Ort
St. Gallen
Also Buchstaben halbgar zählen können ist jetzt dann plötzlich schon irgendwas herausragendes? Ist das was du mit guter KI meintest?
Rein technisch gesehen ja.
Ich will es nicht bewerten, aber eine KI die nicht korrekt Buchstaben zählen kann ist jetzt kein Novum und das liegt einfach inhärent in der Arbeitsweise.
 
Zuletzt bearbeitet:
Mitglied seit
19.11.2003
Beiträge
2.032
Reaktionen
104
meine Fresse... das stinknormale chatgpt 5.2 reasoning wird 90% der Fragen, die nicht in deinem Expertenfeld liegen, besser beantworten als du oder dein nachbar oder kollege.
aber... aber... buchstabenzählen... !11!!!!!

die auswirkungen auf die gesellschaft sind doch komplette davon zu trennen. da bin ich auch sehr pessimistisch. prognose: es wird zur häufung des kapitals bei den techriesen führen. die menschen werden vermehrt untereinander und mit KI konkurrieren -> preis dumping.
der nächste große schritt sind dann die roboter, die dank KI sich im echten leben zurechtfinden können. damit lässt sich auch auf dauer sicherstellen, dass die wenig reichen ungestört ein geiles leben führen können. dann gibts noch die dienstleister und ingenieursklasse im unteren mittelfeld, die die oberschicht bedient und die maschienen am leben halten/weiter entwickeln und ganz unten die große masse, die einfach am leben gehalten werden.

KI ersetzt arbeitsleistung von menschen = spart immense kosten = bring profit
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.767
Reaktionen
10.300
Und genau das sehe ich nach wie vor nicht, das mit dem Profit. KI erstellen heisst: dauerhaftes Training. Dauerhafter Betrieb. Dauerhafter Invest. Und das wieder rein kriegen soll wie funktionieren? WEr bezahlt die LLM-Macher so das sie wieder net positive werden? Das sind UNSUMMEN die da fliessen müssen... Eine rieseige WEtte, ein riesiger gamble, der ganz schön arg übel werden wird wenn die Verdrängung losgeht.
 
Mitglied seit
31.03.2001
Beiträge
27.348
Reaktionen
581
meine Fresse... das stinknormale chatgpt 5.2 reasoning wird 90% der Fragen, die nicht in deinem Expertenfeld liegen, besser beantworten als du oder dein nachbar oder kollege.
es wird sie vielleicht besser beantworten, wenn es mir wichtig ist eine korrekte Antwort zu haben, müsste ich danach immer noch recherchieren. Was ich also auch einfach von vornherein machen kann 🤷‍♂️
 

Scorn4

Servitor
Mitglied seit
13.02.2003
Beiträge
6.062
Reaktionen
967
Ort
Münster
meine Fresse... das stinknormale chatgpt 5.2 reasoning wird 90% der Fragen, die nicht in deinem Expertenfeld liegen, besser beantworten als du oder dein nachbar oder kollege.
Findest du 90% gut? Wenn die Fragen außerhalb deines Expertenfeldes liegen, erkennst du dann, wann da bullshit kommt?
Falls nicht, wieviel Zeit geht für backtracking drauf?
Wieviel Zeit geht drauf, um sich mit den 10% Müllantworten herumzuschlagen?
KI ersetzt arbeitsleistung von menschen = spart immense kosten = bring profit
Ja, KI ersetzt den echten Experten, der über 99,9% ricthige Antworten gibt.
Und KI spart nicht etwa immense Kosten sondern verursacht immense Kosten und verschlingt groteske Mengen an Wasser und Energie.
KI ist bis heute nicht mal annähernd profitabel.
 
Mitglied seit
18.08.2002
Beiträge
2.595
Reaktionen
201
Findest du 90% gut? Wenn die Fragen außerhalb deines Expertenfeldes liegen, erkennst du dann, wann da bullshit kommt?
Falls nicht, wieviel Zeit geht für backtracking drauf?
Wieviel Zeit geht drauf, um sich mit den 10% Müllantworten herumzuschlagen?
Genauso viel, wie wenn ich die Antworten eines menschlichen Experten prüfen muss. Dieser sagt nämlich auch nicht immer die Wahrheit ob nun mit Absicht oder aus Unwissen. Dieses Argument ist nicht überzeugend, schon deshalb nicht, weil das LLM bereitwillig seine Quellen verrät und spätestens dann, wenn die nicht existieren oder unstimmig sind, man gegenprüfen kann, z.B. indem man zunächst mehrere andere LLMs fragt mit unterschiedlicher Spezialisierung bei unterschiedlichen Anbietern. Man kann auch gleich bei arena.ai anfangen, da hat man die breite Auswahl und es werden von Anfang an gleichzeitig zwei LLMs gefragt. Das kann man grundsätzlich machen, wenn es um sehr komplexe Sachthemen geht. Die Fehler überschneiden sich äußerst selten und liegen zudem meist in den Randbereichen bei extrem spezialisiertem Expertenwissen oder Themenfeldern mit geringer Digitalisierung. Die Fehler passieren ja nicht einfach zufällig bei x-beliebigen Themen sondern dort wo es in den Trainingsdaten einen Mangel an korrekten Informationen gibt. Man kann sich vielleicht denken, dass es dum ist, eine KI z.B. zu tagesaktuellen Nachrichten zu befragen.
Davon abgesehen stellt man beruflich ja normalerweise ohnehin Fragen zu Themen, wo man selbst Expertise hat. Ich seh sofort, ob der Code, den ich generiere etwas taugt oder nicht und ob er das tut, was er soll sowieso.12.jpg
 
Mitglied seit
25.09.2014
Beiträge
5.331
Reaktionen
1.481
Und genau das sehe ich nach wie vor nicht, das mit dem Profit. KI erstellen heisst: dauerhaftes Training. Dauerhafter Betrieb. Dauerhafter Invest. Und das wieder rein kriegen soll wie funktionieren? WEr bezahlt die LLM-Macher so das sie wieder net positive werden? Das sind UNSUMMEN die da fliessen müssen... Eine rieseige WEtte, ein riesiger gamble, der ganz schön arg übel werden wird wenn die Verdrängung losgeht.
Sicher ist es ne Wette, die aber sehr gut aufgehen kann.
Investitionen skalieren, um Infra für Training und Inferenz zu kaufen.
Training skaliert, weil Models besser werden sollen.
Inferenz skaliert, weil Models nützlicher werden und Nutzung einfacher wird.

Aber das geht ja nicht unbegrenzt so weiter. Derzeit haben die großen Player keine Wahl als ständig nachzuschieben, weil du eben out of business gehst, wenn du dein Model nicht regelmäßig updatest. Aber mit abnehmendem Grenznutzen wird dieser Trend sich verlangsamen und der Anteil der (an sich sehr profitablen) Inferenz am Compute steigen.
 
Oben