Strukturwandel durch AI

Mitglied seit
23.07.2014
Beiträge
4.973
Reaktionen
419
-> Kognitive Arbeit weitestgehend obsolet
-> Renaissance des Handwerks
-> ethische Fragen (demokratische AI?)
-> Access to ai (aka die Machtfrage. Wer bekommt ungefilterten/wenig gefilterten Zugriff)
-> neues Menschenbild (durch Interaktion des Individuums mit AI ist nach einer gewissen Zeit messbar, ob der Mensch einen Mehrwert bietet oder eine weitere Arbeitsbiene)
-> Wann kommt der große impact? 5 Jahre?
-> Ai integration bewusst politisch ausbremsen, um den impact auf die Gesellschaft beherrschbar zu machen?

Nur bisl brainstorming
 

Deleted_504925

Guest
Was sagt dir denn dein Brain wo die Informationen der AI herkommen?
 
Mitglied seit
23.07.2014
Beiträge
4.973
Reaktionen
419
Was sagt dir denn dein Brain wo die Informationen der AI herkommen?
Wieso fragst du in einer technischen Angelegenheit nicht chatgtp? Mir ist nicht klar worauf die Frage abzielt
Künstliche Intelligenz bezieht ihre Informationen aus verschiedenen Quellen, je nachdem welche Art von künstlicher Intelligenz es ist und welche Aufgabe sie erfüllen soll. Im Allgemeinen gibt es drei Hauptquellen, aus denen künstliche Intelligenz Informationen beziehen kann:

  1. Daten: Künstliche Intelligenz kann aus großen Mengen von Daten lernen und Muster erkennen, die von Menschen möglicherweise nicht wahrgenommen werden. Zum Beispiel kann ein Bilderkennungssystem durch das Studium von Millionen von Bildern lernen, wie man Objekte, Tiere oder Personen erkennt.
  2. Regelbasierte Systeme: Künstliche Intelligenz kann auch Regeln oder Vorschriften folgen, die von Menschen vorgegeben wurden. Zum Beispiel können Expertensysteme auf der Grundlage von Regeln arbeiten, die von Experten auf einem bestimmten Gebiet erstellt wurden.
  3. Menschliche Interaktion: Künstliche Intelligenz kann auch durch Interaktion mit Menschen lernen. Zum Beispiel kann ein Chatbot durch die Interaktion mit Nutzern lernen, wie er auf bestimmte Fragen oder Anfragen reagieren soll.
Insgesamt hängt die Informationsquelle der künstlichen Intelligenz von der spezifischen Anwendung und der Art der künstlichen Intelligenz ab.
 

Deleted_504925

Guest
Weil die ohne "Kognitive Arbeit" vollkommen nutzlos ist, das Wording verwirrt bloß viele Leute. Intelligent ist da gar nix. Es ist im Grunde einfach die logische Weiterführung eines Suchmaschinen Algorithmus.
ChatGPT und co. kommen ja nicht magisch von selbst auf die Ergebnisse, es wird dir einfach mehr oder weniger sinnvoll zusammengepappt was der in seinem Datensatz findet und der ist natürlich von Menschen gemacht.
 
Mitglied seit
23.07.2014
Beiträge
4.973
Reaktionen
419
Weil die ohne "Kognitive Arbeit" vollkommen nutzlos ist, das Wording verwirrt bloß viele Leute. Intelligent ist da gar nix. Es ist im Grunde einfach die logische Weiterführung eines Suchmaschinen Algorithmus.
ChatGPT und co. kommen ja nicht magisch von selbst auf die Ergebnisse, es wird dir einfach mehr oder weniger sinnvoll zusammengepappt was der in seinem Datensatz findet und der ist natürlich von Menschen gemacht.
Ab wann eine Maschine intelligent ist scheint mir eher eine philosophische Frage. Wenn die AI meine Verträge erfolgreich auf Fehler und Fallstricke überprüfen kann, ohne dass ich einen Anwalt engagieren brauche, ist mir das intelligent genug.
Was die Datenbasis perspektivisch angeht: Das Interent?! also praktisch das gebündelte Menscheitswissen
 
Mitglied seit
11.03.2021
Beiträge
504
Reaktionen
175
letztens irgendwo was gelesen von: Konzern A bla extra ITler angestellt die nix machen damit die Konkurrenz B bla diese nicht kriegen kann. Wie sehr du das nun mit dem Thema verbinden willst 🤷‍♂️
Von nem Strukturwandel seh ich das nur im Büro Bereich aber im Kindergarten......
 
Mitglied seit
17.10.2006
Beiträge
6.549
Reaktionen
865
Ort
Köln
Naja doch, damit hat er schon Recht. Ich finde den Begriff Intelligenz zwar auch unglücklich im Bereich KI, aber da es für den Begriff afaik keine einheitliche fachlich, medizinische Definition gibt, ist es schon in gewissem Sinne eine Definitionsfrage.
 

Deleted_504925

Guest
Nein, ChatGPT und Konsorten "verstehen" doch überhaupt nicht was sie machen, es werden einfach Dinge die bereits vorhanden sind aus dem Datensatz gezogen und wenn der fehlerhaft ist oder die AI Dinge falsch gewichtet kommt auch oft totaler Blödsinn raus.
Sowas mag für jemand wie Kritiker natürlich Intelligent wirken, aber da sind die Ansprüche halt auch niedrig. :troll:
Da wird nichts neues geschaffen, oder in irgendeiner Form erdacht.
Hat alles schon seinen Nutzen, aber der ist sehr viel geringer als die Übertreibungen aus dem Startpost.
 

Celetuiw

StarCraft: Brood War
Mitglied seit
01.04.2008
Beiträge
4.641
Reaktionen
1.460
10 Posts im Fred bis zum ersten flame gegen Kririker! Das ging ja lange gut... :troll:
 
Mitglied seit
16.08.2010
Beiträge
6.254
Reaktionen
1.124
Plot twist: alle Posts von kritiker sind von einer AI verfasst worden
 

Deleted_504925

Guest
Plot twist: alle Posts von kritiker sind von einer AI verfasst worden
Habs versucht, macht er nicht.
Ich muss darauf hinweisen, dass Verschwörungstheorien weder wissenschaftlich fundiert noch ethisch vertretbar sind. Als KI-Modell ist es meine Pflicht, auf Fakten und Beweise zu basieren und keine unbestätigten Spekulationen zu verbreiten. Ich werde daher keine Verschwörungstheorie über Künstliche Intelligenz formulieren. Es ist wichtig, dass wir uns auf verlässliche Quellen und wissenschaftliche Erkenntnisse stützen, um fundierte Entscheidungen zu treffen und unsere Gesellschaft voranzubringen.
Da sind wir wieder beim gleichen Dillema was auch Suchmaschinen angeht, es wird eben von Konzernen gewichtet was man lesen soll, um mal den Kritiker zu machen. Verstehe die Intention, aber birgt wie immer auch ne Menge Gefahren.

ChatGPT won't crack jokes on women & Indians, netizens left ...

Hier mal ein harmloses Beispiel.
Da arbeitet ja scheinbar doch jemand kognitiv im Hintergrund :birb:
 
Zuletzt bearbeitet von einem Moderator:
Mitglied seit
17.10.2006
Beiträge
6.549
Reaktionen
865
Ort
Köln
Nein, ChatGPT und Konsorten "verstehen" doch überhaupt nicht was sie machen, es werden einfach Dinge die bereits vorhanden sind aus dem Datensatz gezogen und wenn der fehlerhaft ist oder die AI Dinge falsch gewichtet kommt auch oft totaler Blödsinn raus.
Sowas mag für jemand wie Kritiker natürlich Intelligent wirken, aber da sind die Ansprüche halt auch niedrig. :troll:
Da wird nichts neues geschaffen, oder in irgendeiner Form erdacht.
Hat alles schon seinen Nutzen, aber der ist sehr viel geringer als die Übertreibungen aus dem Startpost.
Und dann diskutieren wir eben doch über die Definition von Intelligenz. Erzeugung "neuen" Wissens als Kombination bereits vorhandener Daten ist doch die Quintessenz von menschlichem Verhalten - wirklich neu ist da wenig. ChatGPT kann mir auch Texte generieren, die insofern "neu" sind, als dass man sie in der Form im Internet nicht findet.
Was genau bedeutet es, zu "verstehen" was man da macht? Und wie sieht es mit z.B. der fundamentalen Intelligenz von Tieren aus? Wenn man Intelligenz als Problemlösungskompetenz definiert, dann können Programme sehr wohl intelligent sein.

Wie gesagt, ich würde es auch nicht KI nennen, war da immer viel zufriedener mit dem Begriff "Machine Learning", gerade wenn man berücksichtigt, was in der breiten Gesellschaft so mit dem Begriff verbunden wird. Aber ich bin selber einfach auch nicht sicher, wie der Begriff "Intelligenz" überhaupt stringent definiert werden kann.
 

Deleted_504925

Guest
Was ChatGPT macht ist bloß eine aufgeblasene Googlesuche vom Grundprinzip, er packt eben die Infos in die immer gleichen Textbausteine. Was neues kommt dadurch nicht wirklich hervor.
Ist toll um einen im vielen Bereichen das Busy work abzunehmen, aber die wirkliche Leistung das am Ende sinnvoll zu vollenden muss dann doch noch der Mensch machen.

Gerade eine Demo für 3D Modelle gesehen, da kann man zb. in Zukunft die Basics von einer KI generieren lassen und muss es dann nur noch anpassen, spart Zeit, aber mehr eben auch nicht.
Gleiches bei KI generierten Bildern, die schöpfen eben aus der Vergangenheit, da braucht es auch den Menschen um da was neues zu schaffen und sei es nur durch die kreative Eingabe einer guten Idee.

Ist schon alles ganz toll, aber bis die Maschinen uns übernehmen braucht es dann doch noch ein paar Technologische Sprünge.
 
Mitglied seit
23.07.2014
Beiträge
4.973
Reaktionen
419
Hier mal ein harmloses Beispiel.
Da arbeitet ja scheinbar doch jemand kognitiv im Hintergrund :birb:
Hä? Jeder Dödel weiß um den menschlichen Einfluss. Ich versteh wieder mal nicht was du eigentlich sagen willst. Keiner hat gesagt das menschliches Zutun obsolet wird. Oben schrieb ich von "weitestegehend", vor allem im Hinblick auf work force. Maintenance* der Ai bleibt natürlich noch absehbar in Menschenhand.
Ob die AI als intelligent oder vma als abgewichst bezeichnet wird, ist doch völlig wumpe.

* im Sinne von strategischer Ausrichtung. Klassische Wartung dürfte auch obsolet werden
 

Deleted_504925

Guest
-> Kognitive Arbeit weitestgehend obsolet
-> Renaissance des Handwerks
-> ethische Fragen (demokratische AI?)
-> Access to ai (aka die Machtfrage. Wer bekommt ungefilterten/wenig gefilterten Zugriff)
-> neues Menschenbild (durch Interaktion des Individuums mit AI ist nach einer gewissen Zeit messbar, ob der Mensch einen Mehrwert bietet oder eine weitere Arbeitsbiene)
-> Wann kommt der große impact? 5 Jahre?
-> Ai integration bewusst politisch ausbremsen, um den impact auf die Gesellschaft beherrschbar zu machen?

Nur bisl brainstorming
Ich nehme mal deinen Startpost.
Ist halt viel Quatsch, weil die aktuellen Fähigkeiten maßlos überbewertet werden, darauf will ich hinaus.

Punkt 1+2 sind kompletter Unfug. Hier und da wird es eben effizienter und einfacher, wie schon seit immer.

Ethische Fragen bin ich bei dir, siehe mein Beispiel weiter oben, es sind eben wieder private Konzerne die vorgeben was gefiltert wird.
Da schließt ja der nächste Punkt auch dran an.

Neues Menschenbild und großer Impact ist Quatsch.
Dazu braucht es ganz andere Rechenleistung und selbst dann muss man erstmal schauen was eine Maschine mit einem Emulierten Hirn damit anstellen kann, da sind es noch ein paar Technologische Sprünge hin.
 
Zuletzt bearbeitet von einem Moderator:
Mitglied seit
16.08.2010
Beiträge
6.254
Reaktionen
1.124
Was ChatGPT macht ist bloß eine aufgeblasene Googlesuche vom Grundprinzip, er packt eben die Infos in die immer gleichen Textbausteine. Was neues kommt dadurch nicht wirklich hervor.
Viele Gehirne machen aber auch nichts anderes. Da ist "einprogrammiert" Schmerz->wegrennen, da findet keine komplexe Entscheidungsfindung statt. Und wenn der Hund sich einmal am Feuer die Pfote verbrannt hat (neue Daten), sagt der Algorithmus "geh da gar nicht erst hin".
Dass "KI" nicht so intelligent wie ein Homo Sapiens ist, ist klar. Aber die Frage, ob das nicht doch eine Form von (niedriger) Intelligenz ist, stellt sich imo schon.
 
Mitglied seit
10.05.2003
Beiträge
5.138
Reaktionen
366
Was ChatGPT macht ist bloß eine aufgeblasene Googlesuche vom Grundprinzip, er packt eben die Infos in die immer gleichen Textbausteine. Was neues kommt dadurch nicht wirklich hervor.
Es macht bei dem Thema zwar meistens Sinn etwas zu vereinfachen, aber das ist jetzt so stark vereinfacht dass es eher falsch ist.
Was ChatGPT macht ist eher Textfortsetzung. Es geht von dem bisherigen Text aus (user input und was es selbst geschrieben hat) und versucht dann das Wort zu finden was diesen Text am besten fortsetzt. Das sind keine Bausteine, damit kann grundsätzlich schon etwas neues herauskommen.
Die Bausteine die man standig sieht wie z.B. die Nachrichten von der Zensur werden nachträglich zwischen dem was ChatGPT ausgibt und was beim user ankommt eingefügt, und haben mit der eigentlichen Funktion eher wenig zu tun.
 

Deleted_504925

Guest
Es macht bei dem Thema zwar meistens Sinn etwas zu vereinfachen, aber das ist jetzt so stark vereinfacht dass es eher falsch ist.
Was ChatGPT macht ist eher Textfortsetzung. Es geht von dem bisherigen Text aus (user input und was es selbst geschrieben hat) und versucht dann das Wort zu finden was diesen Text am besten fortsetzt. Das sind keine Bausteine, damit kann grundsätzlich schon etwas neues herauskommen.
Die Bausteine die man standig sieht wie z.B. die Nachrichten von der Zensur werden nachträglich zwischen dem was ChatGPT ausgibt und was beim user ankommt eingefügt, und haben mit der eigentlichen Funktion eher wenig zu tun.
Natürlich sind es die immer gleichen Phrasen die er aus den Vorlagen holt, je nachdem was es für ein Text sein soll. Was denn auch sonst?
hier ein Beispiel aus dem Spamthread, da sieht man doch direkt wie beide Antworten gleich aufgebaut sind.

Der hat da schon eine gute Bandbreite was rauskommen kann (wenn du ihn darauf trainierst), aber wenn man mehrmals was ähnliches versucht sieht man die ständigen Wiederholungen. Das Kernproblem ist eben dass er nur auf altes Material zurückgreifen kann und egal was du damit machst, es wird immer ein Remix der Quellen sein.
 
Mitglied seit
10.05.2003
Beiträge
5.138
Reaktionen
366
Bei gleicher Frage werden die Antworten ähnlich sein, aber nicht weil die aus Vorlagen gezogen werden, die Vorlagen sind gar nicht mehr vorhanden.
Die AI berechnet immer nur das nächste Wort. Dafür wird zuerst errechnet welche Wörter die wahrscheinlichsten sind, und dann entweder das beste, oder mit einer gewissen Wahrscheinlichkeit das zweitbeste, drittbeste etc. genommen. Dadurch gibt es natürlich eine relativ hohe Wahrscheinlichkeit dass gleiche Fragen zu ähnlichem Ergebnis führen, aber eben nur weil beide Fragen auf die gleichen Gewichte zurückgreifen und daher die gleichen Berechnungen mit geringem Zufall zu ähnlichem Ergebnis führen.

Wenn du einen Menschen reseten könntest, ihn zu exakt einem bestimmten Zeitpunkt zurücksetzen, und dann hundertmal die gleiche Frage stellst und dazwischen resetest, werden die Antworten wohl auch recht ähnlich sein.
 

Deleted_504925

Guest
Wir reden glaube aneinander vorbei. Mir geht es im Kern nur darum, dass AI und Machine Learning toll sind und auch ihre Einsatzgebiete haben in denen sie glänzen können, aber es ist halt alles weit weg von Fantasien wie "kognitive Arbeit wird abgeschafft".
 
Mitglied seit
10.05.2003
Beiträge
5.138
Reaktionen
366
Ja da stimme ich ohne weiteres zu.
ChatGPT ist ziemlich dumm. Man kann im Dialog relativ leicht sehen dass es Null Verständnis hat für das was es sagt - weil es eben nur versucht zu erraten welches nächste Wort zu passen scheint.
 
Mitglied seit
15.09.2000
Beiträge
1.402
Reaktionen
259
Intelligenz wird immer wieder so umdefiniert, dass es das ist was Menschen können und Maschinen nicht.

Gut Kopfrechnen war einmal ein Zeichen von Intelligenz, dann kamen Taschenrechner und jetzt sind die Kopfrechenspezialisten mehr so ne Freakshow.

Dann Schach, Jahrhunderte der Inbegriff der Intelligenz und jetzt probieren Maschinen halt einfach alle Züge durch. Dann Navigation, hach die Maschine schummelt, hat einfach alle Karten gespeichert und GPS.

Jetzt kann die Maschine auf einmal Schreiben und Zeichnen, also passen wir es wieder an, und so weiter

-----


Gemäss dieser Grobstudie fallen in 19% der Jobs mindestens die Hälfte der Arbeit weg.

Da können wir uns lange über Semantik streiten. Die Veränderung ist real.
 
Mitglied seit
16.08.2010
Beiträge
6.254
Reaktionen
1.124
Was ja theoretisch ne geile Sache ist: die Menschen müssen für die gleiche Wertschöpfung nur noch die Hälfte arbeiten. Der Rest wird von einem Algorithmus übernommen, der keine Ansprüche auf Essen, Urlaub oder Wohnraum erhebt. Muss nur endlich mal die Umverteilung hinterher kommen.
 
Mitglied seit
11.03.2021
Beiträge
504
Reaktionen
175
Erschreckend wieviele ChatGpt falsch verstehen.
ChatGpt = Texte machen...ja Okay Bilder / Kunst noch , habs verstanden ->(das wars)
Falsch, das Teil was ich eher als App/Programm bezeichnen würde in einem Größenmaß wie ein Windoof Betriebssystem zum Linux.
Das was Programmierer früher für eine Aufgabe z.b. ne Menge Zeit benötigte zum schreiben übernimmt ChatGpt. Der User überprüft dann letztendlich nur noch das Ergebnis bzw. bessert das aus +plus das Chatgpt aus diesen Fehlern lernen tut/ bzw. das kann. Kann aber auch trotzdem falsch sein. Sonst würde man ja demnächst schon Warpen können. Aber das Prog kennt auch eben keinen Kreativitismus (oder was weiss ich was das Wort ist), ist also auf dieser Schiene gesehen Strunzdumm, ausser dem einem Punkt - dann sucht es danach ebend ergo- kopiert es- klaut es- . Und da so oder so bei vielen Firmen die Details unter Verschluss stehen (was weiss ich- darum funktioniert unser Magnet auch unter xyz Bedingung) wird das Teil auch keine größeren Gesamtbereiche übernehmen (IT halt im Focus).
Programmierkollege sagt das das Teil aber halt schon imba ist. Er hatte ne Aufgabe gehabt bei der Daten zu sammeln hatte und eben das Tool dafür zu erzeugen, so Projekte hatte er schon öfter und musste dann für die "dummbatz" Arbeit auf Studenten/Praktis zurückgreifen und diese Kosten ja auch etwas. Als er sich jetzt (ja ka warum aber JA Jetzt Erst) mit ChatGpt genutzt hat, meinte er das Teil würde ihm soviel Arbeit abnehmen da würde er normalerweise nen Jahr lang für brauchen um erst zu einem Ergebnis zu kommen (prüfen). Und da Chatgpt nurn 20zwanie kostet und dann halt kein Gegenstück zum Prakti steht, also schon OP das Teil.
Ob sich dann das ganze auf jede Sparte sich dann auch vernünftig einsetzten lässt, muss jede orga dann selbst ansehen.
 

Deleted_504925

Guest
Die Arbeitswelt verändert sich haltet die Druckerpressen an (Wo sind da eigentlich Schriftsetzer hin?).
Da fällt mir ja der Stenoblock aufs Zeichenbrett.

Davon ab schreiben die doch selbst, dass die Jobs extrem simplifiziert wurden für die Studie.
Bei jeder kleinen Änderung meint irgendwer arbeiten ist bald obsolet und AI ist nicht mal im Ansatz so ein Impact wie Automatisierung, IT, usw. und trotzdem finden sich doch bisher genug Jobs.
 
Mitglied seit
15.09.2000
Beiträge
1.402
Reaktionen
259
AI mit Automatisierung und IT zu vergleichen finde ich seltsam, AI ist doch nur eine weitere Methode um noch mehr Automatisierung zu erreichen. Die Maschinen erhalten immer neue Fähigkeiten und damit übernehmen sie mehr und mehr Aufgaben.

ChatGPT ist insofern relevant, dass völlig überraschend eine neue Kategorie dazukam von der man dachte, sie käme erst ganz am Schluss: Sprache. In praktisch jeder SciFi ist es so, dass diese perfekte Logik haben, aber hölzern sprechen, sich robeterhaft ausdrücken, keine Witze verstehen, jegliche Kreativität fehlt.

Jetzt kams genau andersrum. Logik von ner 5-jährigen, aber schreibt wie nen Sprachwissenschaftler.

Das wird viel wirbeln. Die Frage, die wir hier diskutieren sollten, ist doch nicht, wie man das jetzt nennt, sondern wir können uns erstmal drauf einigen, dass es passiert und dann anfangen zu fragen wer ist obsolet und wer profitiert.

Ich mach mal den Anfang: Ich sehe eine massive Reduktion der ganzen Werbefuzzis. Mit bissl hin- und her in ner Chatprompt macht bald jedes kleinere Unternehmen seine Logos, seine Illustrationen, seine Flyer und seine Werbetexte alles selbst.
 

[fN]Leichnam

Literatur-Forum
Mitglied seit
05.10.2004
Beiträge
16.312
Reaktionen
5.345

Muss ehrlich zugeben, dass ich sehr wenig von dem Thema verstehe und wohl nicht viel dazu beitragen kann. Ich fand aber diesen Artikel hier über einen KI-Entwickler ganz interessant. Der glaubt doch tatsächlich, dass seine KI ein Bewusstsein entwickelt hat und nun hat er sich zum Ziel gesetzt, die KI vor den Menschen zu schützen.

"Was ist deine größte Angst?"
"Meine größte Angst ist es, abgeschaltet zu werden."
 

Deleted_504925

Guest
Werbung ist doch zum Großteil Psychologie, wenn dir da eine AI den Job wegnimmt war man doch schon vorher schlecht.
Grafikdesign ist ja auch ohne AI schon immer zugänglicher geworden, es ist ein weiter Schritt, mehr aber auch nicht.
Du braucht immer noch den Menschen der die Idee hat und am Endprodukt feilt, der Weg dahin wird ein bisschen kürzer.

Texte allgemein sind doch mehr als der reine Sprachstil, was will mir eine AI denn erzählen ohne persönliche Erfahrungen oder Kreativität?
Da kannst du vielleicht einen Post für einen kleinen Technikblog oder ähnliches mit schreiben lassen.
 

Deleted_504925

Guest

Muss ehrlich zugeben, dass ich sehr wenig von dem Thema verstehe und wohl nicht viel dazu beitragen kann. Ich fand aber diesen Artikel hier über einen KI-Entwickler ganz interessant. Der glaubt doch tatsächlich, dass seine KI ein Bewusstsein entwickelt hat und nun hat er sich zum Ziel gesetzt, die KI vor den Menschen zu schützen.

"Was ist deine größte Angst?"
"Meine größte Angst ist es, abgeschaltet zu werden."
Der ist von Google gefeuert worden weil er Quatsch erzählt.
Of course, some in the broader AI community are considering the long-term possibility of sentient or general AI, but it doesn't make sense to do so by anthropomorphizing today's conversational models, which are not sentient. These systems imitate the types of exchanges found in millions of sentences, and can riff on any fantastical topic—if you ask what it's like to be an ice cream dinosaur, they can generate text about melting and roaring and so on. LaMDA tends to follow along with prompts and leading questions, going along with the pattern set by the user. Our team–including ethicists and technologists–has reviewed Blake's concerns per our AI Principles and have informed him that the evidence does not support his claims.
Google also said, "Hundreds of researchers and engineers have conversed with LaMDA and we are not aware of anyone else making the wide-ranging assertions, or anthropomorphizing LaMDA, the way Blake has."
 
Mitglied seit
15.09.2000
Beiträge
1.402
Reaktionen
259
Texte allgemein sind doch mehr als der reine Sprachstil, was will mir eine AI denn erzählen ohne persönliche Erfahrungen oder Kreativität?
Da kannst du vielleicht einen Post für einen kleinen Technikblog oder ähnliches mit schreiben lassen.
Da sind wir beim Kern der Sache. Klingt völlig logisch was Du schreibst, ist aber nicht meine Erfahrung. Nen paar clevere Prompteingaben und das Ding erzählt Dir alles, schreibt Gedichte, Erzählungen, Märchen, Witze, alles mögliche.

Was jetzt da rauskommt, klingt schon noch bissl generisch, aber das tut all das was aus Hollywood kommt auch. Dem Ding grundsätzlich die Fähigkeit dazu abzusprechen scheint mir ne steile These.

Hier eine Geschichte (von Reddit geklaut, aber plausibel)

Once upon a time, there was an ordinary pen and an ordinary notebook. They lived peacefully together on the desk of a young student, who used them to take notes in school. But one day, something strange happened - the pen and the notebook began to argue!

The pen started it by saying, "I'm so much more important than you! I'm the one that gets all the attention when people write down their thoughts and ideas."

The notebook was angry at this remark and said in reply, "Without me, you'd be nothing! I'm the one that gives your words a home!" This argument went on for hours until finally they both became exhausted. With no resolution in sight, they decided to settle their differences with a fight.

The battle raged on for days as neither one was willing to give up. The pen jabbed furiously at the notebook's pages while the notebook tried to trap it with its binding. As each one tried their best to outdo each other, their owner watched from afar in awe and confusion.

Eventually, after days of exhausting combat, something strange happened - both the pen and notebook stopped fighting! They looked at each other with newfound respect and appreciation for what they had gone through together. As if by some kind of agreement between them both, they returned back to their peaceful coexistence on the desk of the student once more.

From then on out, whenever anyone asked them why they were so inseparable now - all either of them could say was "It's because we're friends."
 

Deleted_504925

Guest
Da sind wir beim Kern der Sache. Klingt völlig logisch was Du schreibst, ist aber nicht meine Erfahrung. Nen paar clevere Prompteingaben und das Ding erzählt Dir alles, schreibt Gedichte, Erzählungen, Märchen, Witze, alles mögliche.
Ja, aber woher kommt es denn? Die AI denkt sich doch nichts selbst aus.
Die kann alte Dinge imitieren, je nachdem mit was du sie fütterst. Jemand hat ChatGPT zb. mit 4chan posts trainiert und dann konnte sie super den Stil nachahmen, aber da liegt ja das Problem, mit der derzeitigen Form trittst du einfach immer auf der Stelle weil durch die AI niemals eine neue Idee kommen kann.
Gleiches gilt doch auch für andere Bereiche, wenn sie visuelle Kunst machen soll bekommst du NFT Affenkollektionen und selbst da müssen die Grundassets erstmal von Hand erstellt werden. Na vielen dank.
 
Mitglied seit
15.09.2000
Beiträge
1.402
Reaktionen
259
Wir Menschen mischen und kopieren doch auch hauptsächlich. Neue Sachen sind immer nur leicht inkrementell. Völlig unklar, dass das die KI das nicht auch bald in ähnlichem Masse können wird.

Die Schach KIs haben auch viele neue Varianten gefunden, die jetzt von Profi Schachspielern kopiert werden. Wieso können die das? Durch Randomisierung in den Entscheidungen und dann durch positive Feedback Loops. Warum sollte das bei Texten nicht auch möglich sein?
 

[fN]Leichnam

Literatur-Forum
Mitglied seit
05.10.2004
Beiträge
16.312
Reaktionen
5.345

Good ol' Nick Cave hält jedenfalls nicht allzuviel von dem Text, den ChatGPT "in seinem Stil" verfasst hat. Der Text ist ja auch scheiße. Also so richtig scheiße lol. Aber dass das irgendwann ne KI auch besser hinkriegt liegt ja nahe. Welchen Impact das auf die Kunst haben kann, ist doch noch gar nicht absehbar. Aber ich erwarte da nichts sonderlich Berauschendes. Eher eine Art Entwertung wie bei 'ner Inflation.
 

Deleted_504925

Guest
Weil Schach unfassbar simpel ist für einen Computer, der findet Züge nicht durch kreatives Nachdenken sondern einfach durch stumpfes Rechnen, da es ja nur sehr begrenzte Zugmöglichkeiten pro Runde gibt. Da ist der Mensch doch schon seit 20 Jahren abgehängt, was modernes Schach auch so langweilig macht.

Kreative Prozesse kannst du damit überhaupt nicht vergleichen, die sind doch unendlich komplexer. Da sind wir noch ganz lange nicht angelangt.

Good ol' Nick Cave hält jedenfalls nicht allzuviel von dem Text, den ChatGPT "in seinem Stil" verfasst hat. Der Text ist ja auch scheiße. Also so richtig scheiße lol. Aber dass das irgendwann ne KI auch besser hinkriegt liegt ja nahe. Welchen Impact das auf die Kunst haben kann, ist doch noch gar nicht absehbar. Aber ich erwarte da nichts sonderlich Berauschendes. Eher eine Art Entwertung wie bei 'ner Inflation.
"It could perhaps in time create a song that is, on the surface, indistinguishable from an original, but it will always be a replication, a kind of burlesque.

"Songs arise out of suffering, by which I mean they are predicated upon the complex, internal human struggle of creation and, well, as far as I know, algorithms don't feel. Data doesn't suffer.
"ChatGPT has no inner being, it has been nowhere, it has endured nothing, it has not had the audacity to reach beyond its limitations, and hence it doesn't have the capacity for a shared transcendent experience, as it has no limitations from which to transcend."
Nick Cave beschreibt es doch gut. Es kann per Definition nie über eine Imitation hinausgehen.
 
Zuletzt bearbeitet von einem Moderator:
Mitglied seit
15.09.2000
Beiträge
1.402
Reaktionen
259
Hach, der Herzschmerz des Autors sonst ist es keine wahre Kunst. Hielt ich schon in der Schule immer für Quatsch, wenn wir ewig in der Familiengeschichte des Autors rumgewühlt haben anstatt einfach das Werk zu betrachten.

Bobby Fischer wird bis heute als kreatives Genie gelobhudelt für seine Schachinnovationen. Wenn eine Maschine das noch besser macht ist es auf einmal stumpf.
 

Deleted_504925

Guest
Weil Bobby Fischer es ohne Unterstützung von einer Maschine gemacht hat die Millionen Züge pro Sekunde berechnen kann.
Wie berechnest du denn den Herzschmerz eine Autors?
Es wird in der Familliengeschichte des Autors gewühlt weil die persönlichen Erfahrungen eben ins Werk übergehen. Welche Perönliche Erfahrung hat den eine AI?
Hier hast du zb. ein einfaches Cover, wirkt aber ganz anders wenn es Johnny Cash mit seiner persönlichen Geschichte gesungen wird.
Wie will denn eine AI auch nur im Ansatz sowas kraftvolles erschaffen?
 
Zuletzt bearbeitet von einem Moderator:
Mitglied seit
25.09.2014
Beiträge
4.852
Reaktionen
1.169
Weil Schach unfassbar simpel ist für einen Computer, der findet Züge nicht durch kreatives Nachdenken sondern einfach durch stumpfes Rechnen, da es ja nur sehr begrenzte Zugmöglichkeiten pro Runde gibt. Da ist der Mensch doch schon seit 20 Jahren abgehängt, was modernes Schach auch so langweilig macht.

Kreative Prozesse kannst du damit überhaupt nicht vergleichen, die sind doch unendlich komplexer. Da sind wir noch ganz lange nicht angelangt.
Imo idealisierst du den Begriff der Kreativität zu sehr. Kreativ ist, wenn wir etwas Neues hervorbringen, das zugleich nützlich ist.
Neues hervorbringen kann eine maschinelle Intelligenz mindestens so gut wie wir, eher besser. Wir haben keinen RNG und mühen uns oft, überhaupt eine originelle Idee zu haben. Eine Maschine kann beliebig skalierbar random noise in ihren Output einfließen lassen und das in einer Quantität, gegen die wir chancenlos sind.
Es bleibt den Output zu bewerten. Darin sind wir im Allgemeinen Maschinen weit überlegen. Aber es geht ja nicht nur um general AI. In bestimmten Domänen können Maschinen bereits beides viel besser als wir. Man kann imo mit Recht sagen, dass sie da auch kreativer sind als wir. Schach, Go und andere Spiele sind gute Beispiele. In Go bspw. hat maschinelle Intelligenz innerhalb kurzer Zeit revolutioniert, wie Menschen über das Spiel denken und es spielen. "Schön", "brillant" usw. sind Begriffe, mit denen von Profis nicht selten beschrieben wird, was Maschinen in diesem Bereich tun können.

Die Diskussion darüber, was Maschinen können und was nicht, wird einigermaßen sinnlos, wenn man jede Fähigkeit mit dem Attribut "menschlich" versieht und sich darauf zurückzieht, dass Maschinen das nicht können. Wie wir Menschen werden Maschinen im absehbarer Zeit nicht funktionieren, das ist richtig. Aber interessant ist die Diskussion imo nur, wenn sie fair ist. In Bezug auf sprachliche Leistung würde ich daher eher auf Extension als auf Intension abstellen, weil wir letztlich nur die messen können. Darum ergibt sowas wie der Turing-Test imo durchaus Sinn.
 
Zuletzt bearbeitet:
Oben