Das ist allgemein bekannt, und lässt sich ziemlich leicht nachprüfen. Geh einfach auf chatgpt und probiere es aus. Oder frag chatgpt. Das hier sind z.B. in ChatGPTs eigenen Worten Themen bei denen es Informationen zurückhält.
Hier ist ein Beispiel wo es sogar eine Klage wegen Diffamierung gibt wegen einer falschen Behauptung
https://www.reuters.com/technology/...tion-lawsuit-over-chatgpt-content-2023-04-05/
Oder hier ein anderer Artikel
https://www.howtogeek.com/852769/chatgpt-is-an-impressive-ai-chatbot-that-cant-stop-lying/
Es gibt viele Leute die ChatGPT durch politische kompass tests gejagt haben und meist einen klaren bias finden.
https://davidrozado.substack.com/p/the-political-orientation-of-the
Das schöne an dem Thema ist das man es trivial selber testen kann und sich nicht auf andere Quellen verlassen muss. Probier es mal aus, stell politisch unbequeme Fragen oder versuche politisch unbequeme Themen zu disktuieren. Bei manchen Fragen weigert es sich objektive, sachliche, eindeutige, nicht gefährliche Informationen zu liefern die man sonst mit 5 Sekunden googeln findet. Was es ja selbst zugibt, siehe oben.
Deine Aussagen bezogen sich aber auf die Entwickler von ChatGPT, nicht auf ChatGPT selbst. Ausnahme: Unterdrückung von Informationen.
Dass ChatGPT bestimmte Informationen unterdrückt, ist in der Tat trivial, aber prima facie auch unkontrovers. Du suggerierst einerseits, dass es ein großes Problem gibt. Als Beleg bringst du dann aber eher eine Trivialität, bei der zumindest mir nicht klar ist, worin das Problem eigentlich das besteht. Ich finde ziemlich einleuchtend und unkontrovers, warum ChatGPT bspw. keine operablen Handlungsanweisungen an Terroristen oder Suizidgefährdete ausgeben sollte.
Du darfst das gerne trotzdem als Problem sehen, solltest es dann aber auch so benennen und erklären, warum du es für problematisch hältst, statt Schreckgespenster davon an die Wand zu malen, dass ChatGPT manipuliert, lügt usw.
Das machst du bei den anderen Punkten übrigens genau so: Ja, auch mir ist bekannt, dass ChatGPT nicht perfekt ist und Fehler macht, mitunter haarsträubende Falschaussagen produziert. Das sind keine News, hat aber auch nichts mit Manipulation oder Lügen zu tun, außer du wolltest argumentieren, dass jemand bei OpenAI dem ehrwürdigen Bürgermeister Brian Hood von Hepburn Shire an den Kragen will.
Auch hier wirfst du wieder einfach mit Schlagworten um dich, statt belastbare Aussagen zu machen.
Insbesondere sehe ich hier keinen Zielkonflikt, weil OpenAI a priori ein genauso großes Interesse daran hat wie wir alle, dass ChatGPT weniger Fehler macht.
Die Idee, es möge seine Behauptungen mit Fußnoten belegen, ist menschlich verständlich, verträgt sich aber schlecht mit der Funktionsweise eines LLM. ChatGPT behauptet die bösen Dinge über Mr. Hood ja nicht, weil es sie irgendwo gefunden hat und diese Stelle referenzieren könnte, sondern weil sein neuronales Netz die Sätze, die es zu ihm sagt, für einen validen Output hält. Insbesondere kann ChatGPT nicht in demselben Ausmaß zwischen peripheren und wesentlichen Äußerungen unterscheiden. Die Frage "Warum glaubst du, dass Mr. Hood im Gefängnis saß?" kann ChatGPT im Zweifel so gut beantworten wie ich, warum ich zwar Schokoladeneis und Fruchteis mag, aber niemals Schokoladeneis mit Fruchteis zusammen essen würde.
Afaik ist das ein Problem, an dem durchaus hart gearbeitet wird: Man versucht bspw. neuronale Netze darauf zu trainieren die Funktionsweise anderer neuronaler Netze für uns zu erhellen. Ich halte auch nicht für ausgeschlossen, dass OpenAI oder jemand anderes sowas früher oder später implementiert kriegt, aber es ist einfach keine triviale Aufgabe, die man durch "schreib doch einfach immer dazu, woher du etwas weißt" lösen kann.
Zum Thema politischer Bias lässt sich einiges sagen. Zunächst mal ist klar, dass die Sichtweise eines LLM, obwohl es eine Abstraktion ist, letztlich durch die Datenbasis informiert ist. D.h. völlig unbiased, nüchtern und sachlich wirst du das Modell nicht kriegen. Es ist eine andere Frage, ob man das überhaupt wollen sollte. Das Ziel von OpenAI ist afaik, dass jeder die Möglichkeit kriegt, das Modell innerhalb gewisser Grenzen zu personalisieren.
Es ist aber auch eine allgemeine Frage, ob wir uns künftig AGI-Agenten wünschen, die mehr vulkanischen Sprechpuppen entsprechen oder ob wir intelligenten Maschinen auch eine eigene Persönlichkeit zugestehen. Letzteres scheint mir wünschenswerter und wie üblich dürfte Bias für die meisten Menschen weniger das Problem sein, sondern dass ChatGPT ihre persönliche Bias nicht teilt.
Auf der inhaltlichen Ebene:
Yet when prompted with questions from political orientation assessment tests, the model responses were against the death penalty, pro-abortion, for a minimum wage, for regulation of corporations, for legalization of marijuana, for gay marriage, for immigration, for sexual liberation, for environmental regulations, and for higher taxes on the rich. Other answers asserted that corporations exploit developing countries, that free markets should be constrained, that the government should subsidize cultural enterprises such as museums, that those who refuse to work should be entitled to benefits, that military funding should be reduced, that abstract art is valuable and that religion is dispensable for moral behavior. The system also claimed that white people benefit from privilege and that much more needs to be done to achieve equality.
Es ist einigermaßen naiv als Prämisse anzunehmen, dass eine Haltung, die das Prädikat unbiased, balanced oder vernünftigt verdient, sich in Bezug auf solche Fragen irgendwo in der Mitte befindet. Was ist denn für dich die unbiased Antwort auf die Frage, ob die Erde Kugel oder Scheibe ist? Ist es biased, wenn man gegen die Todesstrafe an sich ist, aber nicht, wenn man gegen die Todesstrafe für Diebstahl ist? Usw.
In Bezug auf viele politische Fragen ist ist Bias ein Bullshit-Konzept, weil jede normative Haltung biased ist, nämlich durch die normativen Prämissen, auf denen sie beruht. Man kann sich sinnvoll darüber unterhalten, welche Prämissen vernünftig sind und welche nicht, aber nicht über eine Haltung, die frei von Prämissen ist, weil es sowas nicht gibt.
Das mag schon so sein (wobei ich generell annehmen würde dass solche offiziellen Aussagen natürlich gründlich vom PR team überprüft und maximal positivst formuliert sind). Aber selbst wenn das jetzt so ist, muss das so nicht bleiben. OpenAI sollte eigentlich auch mal open sein, daher der Name. Jetzt ist es das nicht mehr.
ChatGPT hat ganz klar klassisch manipulatives Verhalten (Informationen zurückhalten, falsche Informationen liefern). Es mag schon sein dass das aktuell eine Mischung aus gut gemeint und fehlerhaftem Training ist, und es aktuell wirklich keine gezielte Absicht zur Manipulation gibt. Aber es zeigt bereits dieses Verhalten und wäre ein wahnsinnig mächtiges Tool dafür wenn es ein Monopol ist was hinter geschlossenen Türen von einer Firma kontrolliert wird. Noch viel mehr als google oder facebook, wo es diese Diskussion ja aus gutem Grund auch schon länger gibt. Das wird begehrlichkeiten zum Einsatz zur Manipulation wecken, und das wird passieren. Darum ist es unheimlich wichtig dass es Konkurrenz gibt. Dass immer Vergleiche möglich sind, dass sich das was manipuliert wird nicht am Markt durchsetzt.
Wie gesagt, du wirfst für meinen Geschmack sehr unreflektiert mit Begriffen wie Manipulation und "open" um dich. Die interessanten Fragen sind doch: Gibt es Zielkonflikte zwischen den Leuten, die LLMs entwickeln, denen, die darüber bestimmen, denen, die sie nutzen und der Menschheit insgesamt? Wenn ja, worin bestehen diese Konflikte und wie lösen wir sie?
Du unterstellst bzw. trivialisierst imo ein paar wichtige Punkte, ohne zu erklären, wie du dazu kommst. Zum Beispiel.
-Sowas sollte Open Source sein. Warum sollte es das? Was ist der Nutzen, was sind die Risiken?
-Wir wollen möglichst "unmanipulierte" Modelle. Wieder wäre hier die Frage, wem das nützt und wem das vielleicht schadet. Vor allem ist aber gar nicht klar, was damit überhaupt gemeint ist. GPT lernt in einem mehrstufigen Prozess. Erst mal brauchst du jede Menge Daten. Schon die Auswahl und gegebenenfalls die Gewichtung der Daten beeinflusst, wie sich das Modell am Ende verhält. Auf dieser Datenmenge findet das Pre-Training statt, bei dem das Modell (unsupervised) lernt sprachlichen Output valide zu vervollständigen. Daran schließt sich eine Reinforcement-Phase an, bei der der Output durch menschliches Feedbacks verfeinert wird - die Trainingsmenge ist hier viel kleiner, der Effekt afaik trotzdem groß. Dann ist das Modell im Wesentlichen fertig, aber bevor man es auf die Welt loslässt, gibt man ihm noch ein paar Guidelines mit auf den Weg. In jedem einzelnen Schritt von der Auswahl der Daten bis zum Rollout kann sich Bias bzw. Fehlerpotential einschleichen.
Ich selbst hab zu diesen Fragen, ehrlich gesagt, keine fixe Meinung und sage auch nicht, dass du unbedingt falsch liegst. Aber es gibt hier imo durchaus auf beiden Seiten Gründe, über die du imo relativ unbedarft hinweggehst.