• Liebe User, bitte beachtet folgendes Thema: Was im Forum passiert, bleibt im Forum! Danke!
  • Hallo Gemeinde! Das Problem leidet zurzeit unter technischen Problemen. Wir sind da dran, aber das Zeitkontingent ist begrenzt. In der Zwischenzeit dürfte den meisten aufgefallen sein, dass das Erstellen von Posts funktioniert, auch wenn das Forum erstmal eine Fehlermeldung wirft. Um unseren Löschaufwand zu minimieren, bitten wir euch darum, nicht mehrmals auf 'Post Reply' zu klicken, da das zur Mehrfachposts führt. Grußworte.

Upgrade Grafikkarte sinnvoll?

Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
ne Erläuterung wäre nice.
Klar wird der Huawei Kram, die ja schon 2018 nen AI Chip für ihre (glaube) echtzeit Fotosoftware in nen Telefon gepackt haben (warum eigtl.? Sinn?), ziemlich viel Marketing blahblah sein.
Aber maschinelles lernen in Games stelle ich mir Interessant vor, und warum dann nicht spezialisierte Hardware in Form von Koprozessoren nutzen, vlt. erinnert sich noch jemand an die Berechnungen von Gleitkommazahlen mit Hilfe von Koprozessoren. (Mittlerweile integriert)
 
Mitglied seit
21.08.2010
Beiträge
8.010
Reaktionen
1.107
Was das CPU Upgrade bringt? Naja, die Grafikkarte wird halt besser ausgelastet. Solange die unter 95% ausgelastet ist, limitiert irgendetwas was nicht die Grafikkarte ist. Typischerweise ist es dann die CPU bzw. zu einem geringeren Grad der RAM oder in ganz schlimmen Fällen die Festplatte. Deswegen schrieb ich ja anfangs: Eine Monster-Graka zusammen mit einer schlechten CPU ist rausgeschmissenes Geld weil die CPU die GPU ausbremst.

Was AI angeht glaube ich, dass da bei den meisten Menschen recht viel missverstanden wird was die Technologie ist und was sie aktuell kann. Die Frage wäre ja, was soll das Ding in einem Spiel leisten? Spiele sind größtenteils deterministische Simulationen. AI im Sinne von Machine Learning und Deep Learning dagegen beschäftigt sich mit mehr oder weniger automatisierter Mustererkennung und -replikation. Das einzig sinnvolle was mir da spontan einfällt wäre das Training eines SCII-Bots um gegen Menschen zu gewinnen. Surprise, genau das ist vor zwei Wochen passiert. Aber während ein Spiel läuft die Muster des Spielers erkennen und darauf basierend die Gegnerstrategie anpassen o.ä.? Das ist noch mindestens zehn Jahre von der Anwendung entfernt. Allein die notwendige Rechenkraft fehlt da noch sehr deutlich. Zusätzlich sind Informatiker notorisch schlecht in Statistik und im statistischen Modellieren. Wenn man sich die Methoden anschaut die in Lehrbüchern zum Machine-Learning genutzt werden, dann muss man da manchmal schon grinsen. Klar, es ist insgesamt hard stuff, aber eben nicht die Statistik dahinter. Die ist fast schon primitiv.
Ich sehe einfach aktuell keinen Anwendungsbereich für Mustererkennung in Spielen außer vielleicht bei der Gegnerintelligenz, und da ist die Rechenleistung dann das zentrale Problem. In zehn Jahren? Vielleicht. Für die nächsten 2 Rechner die sich alle von uns kaufen werden? Wohl eher nicht.
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
Eine Monster-Graka zusammen mit einer schlechten CPU ist rausgeschmissenes Geld weil die CPU die GPU ausbremst.

Das stimmt einfach nicht, das Thema ist viel komplexer als du dir das vorstellst, es gibt ganz viele Berechnungen welche die GPU unabhängig von der CPU (sprich also auch von deren Geschwindigkeit vornimmt), deswegen ist der Begriff ausbremsen auch fehl am Platz.

Mit einer schwachen CPU kannst du in Game xyz vielleicht nur im Schnitt 40 FPS rendern, dafür kannst du dank der starken GPU und dem großen VRAM eine ganze menge an Grafikqualität rausholen und zwar ganz unabhängig von der CPU Geschwindigkeit, du kannst z.B. ultra high Quality Texturen fahren oder hohes MSAA, oder AF, oder PhysX bei Nvidia Grafikarten oder sehr viele (nicht alle) Dinge die sich unter nebuloesen Postprocessing verbergen), solche Settings interessieren sich (nahezu) null für die CPU Performance.
Ne GPU ist fast nie rausgeschmissenes Geld, die GPU Power kann in vielen Settings und Szenarios unabhängig der CPU genutzt werden. Die Mehrleistung der CPU bringt dagegen ab einem bestimmten Schwellenwert (und der ist meist niedriger als viele glauben) gar nichts.
In den meisten Games kann man eine GPU fast immer unabhängig der stärke der CPU bis zur Vollauslastung upscalen. Und das auch mit wirklichen Mehrwert! Aber das schrieb ich bereits, irgendwie scheint da eine Denkblockade zu herrschen.
Guck dir mal die aktuellen Konsolen an, weißt du was dort als Prozessor arbeitet? Eine leicht abgeänderte Jaguar Version, dass war damals der Konkurrent zu Intels Atom: EINE NETBOOK LOW COST CPU! Die Ingenieure von AMD/Sony/Microsoft scheinen ja wirklich keinen Plan zu haben, wie sehr muss diese Netbook CPU die Grafikeinheit ausbremsen. Diese Trottel :rofl:

tl:dr
Das die CPU die GPU ausbremst ist ein Mytos, wenn die CPU etwas ausbremst dann das Spiel (zu viele geometrie Daten) und zwar weitgehend unabhängig der verwendeten GPU.
 
Zuletzt bearbeitet:

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
20.339
Reaktionen
1.793
Ort
St. Gallen
Ich kann Tzuis Aussage zumindest aus eigener Erfahrung bestätigen. Mein alter Q8200 hat eigentlich mit einer akuellen Mittelklasse GPU noch alles gespielte in ordentlicher Qualität abgeliefert. Problematischer wurde es wirklich bei CPU intensiven Spielen wie Civ oder EU IV, das hat sich dann eben im lategame geäußert. Wäre das Mainboard nicht nach der langen Zeit vor sich hin gestorben, hätte ich vielleicht noch immer die CPU.

Ich bin definitiv glücklich mit meinem R5 2600x, aber in vielen Fällen gibt es sich an den Grafikeinstellungen nicht viel.
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
zum thema multicore unterstuetzung:

Hier kann übrigens sehr schön sehen, dass selbst in Games die laut den devs explizit für multi core (4+) Systeme entwickelt wurden und bis zu 8 kerne unterstützen, die Grafikkarte schnell der limitierende Faktor sein kann, hier ist dies trotz einer gtx1080 ab QHD der Fall. Du siehst für battlefield 4 macht die Kombination von einer i3 low cost cpu und einer high End Grafikarte (ab QHD*) durchaus sinn. die theoretische Mehrleistung einer i7 cpu welche mindestens 500 Dollar mehr kostet ist in dem Fall mMn rausgeschmissenes Geld weil 100fps ausreicht. (ja, die Taktraten wurden angepasst da hier nur die mp leistung verglichen wurde)

aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9LL08vNTk5NDk2L29yaWdpbmFsL2JmNC0yNXgxNC1mcHMucG5n




und weil solche Games echt selten sind nochmal, dies passiert auf einer extra fuer multicore ausgelegten Engine!
Bevor hier einer um die Ecke kommt, ja BF4 ist alt, ja es ist dx11 und ja BF1 skaliert besser mit den cores, trotzdem unterstützen heutzutage immer noch ueber 90% aller Spiele gerade mal zwei kerne.ich behaupte aber auch nicht das man sich heutzutage, bei einem neuen system zu einem i3 greifen sollte, ich sage nur ein i3 ist fine.
https://www.tomshardware.com/reviews/multi-core-cpu-scaling-directx-11,4768-2.html

*bei einer gtx 1060/70 waere dies schon bei full hd der Fall.
 
Zuletzt bearbeitet:
Mitglied seit
21.08.2010
Beiträge
8.010
Reaktionen
1.107
Junge, ich habe das Gefühl ich könnte jetzt nochmal ganz von vorne mit Dir anfangen. Hast Du Demenz oder sowas? Denn so fühlt es sich an wenn man Deine Texte liest. Schön, du hast also ein Bild herausgesucht wo sämtliche Messungen im GPU-Limit hängen bei CPUs die alle aus zwei Generationen Intel stammen die sich wiederum kaum bis gar nicht in IPC und Takt unterscheiden. Du willst halt recht behalten und suchst Dir deshalb ein passendes Framing.

Ich dagegen habe jetzt einfach keine Lust weiter mit jemandem zu diskutieren der offensichtlich keine Ahnung hat und einfach Buzzwords als Argumente in die Runde wirft und sie dann nicht unterfüttern kann wenn sie nicht verfangen. Du willst offenbar nicht kapieren was ich und andere hier geschrieben haben. Dafür, dass ich jetzt anfange es nochmal von Adam und Eva mit Wachsmalstiften zu erklären ist mir aber meine Zeit einfach zu schade.
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
welches framing, das ist lediglich eine unterstuetzende grafik zu meiner aussage, das die cpu power von vielen leuten als zu wichtig im gaming kontext eingestuft wird. kannst ja nen civ benchmark als gegenbeispiel bringen. Tatsache mMn aber trotzdem, dass in vielen standard rechnern das letzte was in punkto gaming performance upgegraded werden muss, die cpu ist....
,
wie schoen auch, dass du auf den post davor so gar nicht eingehst, hier noch mal als Erinnerung:
deine Aussage
Eine Monster-Graka zusammen mit einer schlechten CPU ist rausgeschmissenes Geld weil die CPU die GPU ausbremst.

Meine Antwort
In den meisten Games kann man eine GPU fast immer unabhängig der stärke der CPU bis zur Vollauslastung upscalen. Und das auch mit wirklichen Mehrwert!
tl:dr
Das die CPU die GPU ausbremst ist ein Mytos, wenn die CPU etwas ausbremst dann das Spiel (zu viele geometrie Daten) und zwar weitgehend unabhängig der verwendeten GPU.

kommt da noch etwas? Da du ja scheinbar echt Ahnung hast, vielleicht eine genauere Betrachtung der einzelen Grafikfeatures in modernen games und in wie fern dort gerade mit dx12 eventuell doch die CPU Leistung eine rolle spielt? BF1 wäre ein schönes Beispiel, natuerlich auch nur 1 von hundertausenden games aber immerhin. Das wäre zumindest ein valider Ansatzpunkt und um einiges kompetenter als ein plattes nachgelaabertes "die cpu bremst die gpu aus".
Nach dieser undifferenzierten Aussage noch das Wort "Buzzword" in den Mund zu nehmen, ist schon arg peinlich.
 
Zuletzt bearbeitet:
Mitglied seit
21.08.2010
Beiträge
8.010
Reaktionen
1.107
Ne, da kommt nichts mehr, weil es mir zu blöd ist. Geh und mach Graka-Upgrades.
 

haschischtasche

Ährenpenis
Mitglied seit
28.09.2002
Beiträge
37.470
Reaktionen
7.936
Also bei AI läuten meine Bullshitbingo-Glocken aber sehr hart...
Die Frage wäre ja, was soll das Ding in einem Spiel leisten? Spiele sind größtenteils deterministische Simulationen. AI im Sinne von Machine Learning und Deep Learning dagegen beschäftigt sich mit mehr oder weniger automatisierter Mustererkennung und -replikation.
DLSS.
Hat zwar momentan nur ein sehr begrenztes Anwendungsgebiet (<60fps @ 4k), aber wenn man sich mal reinzieht wie wahnsinnig gut man mitlerweile mit Deep Learning low-res content upscalen kann, sollte doch schon ziemlich klar sein, dass hochqualitatives upsampling via vorgelerntem NN in "Echtzeit" ein wesentlich erreichbareres Ziel ist, als zu versuchen vier- bis achtmal soviele Pixel mit der Brechstangenmethode (mehr Leistung) durchzudrücken. Hört ja auch nicht bei vier- bis achtmal auf, irgendwann sind's halt 16x oder wasauchimmer.
 
Zuletzt bearbeitet:
Mitglied seit
28.11.2005
Beiträge
9.296
Reaktionen
94
Ort
BALLERN
So kurzes Update. Wurde folgende Combo:
Ryzen 3600
RTX 2070
16 GB RAM
usw usf

inkl. Zusammenbau (ich werde alt :ugly: ) und Co. für 900€ Öcken n gutes Angebot. Der Aufpreis zur 2070 Super war mir dann die Mehrleistung auch einfach nicht wert. Tower taut gerade hier auf, morgen mal schauen was da so geht.

Da ich immer noch nach div. Fails keine Lust auf ne Radeon hatte, hab ich dann doch mehr Mehrpreis für die GeForce Lösung in Kauf genommen. Zudem hatte ich gut Respekt vor der Lautstärke da das Weiblein im gleichen Raum auch arbeiten muss + kB mich mit undervolting und so Gedöns zu beschäftigen. Ich bin gespannt :ugly:
 
Zuletzt bearbeitet:
Mitglied seit
21.08.2010
Beiträge
8.010
Reaktionen
1.107
Schade. Die 5700XT ist technisch klar die bessere Karte und auch kosteneffizienter und beim Stromverbrauch auf Augenhöhe. Aber der Wurm muss ja dem Fisch schmecken. Viel Spaß mit dem Gerät.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.702
Reaktionen
10.278
Ogott wie kannst du nur. GeForce Experience ist da, wo ATI Catalyst vor Jahren war - am Boden. Schick zurück, srsly. AMD aus einer Hand ist the pwn.
 
Mitglied seit
03.08.2010
Beiträge
938
Reaktionen
0
suche auch ein upgrade im nächsten halben jahr ,habe i7-4790k , 16gb ram, gtx970 graka auf nem 750watt netzteil~~ und tendiere aktuell dazu mir für meine begrenzten bedürfnisse mit nem graka update vorann zu schreiten.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.702
Reaktionen
10.278
Was spielstn? Acuh dicke RPGs/openWorldShooter? Weil für alles andere sollte das doch noch reichen? Und für was zur Hölle hast du 750 Watt?
 

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
20.339
Reaktionen
1.793
Ort
St. Gallen
Hängst du mit dem alten i7 nicht extrem am CPU Limit + 1600er DDR3? Zudem wäre noch wichtig ob FullHD oder oder bspw. WQHD?
Überlege zu dem mal, ob du aktuell eine Limitierung merkt die dich stört. Nur upgraden des "ich müsste mal wieder", würde ich niemals machen, sondern gezielt aus dem Ansatz raus, dass ich jetzt eine Limitierung habe, die mich stört.
 
Mitglied seit
28.11.2005
Beiträge
9.296
Reaktionen
94
Ort
BALLERN
Ogott wie kannst du nur. GeForce Experience ist da, wo ATI Catalyst vor Jahren war - am Boden. Schick zurück, srsly. AMD aus einer Hand ist the pwn.

Klar, finde die Experience auch nicht so mega geil, aber hab mich trotzdem bewusst für die 2070 entschieden - war auch lange am überlegen. Mal sehen ob ich es bereue :ugly:
 
Oben