• Liebe User, bitte beachtet folgendes Thema: Was im Forum passiert, bleibt im Forum! Danke!
  • Hallo Gemeinde! Das Problem leidet zurzeit unter technischen Problemen. Wir sind da dran, aber das Zeitkontingent ist begrenzt. In der Zwischenzeit dürfte den meisten aufgefallen sein, dass das Erstellen von Posts funktioniert, auch wenn das Forum erstmal eine Fehlermeldung wirft. Um unseren Löschaufwand zu minimieren, bitten wir euch darum, nicht mehrmals auf 'Post Reply' zu klicken, da das zur Mehrfachposts führt. Grußworte.

Wohin mit den ganzen cores?

Mitglied seit
10.08.2000
Beiträge
12.908
Reaktionen
1
Der CPU-Trend geht ja aktuell dahin, immer mehr cores auf der Platine unterzubringen. Ich frage mich da allerdings: Wozu?
Single core performance ist in den letzten Jahren erschreckend wenig gestiegen, Spiele haben Probleme mehr als einen core auszureizen, mehr als 2-4 bringen nahezu nichts und für alles andere als spielen reicht selbst ein Raspberry Pi - zum surfen etc. braucht es einfach nicht viel Rechenleistung.
Solange man keinen Server mit Virtualisierung oder komplexen Videoschnitt betreibt ist diese Inflation der Kerne doch total unnötig, oder? Was soll ich mit den 12 Kernen des neuen Ryzen 9 anfangen? Können die nicht lieber nur 4 drauf bauen die schneller takten?
Klar, der Servermarkt freut sich aber ich sehe keinen Vorteil für Heimanwender - abgesehen vom gesparten Geld, da ein CPU-Upgrade sich nicht wirklich lohnt. Oder übersehe ich da etwas, sind mehr Kerne doch irgendwie besser?
 
Mitglied seit
06.07.2004
Beiträge
3.826
Reaktionen
0
Ich habe auch noch ein uraltes (2007) Simulationsspiel (Supreme Commander), welches ich gerne zocke. Das Problem es fängt irgendwann an zu stocken bei Berechnungen von 20 000 Einheiten. Das Spiel kann leider immer nur auf einen Thread zugreifen - egal wie viele Kerne. Warte auch schon seit Ewigkeiten, dass man hier Fortschritte macht und ich irgendwann das Spiel flüssig zocken kann.
 

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
20.339
Reaktionen
1.793
Ort
St. Gallen
Für den Heimanwender muss da natürlich die Software erst nachziehen, überlege mal wie lange es bei den ersten dual und quadcores gedauert hat. Beruflich kommt mir das sehr entgegen, allerdings geht es hier ja explizit um private Nutzung. Für 08/15 surfen/mail werden 4 Kerne locker ausreichen, einfach weil die eingesetzte Software damit auskommt.
 
Mitglied seit
29.12.2002
Beiträge
3.248
Reaktionen
3
großartig mehr single core performance können wir aus silizium nicht rausholen, da sind wir schon nahe an der grenze des machbaren. wer sich schonmal mit overclocking beschäftigt hat weiß, dass es zwar immer gewisse reserven gibt, die aber schnell überproportional viel mehr spannung benötigen / abwärme erzeugen.
mehr kerne skalieren da wesentlich besser in sachen gesamtperformance. reine single core performance hat sich in den letzten ~10 jahren vielleicht verdoppelt, und wird immer schwieriger zu steigern.

mehrere kerne tatsächlich in einer anwendung zu nutzen ist leider nicht trivial. es gibt ein paar probleme, die man leicht parallelisieren kann, aber der großteil an berechnungen ist nicht oder nicht ohne größeren aufwand parallelisierbar.
wenn wir uns z.B. ein spiel anschauen, dann könnten wir da vielleicht ohne probleme den sound in einem eigenen thread laufen lassen oder ein paar kosmetische partikel-effekte, aber die eigentliche spielelogik wird in den meisten fällen sequenziell ablaufen müssen.
parallel laufende threads müssen zudem irgendwo synchronisiert werden und können zu allerlei problemen führen, die die programmierung wesentlich erschweren.

sprich: mehrere threads zu nutzen ist in vielen fällen gar nicht möglich, und falls möglich nicht-trivial.
 

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
20.339
Reaktionen
1.793
Ort
St. Gallen
Spiele sind ein gutes Beispiel. Paradox hat damals angefangen bei bspw. EU IV komplett auf Multithreading umzustellen, was dann irgendwann dazu führte, dass es zu Problemen zwischen Threads kam und die KI dann teils so bugged war, dass sich Einheiten nicht mehr bewegt haben, weil Thread 1 auf Anweisungen wartet die längst beendet waren. Nach ein paar patches funktioniert das nun, zeigt aber genau das was Ducki sagt.
 
Mitglied seit
03.08.2002
Beiträge
5.045
Reaktionen
105
Ort
Berlin
EU IV müsste ich auf meinem Ryzen 9 mal gegentesten :D
Komme nur nicht dazu. Wobei ich mal fast einen Run in Stellaris hier durch hatte. Es läuft auf der max. Stufe merklich flüssiger als meinem i5 6600 vorher (ja, der Vergleich hinkt), aber nach 250 Jahren merkt man auch da, dass es deutlich länger dauert (einen kleinen Tick schneller, wenn man sich innerhalb enes Systems und nicht auf der Galaxiekarte befindet) - 800 Systeme, Zahl der AI- und Fallen Empires auf Standard belassen.
Man kann mehrere Sachen parallel ohne großen Verlust an Leistung machen (außer bei Audioproduktionen, da will man alle Ressourcen nur dafür), deshalb habe ich mir den Prozzi zugelegt. Und bei meinen ersten Schritten in Sachen Musikproduktion/-bearbeitung in Cubase, zumindest beim Export des Mixdowns genehmigt sich Cubase 11 Kerne (eben bei geöffnetem Taskmanager getestet). Bei der reinen Arbeit habe ich noch nicht besonders drauf geachtet, da sind niedrige Latenzen wichtiger. Bei solchem Kram oder Rendering isses schon mal ein guter Anfang mit dem besseren Multicore-Support.

Ansonsten gebe ich den Leuten hier recht, dass man mit 4 Cores für Alltagsaufgaben vermutlich noch ne Weile auskommen wird. Allerdings stehen ja die neuen Konsolen irgendwann auch in den Startlöchern, die mehr CPU-Kerne haben werden. Den Spezialfall PS4 ausgenommen, die hat soweit ich weiß bereits 6-8 Kerne, k/A ob man das überhaupt 1:1 mit dem PC vergleichen kann.
Bin gespannt, ob das dann die Entwickler und Publisher veranlasst, PC-Portierungen gleich auf mehr als nur 4 Cores auszulegen. Dass die Materie nicht ganz trivial ist, hat ja ducki schon geschrieben. Das kann ich mir auch als Programmierlaie denken. Sonst würde ja absolut jedes kleinere wie größere Spiel alle physischen/virtuellen Cores nutzen.
 
Mitglied seit
25.09.2014
Beiträge
5.321
Reaktionen
1.476
großartig mehr single core performance können wir aus silizium nicht rausholen, da sind wir schon nahe an der grenze des machbaren. wer sich schonmal mit overclocking beschäftigt hat weiß, dass es zwar immer gewisse reserven gibt, die aber schnell überproportional viel mehr spannung benötigen / abwärme erzeugen.
mehr kerne skalieren da wesentlich besser in sachen gesamtperformance. reine single core performance hat sich in den letzten ~10 jahren vielleicht verdoppelt, und wird immer schwieriger zu steigern.

mehrere kerne tatsächlich in einer anwendung zu nutzen ist leider nicht trivial. es gibt ein paar probleme, die man leicht parallelisieren kann, aber der großteil an berechnungen ist nicht oder nicht ohne größeren aufwand parallelisierbar.
wenn wir uns z.B. ein spiel anschauen, dann könnten wir da vielleicht ohne probleme den sound in einem eigenen thread laufen lassen oder ein paar kosmetische partikel-effekte, aber die eigentliche spielelogik wird in den meisten fällen sequenziell ablaufen müssen.
parallel laufende threads müssen zudem irgendwo synchronisiert werden und können zu allerlei problemen führen, die die programmierung wesentlich erschweren.

sprich: mehrere threads zu nutzen ist in vielen fällen gar nicht möglich, und falls möglich nicht-trivial.
Moment mal. Willst du mir sagen, dass wir in Bezug auf Spiele keine bedeutend leistungsfähigeren CPUs mehr kriegen werden und ich meine Rente überstehen muss ohne Empire Total War 8 mit 100.000 einzelnen Soldaten? :eek:
 
Zuletzt bearbeitet:
Mitglied seit
10.08.2000
Beiträge
12.908
Reaktionen
1
Moment mal. Willst du mir sagen, dass wir in Bezug auf Spiele keine bedeutend leistungsfähigeren CPUs mehr kriegen werden und ich meine Rente überstehen muss ohne Empire Total War 8 mit 100.000 einzelnen Soldaten? :eek:

Berechnungen für 100.000 einzelne Soldaten sollten sich recht gut parallelisieren lassen, ich glaube für deine Rente gibt es noch Hoffnung.
 

Gelöschtes Mitglied 160054

Guest
Auf Reddit hab ich einen guten Post gesehen der die Gründe für den mangelnden Fortschritt in Sachen Single Core Performance zusammengefasst hat, ich suche mal eben.
Kurz gesagt: Wärmeentwicklung wird mit derzeitiger Technologie zu groß. Dazu kann man die Betriebsspannung verringern (Leistungsaufnahme hängt quadratisch davon ab), andere Materialien verwenden oder die Transistoren verkleinern. Letzteres ist vermutlich noch etwas möglich, aber wird bald an seine physikaliuschen Grenzen stoßen. Die beiden ersten Punkte sind sicherlich noch signifikant verbesserbar. Bei der Betriebsspannung (afaik derzeit 1.3 V) muss man drauf achten, dass sicher eine logische 1 erkannt wird. Dazu muss der Pegel sich deutlich vom Grundrauschen, ca. 26 mV wenn ich mich recht erinnere, abheben. Da sollte (als Laie) also noch etwas Platz sein.


Mist, finde den nicen Redditpost nicht mehr, aber gibt tonnenweise Themen zu.
 
Mitglied seit
10.08.2000
Beiträge
12.908
Reaktionen
1
AMD fertigt doch mittlerweile in 7nm, bei dem Übergang 14->7nm hätte ich mir eigentlich mehr single core performance erhofft. Sie nutzen es aber wohl eher um weitere (sinnlose) cores auf der gleichen Fläche unterzubringen. Gibt es dafür einen guten Grund?

An den grundlegenden physikalischen Begrenzungen wird auch eine neue Architektur nicht viel ändern aber gibt es evtl. eine Chance, dass RISC-V die Energie effizienter nutzt und durch ablegen von Altlasten noch etwas mehr Performance ohne zusätzliche Abwärme schafft?
 

YesNoCancel

Guest
Das sie mehr Cores unterbringen, ist ja eher aus der Not heraus geboren - und sorgt dafür, dass AMD bei einer ganzen Reihe von Zulieferern bequem produzieren lassen kann - woran Intel gerade zu knabbern hat. Und eine ganze Reihe von Games und Anwendungen ist mittlerweile MultiCore-optimiert, ist ja nicht so, als ob das jetzt #neuland wäre. Brauch jetzt keinen Threadripper, aber mehr Threads sind immer toll. Keine Ahnung wie man sich jetzt darüber beschweren kann.
 

Gelöschtes Mitglied 160054

Guest
AMD fertigt doch mittlerweile in 7nm, bei dem Übergang 14->7nm hätte ich mir eigentlich mehr single core performance erhofft. Sie nutzen es aber wohl eher um weitere (sinnlose) cores auf der gleichen Fläche unterzubringen. Gibt es dafür einen guten Grund?

Ich vermute es ist schlicht leichter (theoretisch) die Leistungsfähigkeit durch mehr Kerne zu erhöhen. Es ist nicht ihre Schuld, wenn Softwareentwickler diese nicht vernünftig nutzen. Siehe auch https://www.techquila.co.in/cores-doesnt-improve-performance-intel-executive-amd/

Using an Intel i9-9900K, Shrout tested it in 4, 6 and 8-core configurations, locking it to 4GHz. Among the six games tested, there is a 20-30% performance increase in frames at 1080p. The switch to 8 cores, however, doesn’t show much improvement at all. He also tested the i9–9980XE to similar results. To say that the testing is inconclusive would be an understatement. Coming to a conclusion without even bothering to test the Ryzen 3000 processors is quite an oversight.

Fürs Spielen ist aber mittlerweile die GPU wesentlicher. Offenbar liegt das Augenmerk von Intel (AMD kA wird wohl ähnlich sein) auch nicht ausschließlich auf dem Gamingbereich:
Moreover, Intel has been marketing their flagship processors primarily for streaming
 

parats'

Tippspielmeister 2012, Tippspielmeister 2019
Mitglied seit
21.05.2003
Beiträge
20.339
Reaktionen
1.793
Ort
St. Gallen
AMD fertigt doch mittlerweile in 7nm, bei dem Übergang 14->7nm hätte ich mir eigentlich mehr single core performance erhofft. Sie nutzen es aber wohl eher um weitere (sinnlose) cores auf der gleichen Fläche unterzubringen. Gibt es dafür einen guten Grund?

An den grundlegenden physikalischen Begrenzungen wird auch eine neue Architektur nicht viel ändern aber gibt es evtl. eine Chance, dass RISC-V die Energie effizienter nutzt und durch ablegen von Altlasten noch etwas mehr Performance ohne zusätzliche Abwärme schafft?

Mittlerweile sind die nm Angaben eher Marketing. Denn TSMC 7nm entspricht eher Intel 10nm, daher hat TSMC 7nm+ eingeführt. :ugly:
 

haschischtasche

Ährenpenis
Mitglied seit
28.09.2002
Beiträge
37.470
Reaktionen
7.936
Die etwas absurde Annahme, dass "mehr als 2 cores bei Spielen nichts bringen", ignoriert ja zudem, dass so ein PC auch mehrere voneinander unabhängige Sachen gleichzeitig machen kann, und man das heutzutage auch wesentlich mehr nutzt als zu Pentium oder Core2Duo Zeiten.
VR Spielen und Streamen auf 'nem Quadcore mit 4 threads ist zum Beispiel ein Ding der Unmöglichkeit (selbst wenn man zum eigentlichen encoden sowas wie NVENC nutzt), so ein Ryzen 3600 steckt das aber locker weg.
Ich selbst hatte hier lange 'nen i5 4570 laufen, und mit dem Teil halbiert sich die FPS in eher CPU-lastigen Spielen (Valvezeugs, RTS, oder auch Overwatch) mal eben quasi, wenn man es wagt 'nen Browser aufzumachen in dem ein Video/Stream läuft. (Okay, ist natürlich ein 1st-world-problem wenn's dann 120-170 statt 200-300fps sind.)
 
Zuletzt bearbeitet:
Mitglied seit
21.10.2008
Beiträge
20.837
Reaktionen
3.747
Ort
München
Jo, bei eher prozessorlastigen Spielen merkt man es extrem. Habe vorhin z.B. 2 h SC2 gestreamt, das ist mittlerweile für moderne Prozessoren überhaupt kein Stress mehr. Spiel läuft primär über einen Kern, Stream über nen anderen, Rest der Kerne dreht wahrscheinlich Däumchen oder versorgt Botnetzwerke. Maximale Auslastung bei ca. 8%. Lol. Kann mich noch gut erinnern, was das für ein Krieg damals war, mit meinem Quadcore-i5 nen HD-Stream zu stemmen. (Hint: Es ging praktisch gar nicht.)
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
Der CPU-Trend geht ja aktuell dahin, immer mehr cores auf der Platine unterzubringen. Ich frage mich da allerdings: Wozu?
Single core performance ist in den letzten Jahren erschreckend wenig gestiegen, Spiele haben Probleme mehr als einen core auszureizen, mehr als 2-4 bringen nahezu nichts und für alles andere als spielen reicht selbst ein Raspberry Pi - zum surfen etc. braucht es einfach nicht viel Rechenleistung.
Solange man keinen Server mit Virtualisierung oder komplexen Videoschnitt betreibt ist diese Inflation der Kerne doch total unnötig, oder? Was soll ich mit den 12 Kernen des neuen Ryzen 9 anfangen? Können die nicht lieber nur 4 drauf bauen die schneller takten?
Klar, der Servermarkt freut sich aber ich sehe keinen Vorteil für Heimanwender - abgesehen vom gesparten Geld, da ein CPU-Upgrade sich nicht wirklich lohnt. Oder übersehe ich da etwas, sind mehr Kerne doch irgendwie besser?

vollkommen richtiger Gedankengang.

Es gibt bezahlbaren Multicore seit 2006 (c2d), 14 Jahre!
Und immer noch kommen Leute mit dem, "tja die Software muss erst nachziehen" Argument. Tatsache ist nun mal es gibt nen shitload an Software die (nach heutigen Maßstäben der Softwareentwicklung) einfach nicht wirklich gleichberechtigt parallelisiert werden kann, es wird in dieser immer den EINEN fetten Thread geben (den roten Faden der alles zusammenhält) und auf den die restlichen outsourcten module warten müssen. Und das war auch schon vor 2006 klar.

Steile provokante These:
Multicore bringt dem Heimanwender jenseits von 4 Cores in über 90% der Fälle mal so garnix und frisst nur Energie und produziert Abwärme. (zum glück werden die Kerne stillgelegt und gammeln dann bis zu Entsorgung in 5 Jahren vor sich hin). Ich bitte mich gerne vom Gegenteil zu überzeugen. (z.B. neuartiges Softwaredesign von dem ich nix mitbekommen habe, bin nämlich kein Entwickler sondern am ehesten nen kleiner DEV Ops).

Das einzige positive an Multicore sehe ich im lowcost design bei täglichen Anwendungen (Beispiel: 4-8 sparsame x 1,5Ghz CPUs für tabbed browsing & office). Allerdings ist dort mit GPU Decoding der Rechenintensive und einfach zu parallelisierende Part schon auf eine andere Hardware (die dies seit jeher besser kann) ausgelagert worden nämlich *Trommelwirbel* auf die GPU.

Nur bevor hier wieder ne menge (auch gerne mal absichtlich :mond:) missverstanden wird......Ich sage nicht das Multicore immer und komplett useless ist!
ich selbst habe 8 Kerne und ne Menge RAM weil ich zum testen mitunter ganze Serverlandschaften virtualisiere. Aber das macht nunmal kein Heimanwender.

VR Spielen und Streamen auf 'nem Quadcore mit 4 threads ist zum Beispiel ein Ding der Unmöglichkeit (selbst wenn man zum eigentlichen encoden sowas wie NVENC nutzt), so ein Ryzen 3600 steckt das aber locker weg.
Ich selbst hatte hier lange 'nen i5 4570 laufen, und mit dem Teil halbiert sich die FPS in eher CPU-lastigen Spielen (Valvezeugs, RTS, oder auch Overwatch) mal eben quasi, wenn man es wagt 'nen Browser aufzumachen in dem ein Video/Stream läuft. (Okay, ist natürlich ein 1st-world-problem wenn's dann 120-170 statt 200-300fps sind.)

Kann ich so nicht bestätigen, ich war bis vor zwei Jahren mit nem hochgezüchteten QuadCore Xeon E5440@4+GHz Unterwegs. War gefühlt (incl. VR) genauso schnell wie mein aktueller Proz.

Ich selbst hatte hier lange 'nen i5 4570 laufen, und mit dem Teil halbiert sich die FPS in eher CPU-lastigen Spielen (Valvezeugs, RTS, oder auch Overwatch) mal eben quasi, wenn man es wagt 'nen Browser aufzumachen in dem ein Video/Stream läuft. (Okay, ist natürlich ein 1st-world-problem wenn's dann 120-170 statt 200-300fps sind.)

bloed nur wen video decoding von der gpu uebernommen wird und die cpu damit weitgehend garnix zu tun hat :P
(mach hardware accelertion im browser aus und du haettest nen framedrop von max. 3fps denn, nen i5 laechelt muede ueber den decoder job.
und dreht bei overwatch zusaetzlich noch daeumchen.

gaming performamce liegt zu 90% an der gpu (deswegen ist nen i3 ja auch die beste preisleistungs cpu fuers gaming)

Turbo Boost ist für den Heimanwender mMn ne viel sinnvollere Technologie als Hyperthreading.

aber mehr Threads sind immer toll. Keine Ahnung wie man sich jetzt darüber beschweren kann.
einfach nur facepalm, unter allen Gesichtspunkten (vor allem Verschwendung von Ressourcen jeglicher Art)
 
Zuletzt bearbeitet:

YesNoCancel

Guest
einfach nur facepalm, unter allen Gesichtspunkten (vor allem Verschwendung von Ressourcen jeglicher Art)

Dir sind ja schon diverse Use-Cases aufgezeigt worden, wenn das deiner Pummelprinzessin-Existenz nicht ausreicht: so be it. Schon mal versucht, Outlook, zwei Browser, Stream, Office und 2-3 andere Anwendungen gleichzeitig auf nem Singlecore zu performen? Das ist Krebs ist Reinkultur und völlig zu recht ist Multicore mittlerweile absoluter Standard, und lol zum Ressourcenverschwendungsargument: Das liegt an so kleinen Amateur-Dev-Ops wie dir, die ihre Anwendungen mit zig Bibliotheken vollklatschen, aus welcher sie stets nur 1-2 Funktionen benötigen. TLDR; min. 4 Kerne, 8 Threads ist einfach nur fuckin großartig. In jeder Lebenslage. Auch für Ottonormaluser.
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
4 cores sind wie ich bereits schrieb auch absolut in ordnung. 8 threads ist schon wieder so richtig schönes marketing blahblah (das "mehr = besser trottel" auf sowas reinfallen ist jetzt nicht verwunderlich), aber braucht kein ottonormaluser, ganz zu schweigen von 16 cores respektive 32 threads...

turbo boost dagegen ist ne richtig feine sache für jeden Anwender.

und ja es gibt 3 Anwendungen und 5 games die gaaanz evtl auch tante erna 1x im jahr öffnet und die vom sechten und siebten (v)core profitieren würden, aber really, fuck it. verschont mich mit "aber aber tzui, es gibt doch battlefield (frostbyte) und adobe die suite" geblubber
 
Zuletzt bearbeitet:

YesNoCancel

Guest
jaja, niemand braucht mehr als einen pentium 120 und 256 mb ram. was rede ich, niemand braucht mehr als 640 kilobyte ram¹. defacto gibt es keinen grund dafür, dass überhaupt jemand einen computer zu hause haben wollte². aber klar, mehr als vier kerne braucht kein mensch³.


¹ Bill Gates 1981
² Ken Olsen 1977
³ tzui 2019
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
schoener strohmann, ich habs mal gefixt dann passts:


jaber klar, mehr als vier kerne braucht kein otto normal anwender im jahre 2019³.

³ tzui 2019

:)

schon doof sich irgendwas aus den fingern saugen zu müssen weil man weiß der gegenüber hat recht, aber das ego lässt es nicht zu oder?
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.702
Reaktionen
10.278
Worauf basiert eigentlich eure Meinung? Habt ihr irgendeine Evidenz für den jweiligen Standpunkt (das Otto-Normal-Verbraucher 8cores besser gebrauchen kann als 4cores, mal simplifiziert)? Oder wollt ihr beide nur eure Pimmel auf den Tisch legen und vergleichen? Hab ich nichts gegen, aber macht das doch ne Spur weniger Aggro, niemand nimmt euch das Lineal weg - will meinen: Bringt mal Argumente.
 

haschischtasche

Ährenpenis
Mitglied seit
28.09.2002
Beiträge
37.470
Reaktionen
7.936
nen i5 laechelt muede ueber den decoder job.
und dreht bei overwatch zusaetzlich noch daeumchen.

gaming performamce liegt zu 90% an der gpu (deswegen ist nen i3 ja auch die beste preisleistungs cpu fuers gaming)
Wegen den 90% liegt die Performancedifferenz zwischen 'nem i3 und 'nem i7 dann auch nur bei schlappen 69%. Sind bestimmt die 300mhz Boostclock.
Ja klar, muss ja sein, immerhin sind zwischen dem 4690k und 4770k nur 28%. Was war nochmal der Unterschied zwischen den beiden? Ach ja, abgesehen vom Hyperthreading auf dem 4770k eigentlich garkeiner. Naja vielleicht doch, immerhin dreht der i5 ja Däumchen. ¯\_(ツ)_/¯
CPU_01.png

Nen' i3 als beste Preis/Leistung zu empfehlen war vor 5-10 Jahren mal aktuell. ;)
 
Zuletzt bearbeitet:

YesNoCancel

Guest
schon doof sich irgendwas aus den fingern saugen zu müssen weil man weiß der gegenüber hat recht, aber das ego lässt es nicht zu oder?

blablabla.

@shi: müsste man erst mal definieren, was otto-normal-verbraucher ist. und selbst wenn man das getan hat, sollte man gegenüber "niemand braucht ..." argumentationen stets argwöhnisch sein. mehrere dinge gleichzeitig verlustfrei tun zu können, ist erstmal ein dicker bonus: im daily usecase mit mehreren browsern offen, office, excel noch was rechnen lassen, vm nebenher rödeln lassen und dann in photoshop ein bilder interpolieren, während man sich genüsslich auf dem dritten monitor nen netflix stream reinzieht: yoah, geht wahrscheinlich auch irgendwie alles mit nem atom prozessor. aber mit der argumentation kann man dann auch den alten p3 500 rödeln lassen. mit 6 kernen und 32 gb flutscht das alles fröhlich und ist auch budgetmäßig einfach ein nullsummenspiel. daher nochmal: keine ahnung, wie man dagegen sein kann. mehr threads ist toll.
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
Worauf basiert eigentlich eure Meinung? Habt ihr irgendeine Evidenz für den jweiligen Standpunkt (das Otto-Normal-Verbraucher 8cores besser gebrauchen kann als 4cores, mal simplifiziert)? Oder wollt ihr beide nur eure Pimmel auf den Tisch legen und vergleichen? Hab ich nichts gegen, aber macht das doch ne Spur weniger Aggro, niemand nimmt euch das Lineal weg - will meinen: Bringt mal Argumente.

hab sogar ne steile these mit entsprechende argumenten gebracht:
zusammenfassung, es gibt fast keine anwendung abseits des profi sektors welche von mehr als 4 kernen profitiert, das wird auch noch ne weile so bleiben.

und hier nochn bisschen statistik:
https://store.steampowered.com/hwsurvey/cpus/
ueber 80% haben 4 phys cores oder weniger

ync:
1. netflix wird per gpu decodiert (habe ich weiter oben schon mal erwaehnt) lesen undso :)
2.dein anwendungsszenario benoetigt eher ne menge arebeitsspeicher als viele cores
3. vm, drei monitore? ist wohl eher ein power denn ein otto normal user, vielleicht nicht immer von sich auf andere schliessen

meine schwester besitzt nen notebook mit i3 (zwei phys kerne) und kommt mit netflix, outlook, 5 browser tabs und nem offenen word wunderbar zurecht.
Das! ist meiner definition nach nen ottonormaluser
 
Zuletzt bearbeitet:

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.702
Reaktionen
10.278
Ja schon, aber Anwendung != Anwendungsszenario. Ich geb mal nen Beispiel, und nehm mal absichtlich nicht mich sondern meine Frau: Die hat immer zig tasks auf, und nervt mich weil ihr PC zu langsam ist - nen ziemlich übertakteter Sandy-i5. Und das ist so weil sie immer zig Tasks auf hat und zig Sachen gleichzeitig macht. 2 Firefox-Instanzen mit eigenen Profilen (Privat/Geschäftlich), nen Iron mit dem Shop (getrennt vom Firefox aus Gründen), mindesterns 3 Excels, dazu Word, Outlook und irgendein pdf-Viewer. Und das ganze läuft bei mir deutlich flüssiger, der Unterschied sind 4 Kerne - reine IPC- bzw. Singlecore-Power hab ich sogar weniger, weil meine Mühle underclocked und undervolted ist, ihre aber voll power gibt.
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
Wegen den 90% liegt die Performancedifferenz zwischen 'nem i3 und 'nem i7 dann auch nur bei schlappen 69%. Sind bestimmt die 300mhz Boostclock.
Ja klar, muss ja sein, immerhin sind zwischen dem 4690k und 4770k nur 28%. Was war nochmal der Unterschied zwischen den beiden? Ach ja, abgesehen vom Hyperthreading auf dem 4770k eigentlich garkeiner. Naja vielleicht doch, immerhin dreht der i5 ja Däumchen. ¯\_(ツ)_/¯
CPU_01.png

haeh, overwatch ist doch mit jeder cpu* mit 60 fps spielbar? mit den stats tritts du dir doch selber in den arsch?
*(sogar mit nem dual core, ergo dreht der 4kerner theoretisch mit zwei kernen daeumchen). das scaling von cpu kernen in modernen games ist ein bisschen komplizierter, mit ner alten oder low end grafikkarte bringt der der i7 beispeilsweise garnix und ich rede immer noch nicht von power usern oder gaming

Nen' i3 als beste Preis/Leistung zu empfehlen war vor 5-10 Jahren mal aktuell. ;)

https://www.tomshardware.com/reviews/best-cheap-cpus,5668.html
Intel Core i3-8100
Best $100-$130 CPU Pick

noch nichtmal ein jahr alt :)
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
Ja schon, aber Anwendung != Anwendungsszenario. Ich geb mal nen Beispiel, und nehm mal absichtlich nicht mich sondern meine Frau: Die hat immer zig tasks auf, und nervt mich weil ihr PC zu langsam ist - nen ziemlich übertakteter Sandy-i5. Und das ist so weil sie immer zig Tasks auf hat und zig Sachen gleichzeitig macht. 2 Firefox-Instanzen mit eigenen Profilen (Privat/Geschäftlich), nen Iron mit dem Shop (getrennt vom Firefox aus Gründen), mindesterns 3 Excels, dazu Word, Outlook und irgendein pdf-Viewer. Und das ganze läuft bei mir deutlich flüssiger, der Unterschied sind 4 Kerne - reine IPC- bzw. Singlecore-Power hab ich sogar weniger, weil meine Mühle underclocked und undervolted ist, ihre aber voll power gibt.

das problem in deinem beispiel ist der arbeitsspeicher nicht die cpu performance... ein tab im hintergrund oder ein minimiertes office programm verbraucht so gut wie gar keine cpu power, wohl aber ram.

wenn du es genau wissen willst zeichne einfach mal die cpu last ueber die dauer eines tages auf und dann schau dir mal den speicher verbrauch an (der wird mit sicherheit immer am anschlag sein) bei deiner frau waere also ein ram upgrade viel zielfuehrender.

deine frau wird wohl eher beim oeffnen der programme meckern, wenn erstmal alles offen ist, waere ein i5 mit entsprechenden arbeitsspeicher vollkommen ausreichend fuer dein anwendungszenario
 
Zuletzt bearbeitet:

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
49.702
Reaktionen
10.278
Ich kann mit einem Taskmanager umgehen, danke - es sind in beiden Fällen gleich viel Ram, nämlich 32GB. Der ist nicht ansatzweise voll.
 

haschischtasche

Ährenpenis
Mitglied seit
28.09.2002
Beiträge
37.470
Reaktionen
7.936
haeh, overwatch ist doch mit jeder cpu* mit 60 fps spielbar? mit den stats tritts du dir doch selber in den arsch?
Du bist die Person die behauptet hat, dass die Leistung zu 90% von der GPU abhinge? :confused:

Ich habe auch ganz sicher nicht 60fps in einem 4 Jahre alten Spiel was bei release schon graphisch 3-7 Jahre hinter'm Standard hinterherhing als Maßstab für ausreichende Performance benannt. Da kann man auch 24fps in Crisis hernehmen oder so einen Unsinn.

https://www.tomshardware.com/reviews/best-cheap-cpus,5668.html
Intel Core i3-8100
Best $100-$130 CPU Pick

noch nichtmal ein jahr alt :)
2200G wäre ~40-50€ billiger und bringt recht vergleichbare Performance (~-4%, je nach Spiel, mal mehr mal weniger). Warum der i3 da "die beste preisleistungs cpu fuers gaming" sein soll, musst du mir mal erklären, zumal sich der 2200G auch einfach mal eben höher takten lässt.
Oder man steckt einfach die €120-130 die man unbedingt investieren will in 'nen 2600 und steht dann in aktuelleren Titeln wesentlich besser da. :rolleyes:
 
Zuletzt bearbeitet:
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
Ich kann mit einem Taskmanager umgehen, danke - es sind in beiden Fällen gleich viel Ram, nämlich 32GB. Der ist nicht ansatzweise voll.

dann hat deine frau 2-3monitore und alles wirklich alles gleichzeitig aktiv.
Wie gesagt, nicht aktive tabs und minimierte anwendungen verbrauchen so gut wie keine cpu performance , die unzureichdne performace bei dem anwendungsszenario wundert mich dann doch wirklich
Dies habe ich so noch nicht so erlebt, notebook mit m3-8100Y CPU und ähnlichem Anwendungsszenario -> 2 browser ca. 30 tabs, office
 
Zuletzt bearbeitet:
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
Du bist die Person die behauptet hat, dass die Leistung zu 90% von der GPU abhinge? :confused:

Ich habe auch ganz sicher nicht 60fps in einem 4 Jahre alten Spiel was bei release schon graphisch 3-7 Jahre hinter'm Standard hinterherhing als Maßstab für ausreichende Performance benannt. Da kann man auch 24fps in Crisis hernehmen oder so einen Unsinn.

2200G wäre ~40-50€ billiger und bringt recht vergleichbare Performance (~-4%, je nach Spiel, mal mehr mal weniger). Warum der i3 da "die beste preisleistungs cpu fuers gaming" sein soll, musst du mir mal erklären, zumal sich der 2200G auch einfach mal eben höher takten lässt.

sag das thg, bin da ganz bei dir: nen 2200G ist nen super preisleistungspaket für den normalanwender
 
Mitglied seit
02.09.2002
Beiträge
3.281
Reaktionen
106
Es gibt bezahlbaren Multicore seit 2006 (c2d), 14 Jahre!
Und immer noch kommen Leute mit dem, "tja die Software muss erst nachziehen" Argument. Tatsache ist nun mal es gibt nen shitload an Software die (nach heutigen Maßstäben der Softwareentwicklung) einfach nicht wirklich gleichberechtigt parallelisiert werden kann, es wird in dieser immer den EINEN fetten Thread geben (den roten Faden der alles zusammenhält) und auf den die restlichen outsourcten module warten müssen. Und das war auch schon vor 2006 klar.
Ja aber es ist nun mal so, dass die Software noch nachziehen muss. Das Problem ist eins zu eins das gleiche, dass auch mit der IT Sicherheit besteht (siehe Thread im Comm). Bugfreie Programme (=ohne Sicherheistlücken) zu entwickeln ist schwer. Bugfreie Programme mit mehreren parallelen Abläufen zu entwickeln ist schwer², wie ducki ja schon schrub.
Es ist nicht so, dass man bisher keine parallelen Anwendungen entwickeln konnte, aber bis vor Kurzem war das Aufgabe von Spezialisten für einige wenige Probleme. Dass sich der Wald-und-Wiesen-Programmierer mit Nebenläufigkeit auseinandersetzt ist neu.

Steile provokante These:
Multicore bringt dem Heimanwender jenseits von 4 Cores in über 90% der Fälle mal so garnix und frisst nur Energie und produziert Abwärme. (zum glück werden die Kerne stillgelegt und gammeln dann bis zu Entsorgung in 5 Jahren vor sich hin). Ich bitte mich gerne vom Gegenteil zu überzeugen. (z.B. neuartiges Softwaredesign von dem ich nix mitbekommen habe, bin nämlich kein Entwickler sondern am ehesten nen kleiner DEV Ops).
Neuartiges Softwaredesign? Sehr wohl der Herr: Go aber vor allem Rust.
Go ist von 2009, Rust von 2015. Kurzer Blick auf den TIOBE Index: :dead:
Stattdessen sitzt auf Platz 3: Python.
Dauert also noch, mit der Parallelisierung von Software.
 
Mitglied seit
21.02.2003
Beiträge
22.859
Reaktionen
273
Also wer 2020 immer noch der meinung ist 2-4 cores seien mehr als genug für gaming hat glaub ich schon lange keinen aktuellen AAA titel mehr gespielt. Halbwegs aktuelle spiele wie z.B. Assassins Creed Odyssey oder Shadow of the Tombraider profitieren z.B. ungemein von 8 cores. Vorausgesetzt natürlich man hat eine grafikkarte die das auch mitmacht.
Kann ja jeder mal selber testen und sein neuestes AAA game mal nur auf 2-4 cores benchmarken und danach auf 6-8. Wer da tatsächlich keinen unterschied zu sehen kriegt braucht dringend ein grafikkarten update. :ugly:


Ich meine ich bin ja auch keiner, der sich für 1000€ ne highend grafikkarte kauft, da ich aber erst neulich von meinem 4core intel zu einem 6 core amd system umgestiegen bin muss ich sagen, dass sich das gerade fürs gaming massiv gelohnt hat.


Selbst mit meiner nun auch schon bald 4 jahre alten RX 480 haben sich die FPS in quasi allen spielen die ich getestet habe mehr als verdoppelt. Bei manchen sogar verdreifacht. Ich mein das war seinerzeit ne ~250€ grafikkarte und selbst die hat ordentlich cpu hunger.


Außerdem ist die nächste konsolen generation schon in den startlöchern. Sowohl xbox als auch ps5 sollen beide 8 core zen2 prozessoren haben. Die xbox angeblich @3,6 ghz. Da darf man bei allen multiplatform titeln einen deutlichen sprung bei den hardware anforderungen erwarten. So wie bei jeder konsolengeneration davor auch.

Ich glaub allgemein, dass die konsolen die hauptverantwortlichen sind warum man bei gaming anforderungen so große intervalle ohne relevant gesteigerten hardwarehunger hat. Bin ich auch dankbar für, weil das dafür sorgt, dass mir der aktuelle prozessor vermutlich für die nächsten 5+ jahre reicht und die plattform wenn's gut läuft sogar für 10+ jahre relevant bleibt.
Das einzige pc exklusive AAA spiel das mir einfällt ist Star Citizen wo laut hauseigener metrik gerade mal 5% der nutzer gerade so 60+ fps hinkriegen und das mit der besten hardware die man kriegen kann.
:deliver:

Das man wenns nur um office, surfen und ein bisschen zeug anschauen geht keine 6+ cores braucht stimmt natürlich aber dafür sind die ganzen high end 12 core oder gar threadripper prozessoren ja auch nicht gedacht.
 
Zuletzt bearbeitet:
Oben