Bringt mich der King weiter???

Hier geht's um alles, was mit CPU's und Overclockingfragen zu tun hat

Moderators: Rio71, MOD-Team

AchtBit
Ruler von de Familie
Posts: 146
Joined: 01.11.2002 - 02:00

Post by AchtBit »

Mit dem King etwas taktgeschraubt, hast Du auch be zukuenftigen Games keine Probleme. Ich hatte mal bei den Developern von Aquamark nachgefragt auf was sich der Wert Render Time-Share of frames bezieht. Die Antwort war, dass dies das Verhaeltnis CPU-GFX darstellt. Eine ausgewogene Conf. entspricht gleicher Punkzahl fuer GFX und CPU. Wenn ersteres zutrifft und RT-SOF 50% anzeigt entspricht dass einem ausgewogenen System, dass optimal configuriert ist. Mein P3S hat mit 3000 Punkten Vorsprung die ti4600 in ferner Liefen gelassen. Beim Zocken ist der Flaschenhals somit an der ti4600 festzumachen.
Noiling
Ruler von de Familie
Posts: 122
Joined: 31.07.2003 - 19:21
Location: Mannheim
Contact:

Post by Noiling »

Nein, das hängt vom Spiel ab, außerdem glaube ich nicht das die Ti4600 dein CPU ausbremst sondern eher der CPU die Karte, ich hab bei AM3 5400 CPU Punkte und 3600 GPU Punkte und jetzt kommts, ich hab den Celeron CPU( der langsamste CPU) und eine Radeon 9800pro( so ziemlich eine der schnellsten Karten), je schneller der CPU desto schneller die Karte......




Gruß :prost:
AchtBit
Ruler von de Familie
Posts: 146
Joined: 01.11.2002 - 02:00

Post by AchtBit »

Tim Sweeney ist da aber anderer Meinung. Er sagt das zukuenftig ein 1500er Athlon voellig reicht um Spiele fluessig darzustellen. Angesichts der Tatsache, dass immer mehr Berechnungen auf die Arithmetik des Grafikchips abgewaelzt werden, ist zu erkennen dass die Entwicklung von komplexen Geometrieeinheiten mit exponentieller Geschwindigkeit ablaeuft.
Mit der 3.0 Shader Spezifikation geht bereits extrem komplexes Textursampling einher. In nicht allzu ferner Zukunft, werden die von der CPU berechneten Primatives, nur noch wenig vereinzelte Punkte in einer Szene darstellen. Letztendlich werden die Grafikchip prezisere Berechnungen anstellen koennen als die CPU.

Als praktisches Beispiel, koennt ich Dir auch sagen, dass eine Takt-Steigerung meiner CPU, um 32mhz, die CPU Score im Aquamark ueber 200 Punkte verbesserte. Die ti4600 brachte es da grad mal auf mickrige 16.
Bei solch intensiven Shading, keucht der GF4 ausm letzten Loch.
Noiling
Ruler von de Familie
Posts: 122
Joined: 31.07.2003 - 19:21
Location: Mannheim
Contact:

Post by Noiling »

Sorry auch wenns ein :unwuerdig: P3-S ist, der schafft es nicht die Karte voll auszunutzen, das siehst du ja selbst am Benchmark: dein CPU übertakten bringt mehr als die karte zu übertakten also bremst dein CPU die Karte aus, daran erkennt man das der CPU die Bremse ist. Wenn du beim Übertakten der Karte gut Punkte machst dann ist die Karte am ende.



Gruß
AchtBit
Ruler von de Familie
Posts: 146
Joined: 01.11.2002 - 02:00

Post by AchtBit »

>> Wenn du beim Übertakten der Karte gut Punkte machst dann ist die Karte am ende.<<

Das ist ein Widerspruch an sich.

Brauchst doch nur mal 2 gleiche ti's, die identische Werte bei den Triangels/sec. haben, raussuchen. Wirst sehen, dass zwischen einer 4ghz CPU und einer mit 1500mhz, der Unterschied in der GFX Score nicht mal bei 3% liegt. Ohne Treibercheat kannste aus ner 4600er nicht mehr als ca. 3000 GFX-Score rausquetschen. Und wenn Du noch soviel mhz auf die Karte einbruegeln laesst wird das rein gar nichts, ausser die Temp. der Karte steigern.

In dem Bench ist die Perf. der Graka, nicht wie frueher an einer theoretischen Fuellrate festgemacht, sondern an der Chipstruktur und die max. Anzahl der moeglichen Instruktionen welche die Karte once per pass ausfuehren kann. Im Falle von dx8 Shadern und deren spezifische Genauigkeit sind das bei der gf4 exakt 8 Texel per pass. Der einzige Weg um das noch beschleunigen zu koennen ist schlichtweg der Takt der GFX Core hochzuschrauben.
User avatar
DunklerHenker
Manowar Groupie No. 1
Posts: 1692
Joined: 14.12.2002 - 12:48
Location: Heidelberg

Post by DunklerHenker »

AchtBit wrote:Er sagt das zukuenftig ein 1500er Athlon voellig reicht um Spiele fluessig darzustellen.
Halte ich für ein Gerücht,schon heute ist ein XP 1500+ für viele Spiele zu langsam ... und ich denke nicht dass in der Zukunft die HW-Anforderungen zurückgeschraubt werden...
System 1: Athlon 64 X2 4400+, A8N-SLI Premium, 2x 1024 MB Micron MT-5B -D, Gainward-GeForce 7800GT, Samsung SP2504C, SB Audigy 2 ZS

System 2: Athlon 64 3200+, MSI K8N Neo2 Platinum-54g, 2x 512 MB Micron MT-5B -C, PowerColor-Radeon X800 Pro, WD 800BB, SB Live! 5.1 Digital

Projekte:
EPoX-Elko-Operation =)

"Nobody fucks with the jesus!"
lumi
Mutter von Admin
Posts: 262
Joined: 01.05.2002 - 02:00
Location: Hdf in Th in D
Contact:

Post by lumi »

AchtBit wrote:Angesichts der Tatsache, dass immer mehr Berechnungen auf die Arithmetik des Grafikchips abgewaelzt werden, ist zu erkennen dass die Entwicklung von komplexen Geometrieeinheiten mit exponentieller Geschwindigkeit ablaeuft.
Mit der 3.0 Shader Spezifikation geht bereits extrem komplexes Textursampling einher. In nicht allzu ferner Zukunft, werden die von der CPU berechneten Primatives, nur noch wenig vereinzelte Punkte in einer Szene darstellen. Letztendlich werden die Grafikchip prezisere Berechnungen anstellen koennen als die CPU.
@DunklerHenker

Dann geh doch bitte auch auf dieses "Stück" Text ein.

Wenn die GraKa immer mehr Aufgaben übernimmt die zum jetzigen Zeitpunkt noch die CPU berechnen muss, dann könnte es in absehbarer Zeit schon so aussehen, dass ein XP 1500+ ausreicht um aktuelle Spiele zu zocken. Aber da es vermutlich auch immer ausgeglügeltere KIs usw... geben wird, wird man um das aufrüsten auf eine aktuellere CPU nicht herum kommen.
Intel Pentium 4C 2600 [@3250]
Asus P4P800 [non-Deluxe]
2 x 512MB Corsair PC3700 [ValueSelect Kit]
ATI Radeon 9800 [Pro]
Creative Sound Blaster X-Fi [XtremeMusic]
2 x 250GB Hitachi Deskstar T7K250 [Raid 0]
17" Sony SDM-HS73L [20ms]
User avatar
ElDefunes
Krasser Checker
Posts: 56
Joined: 20.10.2003 - 20:02
Location: LowerSaxonie

Post by ElDefunes »

Also ich spiele meißt nur Games mit Quake3-Engine, auch Clanmäßig.
Und da ist der King langsam am Ende.
Da kannst du die tollste GraKa reinpacken, das machts nur schöner nicht schneller.
Bei Halo oder Unreal wird dagegen primäre die GPU belastet nicht CPU. Hier reicht der King noch aus, wenn die GraKa auf 9500Pro-Level ist.

In meiner Sig kann man ja kleine Vergleiche anstellen.
Rein Leistungmäßig würde ich den King auf dem Level XP2000+ einstufen. Bei guter Übertaktung sogar darüber hinaus.
Das reicht erstmal noch sicher aus, volles Rohr kann man natürlich nicht fahren.

PS. nen 1500er Athlon wird in Zukunft niemals reichen, die KI wird immer komplexer. In diese Richtung werden die durch die GPUs eingesparten Rechenzeiten wandern.
:unwuerdig:PIII-S SL657@1628MHz 1.50V@43°C Tusl2-c@1014.001 2x256MB Infineon@2-2-2-5/7
:teufelchen: Hercules 3D Prophet 8500 128MB@Original275MHz
Aquamark3: 1968/5715=16788 3DMark03 3.2.0 =1123

:smoke: Barton 2500+@3200+ 1.65V@48°C A7N8XDeluxe@REV.2.0 2x256MB MDT@2-2-3-5
:teufelchen: Hercules 3D Prophet 9800SE AIW@9800PRO
Aquamark3: 5634/7423=40689 3DMark03 3.2.0 =5625
AchtBit
Ruler von de Familie
Posts: 146
Joined: 01.11.2002 - 02:00

Post by AchtBit »

Das mit der KI ist sicherlich ein Punkt nur welche aktuelle KI benoetigt Prozessorpower jenseits der 1000mhz?

Als Beispiel einer guten KI, nimm mal UT03 und schraub die Grafik auf niedrigstes Level. Du kannst mit 1000mhz und den max. Bots die Szene ohne Problem fluessig darstellen.

Schwer einzuschaetzen, aber ich wuerde sagen, dass sich die Grafikprozessoren etwa 100x schneller verbessern als die Enwicklung von KI's. Es dauert Jahre um eine gute KI zu entwickeln, waehrend sich die Kapazitaet der Grafikchips im 6 Monats so gut wie verdoppelt.

Man darf die Aussage von Sweeny auch nicht allgemein an aktuelle Spiele festmachen, sondern an solche die sich auch wirklich am Potenzial von dx9 bedienen.
User avatar
sego
Mutter von Admin
Posts: 471
Joined: 14.03.2003 - 22:25
Location: Münster / NRW

Post by sego »

genau das habe ich schon immer behauptet. Schon mit meinem Celeron konnte ich fast alles problemlos mit 4x FSAA zocken. Mit dem PIII-S erst recht. Wer behauptet dass ein PIII-S ne Radeon 9500PRO oder Ti4600 "ausbremst" der hat von der Materie einfach keine Ahnung. Sorry, dass es hart kligt, aber es ist so!
Beim Spielen verliert die CPU immer mehr an Bedeutung. Das einzige womit ich meine CPU zum stocken bringen kann, ist manuell hunderte KIs in ein Spiel (CS, WC3 oder sonst welche Shooter oder Strategiespiele) reinzupacken, was real aber nie passieren wird ...
Die hübsche Grafiklandschaft wird fast ausschließlich von der Grafikkarte berechnet.
Folglich zeugt der Begriff "die Grafikkarte ausnutzen" auch nicht gerade von Fachkenntnis. Je nach Situation bremst entweder die CPU oder die Grafikkarte. Bei 6x FSAA und 16x AF wird die Grafikkarte (vor allem bei grafisch hochwertigen Spielen) viel eher der Bremsklotz sein als die CPU, während bei Quake3 oder CS ohne grafischen Klimbim vielleicht noch bei 800x600 eher die CPU das Limit angibt. Jedoch liegt das dann bei 300 FPS oder so.
Da ich selbst gerne spiele und mit dem Celeron bzw. jetzt PIII-S noch kein Spiel gefunden habe, dass das System richtig ins schwitzen bringt (höchstens mal bei 6x FSAA, dann aber wieder auf Seite der Grafikkarte), weiß ich dass ne schnellere CPU zum zocken einfach unnötig ist. Bei grafisch noch komplexeren Szenarien kann ich mir sogar vorstellen dass meine Radeon in Zukunft eher wieder die Spaßbremse beim Zocken wird als der PIII-S.
Da ich das Thema schon öfters (auch bei nickles) diskutiert habe, habe ich spaßeshalber mal meinen 700er Celeron eingebaut und den PIII-S auf 100MHz FSB zurückgetaktet. In beiden Fällen konnte ich Morrowind mit 4x FSAA fast flüssig zocken. ... ... ...
<br>IBM Thinkpad T40
1,5GHz Banias / 1280MB Ram / Samsung m5p 160GB / fast 5Std. Laufzeit mit 6-Zellen-Akku --> geflext :(

Bist ungeschickt, hast linke Hände?
Läufst gegen Türen und auch Wände?
Kannst nicht schrauben und nicht lenken?
Kannst nicht von 12 bis Mittag Denken?
Bist unrasiert und wasserdicht?
Hauptschulabschluß hast du nicht?
Kriegst nicht mal deine Schuhe zu?
Du bist ein Mann für ATU!
User avatar
ElDefunes
Krasser Checker
Posts: 56
Joined: 20.10.2003 - 20:02
Location: LowerSaxonie

Post by ElDefunes »

Versuchmal BF1942 mit voller KI und max. Botzahl, dann findest du nem Game das den King an den Rand bringt, oder sogar darüber hinaus. ;)


Allgemein finde ich das KI und Physik-Engine in Zukunft an Bedeutung gewinnen werden.
Schön aussehen kann heute jeder, das ist nichtmehr ausschlaggebend.
:unwuerdig:PIII-S SL657@1628MHz 1.50V@43°C Tusl2-c@1014.001 2x256MB Infineon@2-2-2-5/7
:teufelchen: Hercules 3D Prophet 8500 128MB@Original275MHz
Aquamark3: 1968/5715=16788 3DMark03 3.2.0 =1123

:smoke: Barton 2500+@3200+ 1.65V@48°C A7N8XDeluxe@REV.2.0 2x256MB MDT@2-2-3-5
:teufelchen: Hercules 3D Prophet 9800SE AIW@9800PRO
Aquamark3: 5634/7423=40689 3DMark03 3.2.0 =5625
User avatar
DunklerHenker
Manowar Groupie No. 1
Posts: 1692
Joined: 14.12.2002 - 12:48
Location: Heidelberg

Post by DunklerHenker »

Ich möcht mal sehen wie du Generals mit vollen Details und hoher Auflösung zocken willst,bevorzugt im LAN ... da brauchst nur ne Ti200,aber deine 1,5 GHz langen da im Leben nicht mehr aus,auch mein XP @ default fängt da so langsam das Ruckeln an ... oder eben,wie ElDefunes anmerkte ,BF1942 :rolleyes:
System 1: Athlon 64 X2 4400+, A8N-SLI Premium, 2x 1024 MB Micron MT-5B -D, Gainward-GeForce 7800GT, Samsung SP2504C, SB Audigy 2 ZS

System 2: Athlon 64 3200+, MSI K8N Neo2 Platinum-54g, 2x 512 MB Micron MT-5B -C, PowerColor-Radeon X800 Pro, WD 800BB, SB Live! 5.1 Digital

Projekte:
EPoX-Elko-Operation =)

"Nobody fucks with the jesus!"
User avatar
riscracer
Großer Tualatin-Orden in 0,13µm für die Missionierung der Ungläubigen
Posts: 1625
Joined: 01.06.2002 - 02:00
Location: Aquae Mattiacorum
Contact:

Post by riscracer »

Generals hat im Netzwerk meinem ehemaligem PIII-S 1.26 @ 1.62 das Genick gebrochen. Einigermaßen akzeptables Spiel war nur mit 800x600 möglich und das Spiel lief trotzdem beileibe nicht so, wie ich mir das vorstelle. Die gepushte GF3Ti500 dürfte keinen Einfluß gehabt haben, denn vom Nordwälder 3Gig+ befeuert, war das Spiel wieder in dem Rahmen, daß es Spaß brachte.
Image
AchtBit
Ruler von de Familie
Posts: 146
Joined: 01.11.2002 - 02:00

Post by AchtBit »

Im Netzwerk hat die CPU so gut wie keine Relevanz, es sei denn man stellt den Server. Ich hab Generals und BF1942 schon oefter im LAN gezockt. Wobei ich sagen muss, dass BF1942 eine der schlechtesten Netzwerkengins hat die ich kenne, dennoch war mit meiner ti4600 ein flussiges Zocken mit vollen Deatails und 1280x1024x32(Single Player 1600x1200x32) moeglich. Bei Generals dagegen gabs null Probleme, alle Details @ 1600x1200x32. Gezockt haben wir zu 4t und ich habe dabei den Server gestellt. Meine Kumpels haben shit noname Netzwerkkarten im Rechner, waehrend ich mal ein paar Mark mehr ausgegeben hab und mir ne 3com NIC holte. Komisch, dass fast immer ich den Server stellen muss weil den Anderen Ihre Billgteile staendig das Netz abschiessen. Einzig BF1942 konnte mein King nicht vernuenftig hosten, was aber wie gesagt an der lausig programmierten Netzwerkengine liegt. Wie auch immer, seit wir nen dedicated Server fuer unsere LANs haben gibts null Problemo.

Wie auch immer, niemand muss jetzt seine was weis ich wieviel Mhz rechtfertigen. Die koennen ja auch vernuenftig eingesetzt werden. Nur eben nicht bei zukuenftigen Games, insbesondere solche die Shader verwenden werden.

Ich kann in dem Fall Sweeny' s Aussage zu 100% beipflichten.
Post Reply