Bringt mich der King weiter???
Mit dem King etwas taktgeschraubt, hast Du auch be zukuenftigen Games keine Probleme. Ich hatte mal bei den Developern von Aquamark nachgefragt auf was sich der Wert Render Time-Share of frames bezieht. Die Antwort war, dass dies das Verhaeltnis CPU-GFX darstellt. Eine ausgewogene Conf. entspricht gleicher Punkzahl fuer GFX und CPU. Wenn ersteres zutrifft und RT-SOF 50% anzeigt entspricht dass einem ausgewogenen System, dass optimal configuriert ist. Mein P3S hat mit 3000 Punkten Vorsprung die ti4600 in ferner Liefen gelassen. Beim Zocken ist der Flaschenhals somit an der ti4600 festzumachen.
Nein, das hängt vom Spiel ab, außerdem glaube ich nicht das die Ti4600 dein CPU ausbremst sondern eher der CPU die Karte, ich hab bei AM3 5400 CPU Punkte und 3600 GPU Punkte und jetzt kommts, ich hab den Celeron CPU( der langsamste CPU) und eine Radeon 9800pro( so ziemlich eine der schnellsten Karten), je schneller der CPU desto schneller die Karte......
Gruß
Gruß
Tim Sweeney ist da aber anderer Meinung. Er sagt das zukuenftig ein 1500er Athlon voellig reicht um Spiele fluessig darzustellen. Angesichts der Tatsache, dass immer mehr Berechnungen auf die Arithmetik des Grafikchips abgewaelzt werden, ist zu erkennen dass die Entwicklung von komplexen Geometrieeinheiten mit exponentieller Geschwindigkeit ablaeuft.
Mit der 3.0 Shader Spezifikation geht bereits extrem komplexes Textursampling einher. In nicht allzu ferner Zukunft, werden die von der CPU berechneten Primatives, nur noch wenig vereinzelte Punkte in einer Szene darstellen. Letztendlich werden die Grafikchip prezisere Berechnungen anstellen koennen als die CPU.
Als praktisches Beispiel, koennt ich Dir auch sagen, dass eine Takt-Steigerung meiner CPU, um 32mhz, die CPU Score im Aquamark ueber 200 Punkte verbesserte. Die ti4600 brachte es da grad mal auf mickrige 16.
Bei solch intensiven Shading, keucht der GF4 ausm letzten Loch.
Mit der 3.0 Shader Spezifikation geht bereits extrem komplexes Textursampling einher. In nicht allzu ferner Zukunft, werden die von der CPU berechneten Primatives, nur noch wenig vereinzelte Punkte in einer Szene darstellen. Letztendlich werden die Grafikchip prezisere Berechnungen anstellen koennen als die CPU.
Als praktisches Beispiel, koennt ich Dir auch sagen, dass eine Takt-Steigerung meiner CPU, um 32mhz, die CPU Score im Aquamark ueber 200 Punkte verbesserte. Die ti4600 brachte es da grad mal auf mickrige 16.
Bei solch intensiven Shading, keucht der GF4 ausm letzten Loch.
Sorry auch wenns ein :unwuerdig: P3-S ist, der schafft es nicht die Karte voll auszunutzen, das siehst du ja selbst am Benchmark: dein CPU übertakten bringt mehr als die karte zu übertakten also bremst dein CPU die Karte aus, daran erkennt man das der CPU die Bremse ist. Wenn du beim Übertakten der Karte gut Punkte machst dann ist die Karte am ende.
Gruß
Gruß
>> Wenn du beim Übertakten der Karte gut Punkte machst dann ist die Karte am ende.<<
Das ist ein Widerspruch an sich.
Brauchst doch nur mal 2 gleiche ti's, die identische Werte bei den Triangels/sec. haben, raussuchen. Wirst sehen, dass zwischen einer 4ghz CPU und einer mit 1500mhz, der Unterschied in der GFX Score nicht mal bei 3% liegt. Ohne Treibercheat kannste aus ner 4600er nicht mehr als ca. 3000 GFX-Score rausquetschen. Und wenn Du noch soviel mhz auf die Karte einbruegeln laesst wird das rein gar nichts, ausser die Temp. der Karte steigern.
In dem Bench ist die Perf. der Graka, nicht wie frueher an einer theoretischen Fuellrate festgemacht, sondern an der Chipstruktur und die max. Anzahl der moeglichen Instruktionen welche die Karte once per pass ausfuehren kann. Im Falle von dx8 Shadern und deren spezifische Genauigkeit sind das bei der gf4 exakt 8 Texel per pass. Der einzige Weg um das noch beschleunigen zu koennen ist schlichtweg der Takt der GFX Core hochzuschrauben.
Das ist ein Widerspruch an sich.
Brauchst doch nur mal 2 gleiche ti's, die identische Werte bei den Triangels/sec. haben, raussuchen. Wirst sehen, dass zwischen einer 4ghz CPU und einer mit 1500mhz, der Unterschied in der GFX Score nicht mal bei 3% liegt. Ohne Treibercheat kannste aus ner 4600er nicht mehr als ca. 3000 GFX-Score rausquetschen. Und wenn Du noch soviel mhz auf die Karte einbruegeln laesst wird das rein gar nichts, ausser die Temp. der Karte steigern.
In dem Bench ist die Perf. der Graka, nicht wie frueher an einer theoretischen Fuellrate festgemacht, sondern an der Chipstruktur und die max. Anzahl der moeglichen Instruktionen welche die Karte once per pass ausfuehren kann. Im Falle von dx8 Shadern und deren spezifische Genauigkeit sind das bei der gf4 exakt 8 Texel per pass. Der einzige Weg um das noch beschleunigen zu koennen ist schlichtweg der Takt der GFX Core hochzuschrauben.
- DunklerHenker
- Manowar Groupie No. 1
- Posts: 1692
- Joined: 14.12.2002 - 12:48
- Location: Heidelberg
Halte ich für ein Gerücht,schon heute ist ein XP 1500+ für viele Spiele zu langsam ... und ich denke nicht dass in der Zukunft die HW-Anforderungen zurückgeschraubt werden...AchtBit wrote:Er sagt das zukuenftig ein 1500er Athlon voellig reicht um Spiele fluessig darzustellen.
System 1: Athlon 64 X2 4400+, A8N-SLI Premium, 2x 1024 MB Micron MT-5B -D, Gainward-GeForce 7800GT, Samsung SP2504C, SB Audigy 2 ZS
System 2: Athlon 64 3200+, MSI K8N Neo2 Platinum-54g, 2x 512 MB Micron MT-5B -C, PowerColor-Radeon X800 Pro, WD 800BB, SB Live! 5.1 Digital
Projekte:
EPoX-Elko-Operation =)
"Nobody fucks with the jesus!"
System 2: Athlon 64 3200+, MSI K8N Neo2 Platinum-54g, 2x 512 MB Micron MT-5B -C, PowerColor-Radeon X800 Pro, WD 800BB, SB Live! 5.1 Digital
Projekte:
EPoX-Elko-Operation =)
"Nobody fucks with the jesus!"
@DunklerHenkerAchtBit wrote:Angesichts der Tatsache, dass immer mehr Berechnungen auf die Arithmetik des Grafikchips abgewaelzt werden, ist zu erkennen dass die Entwicklung von komplexen Geometrieeinheiten mit exponentieller Geschwindigkeit ablaeuft.
Mit der 3.0 Shader Spezifikation geht bereits extrem komplexes Textursampling einher. In nicht allzu ferner Zukunft, werden die von der CPU berechneten Primatives, nur noch wenig vereinzelte Punkte in einer Szene darstellen. Letztendlich werden die Grafikchip prezisere Berechnungen anstellen koennen als die CPU.
Dann geh doch bitte auch auf dieses "Stück" Text ein.
Wenn die GraKa immer mehr Aufgaben übernimmt die zum jetzigen Zeitpunkt noch die CPU berechnen muss, dann könnte es in absehbarer Zeit schon so aussehen, dass ein XP 1500+ ausreicht um aktuelle Spiele zu zocken. Aber da es vermutlich auch immer ausgeglügeltere KIs usw... geben wird, wird man um das aufrüsten auf eine aktuellere CPU nicht herum kommen.
Intel Pentium 4C 2600 [@3250]
Asus P4P800 [non-Deluxe]
2 x 512MB Corsair PC3700 [ValueSelect Kit]
ATI Radeon 9800 [Pro]
Creative Sound Blaster X-Fi [XtremeMusic]
2 x 250GB Hitachi Deskstar T7K250 [Raid 0]
17" Sony SDM-HS73L [20ms]
Asus P4P800 [non-Deluxe]
2 x 512MB Corsair PC3700 [ValueSelect Kit]
ATI Radeon 9800 [Pro]
Creative Sound Blaster X-Fi [XtremeMusic]
2 x 250GB Hitachi Deskstar T7K250 [Raid 0]
17" Sony SDM-HS73L [20ms]
Also ich spiele meißt nur Games mit Quake3-Engine, auch Clanmäßig.
Und da ist der King langsam am Ende.
Da kannst du die tollste GraKa reinpacken, das machts nur schöner nicht schneller.
Bei Halo oder Unreal wird dagegen primäre die GPU belastet nicht CPU. Hier reicht der King noch aus, wenn die GraKa auf 9500Pro-Level ist.
In meiner Sig kann man ja kleine Vergleiche anstellen.
Rein Leistungmäßig würde ich den King auf dem Level XP2000+ einstufen. Bei guter Übertaktung sogar darüber hinaus.
Das reicht erstmal noch sicher aus, volles Rohr kann man natürlich nicht fahren.
PS. nen 1500er Athlon wird in Zukunft niemals reichen, die KI wird immer komplexer. In diese Richtung werden die durch die GPUs eingesparten Rechenzeiten wandern.
Und da ist der King langsam am Ende.
Da kannst du die tollste GraKa reinpacken, das machts nur schöner nicht schneller.
Bei Halo oder Unreal wird dagegen primäre die GPU belastet nicht CPU. Hier reicht der King noch aus, wenn die GraKa auf 9500Pro-Level ist.
In meiner Sig kann man ja kleine Vergleiche anstellen.
Rein Leistungmäßig würde ich den King auf dem Level XP2000+ einstufen. Bei guter Übertaktung sogar darüber hinaus.
Das reicht erstmal noch sicher aus, volles Rohr kann man natürlich nicht fahren.
PS. nen 1500er Athlon wird in Zukunft niemals reichen, die KI wird immer komplexer. In diese Richtung werden die durch die GPUs eingesparten Rechenzeiten wandern.
Aquamark3: 1968/5715=16788 3DMark03 3.2.0 =1123
Aquamark3: 5634/7423=40689 3DMark03 3.2.0 =5625
Das mit der KI ist sicherlich ein Punkt nur welche aktuelle KI benoetigt Prozessorpower jenseits der 1000mhz?
Als Beispiel einer guten KI, nimm mal UT03 und schraub die Grafik auf niedrigstes Level. Du kannst mit 1000mhz und den max. Bots die Szene ohne Problem fluessig darstellen.
Schwer einzuschaetzen, aber ich wuerde sagen, dass sich die Grafikprozessoren etwa 100x schneller verbessern als die Enwicklung von KI's. Es dauert Jahre um eine gute KI zu entwickeln, waehrend sich die Kapazitaet der Grafikchips im 6 Monats so gut wie verdoppelt.
Man darf die Aussage von Sweeny auch nicht allgemein an aktuelle Spiele festmachen, sondern an solche die sich auch wirklich am Potenzial von dx9 bedienen.
Als Beispiel einer guten KI, nimm mal UT03 und schraub die Grafik auf niedrigstes Level. Du kannst mit 1000mhz und den max. Bots die Szene ohne Problem fluessig darstellen.
Schwer einzuschaetzen, aber ich wuerde sagen, dass sich die Grafikprozessoren etwa 100x schneller verbessern als die Enwicklung von KI's. Es dauert Jahre um eine gute KI zu entwickeln, waehrend sich die Kapazitaet der Grafikchips im 6 Monats so gut wie verdoppelt.
Man darf die Aussage von Sweeny auch nicht allgemein an aktuelle Spiele festmachen, sondern an solche die sich auch wirklich am Potenzial von dx9 bedienen.
genau das habe ich schon immer behauptet. Schon mit meinem Celeron konnte ich fast alles problemlos mit 4x FSAA zocken. Mit dem PIII-S erst recht. Wer behauptet dass ein PIII-S ne Radeon 9500PRO oder Ti4600 "ausbremst" der hat von der Materie einfach keine Ahnung. Sorry, dass es hart kligt, aber es ist so!
Beim Spielen verliert die CPU immer mehr an Bedeutung. Das einzige womit ich meine CPU zum stocken bringen kann, ist manuell hunderte KIs in ein Spiel (CS, WC3 oder sonst welche Shooter oder Strategiespiele) reinzupacken, was real aber nie passieren wird ...
Die hübsche Grafiklandschaft wird fast ausschließlich von der Grafikkarte berechnet.
Folglich zeugt der Begriff "die Grafikkarte ausnutzen" auch nicht gerade von Fachkenntnis. Je nach Situation bremst entweder die CPU oder die Grafikkarte. Bei 6x FSAA und 16x AF wird die Grafikkarte (vor allem bei grafisch hochwertigen Spielen) viel eher der Bremsklotz sein als die CPU, während bei Quake3 oder CS ohne grafischen Klimbim vielleicht noch bei 800x600 eher die CPU das Limit angibt. Jedoch liegt das dann bei 300 FPS oder so.
Da ich selbst gerne spiele und mit dem Celeron bzw. jetzt PIII-S noch kein Spiel gefunden habe, dass das System richtig ins schwitzen bringt (höchstens mal bei 6x FSAA, dann aber wieder auf Seite der Grafikkarte), weiß ich dass ne schnellere CPU zum zocken einfach unnötig ist. Bei grafisch noch komplexeren Szenarien kann ich mir sogar vorstellen dass meine Radeon in Zukunft eher wieder die Spaßbremse beim Zocken wird als der PIII-S.
Da ich das Thema schon öfters (auch bei nickles) diskutiert habe, habe ich spaßeshalber mal meinen 700er Celeron eingebaut und den PIII-S auf 100MHz FSB zurückgetaktet. In beiden Fällen konnte ich Morrowind mit 4x FSAA fast flüssig zocken. ... ... ...
Beim Spielen verliert die CPU immer mehr an Bedeutung. Das einzige womit ich meine CPU zum stocken bringen kann, ist manuell hunderte KIs in ein Spiel (CS, WC3 oder sonst welche Shooter oder Strategiespiele) reinzupacken, was real aber nie passieren wird ...
Die hübsche Grafiklandschaft wird fast ausschließlich von der Grafikkarte berechnet.
Folglich zeugt der Begriff "die Grafikkarte ausnutzen" auch nicht gerade von Fachkenntnis. Je nach Situation bremst entweder die CPU oder die Grafikkarte. Bei 6x FSAA und 16x AF wird die Grafikkarte (vor allem bei grafisch hochwertigen Spielen) viel eher der Bremsklotz sein als die CPU, während bei Quake3 oder CS ohne grafischen Klimbim vielleicht noch bei 800x600 eher die CPU das Limit angibt. Jedoch liegt das dann bei 300 FPS oder so.
Da ich selbst gerne spiele und mit dem Celeron bzw. jetzt PIII-S noch kein Spiel gefunden habe, dass das System richtig ins schwitzen bringt (höchstens mal bei 6x FSAA, dann aber wieder auf Seite der Grafikkarte), weiß ich dass ne schnellere CPU zum zocken einfach unnötig ist. Bei grafisch noch komplexeren Szenarien kann ich mir sogar vorstellen dass meine Radeon in Zukunft eher wieder die Spaßbremse beim Zocken wird als der PIII-S.
Da ich das Thema schon öfters (auch bei nickles) diskutiert habe, habe ich spaßeshalber mal meinen 700er Celeron eingebaut und den PIII-S auf 100MHz FSB zurückgetaktet. In beiden Fällen konnte ich Morrowind mit 4x FSAA fast flüssig zocken. ... ... ...
<br>IBM Thinkpad T40
1,5GHz Banias / 1280MB Ram / Samsung m5p 160GB / fast 5Std. Laufzeit mit 6-Zellen-Akku --> geflext
Bist ungeschickt, hast linke Hände?
Läufst gegen Türen und auch Wände?
Kannst nicht schrauben und nicht lenken?
Kannst nicht von 12 bis Mittag Denken?
Bist unrasiert und wasserdicht?
Hauptschulabschluß hast du nicht?
Kriegst nicht mal deine Schuhe zu?
Du bist ein Mann für ATU!
1,5GHz Banias / 1280MB Ram / Samsung m5p 160GB / fast 5Std. Laufzeit mit 6-Zellen-Akku --> geflext
Bist ungeschickt, hast linke Hände?
Läufst gegen Türen und auch Wände?
Kannst nicht schrauben und nicht lenken?
Kannst nicht von 12 bis Mittag Denken?
Bist unrasiert und wasserdicht?
Hauptschulabschluß hast du nicht?
Kriegst nicht mal deine Schuhe zu?
Du bist ein Mann für ATU!
Versuchmal BF1942 mit voller KI und max. Botzahl, dann findest du nem Game das den King an den Rand bringt, oder sogar darüber hinaus.
Allgemein finde ich das KI und Physik-Engine in Zukunft an Bedeutung gewinnen werden.
Schön aussehen kann heute jeder, das ist nichtmehr ausschlaggebend.
Allgemein finde ich das KI und Physik-Engine in Zukunft an Bedeutung gewinnen werden.
Schön aussehen kann heute jeder, das ist nichtmehr ausschlaggebend.
Aquamark3: 1968/5715=16788 3DMark03 3.2.0 =1123
Aquamark3: 5634/7423=40689 3DMark03 3.2.0 =5625
- DunklerHenker
- Manowar Groupie No. 1
- Posts: 1692
- Joined: 14.12.2002 - 12:48
- Location: Heidelberg
Ich möcht mal sehen wie du Generals mit vollen Details und hoher Auflösung zocken willst,bevorzugt im LAN ... da brauchst nur ne Ti200,aber deine 1,5 GHz langen da im Leben nicht mehr aus,auch mein XP @ default fängt da so langsam das Ruckeln an ... oder eben,wie ElDefunes anmerkte ,BF1942 
System 1: Athlon 64 X2 4400+, A8N-SLI Premium, 2x 1024 MB Micron MT-5B -D, Gainward-GeForce 7800GT, Samsung SP2504C, SB Audigy 2 ZS
System 2: Athlon 64 3200+, MSI K8N Neo2 Platinum-54g, 2x 512 MB Micron MT-5B -C, PowerColor-Radeon X800 Pro, WD 800BB, SB Live! 5.1 Digital
Projekte:
EPoX-Elko-Operation =)
"Nobody fucks with the jesus!"
System 2: Athlon 64 3200+, MSI K8N Neo2 Platinum-54g, 2x 512 MB Micron MT-5B -C, PowerColor-Radeon X800 Pro, WD 800BB, SB Live! 5.1 Digital
Projekte:
EPoX-Elko-Operation =)
"Nobody fucks with the jesus!"
- riscracer
- Großer Tualatin-Orden in 0,13µm für die Missionierung der Ungläubigen
- Posts: 1625
- Joined: 01.06.2002 - 02:00
- Location: Aquae Mattiacorum
- Contact:
Generals hat im Netzwerk meinem ehemaligem PIII-S 1.26 @ 1.62 das Genick gebrochen. Einigermaßen akzeptables Spiel war nur mit 800x600 möglich und das Spiel lief trotzdem beileibe nicht so, wie ich mir das vorstelle. Die gepushte GF3Ti500 dürfte keinen Einfluß gehabt haben, denn vom Nordwälder 3Gig+ befeuert, war das Spiel wieder in dem Rahmen, daß es Spaß brachte.
Im Netzwerk hat die CPU so gut wie keine Relevanz, es sei denn man stellt den Server. Ich hab Generals und BF1942 schon oefter im LAN gezockt. Wobei ich sagen muss, dass BF1942 eine der schlechtesten Netzwerkengins hat die ich kenne, dennoch war mit meiner ti4600 ein flussiges Zocken mit vollen Deatails und 1280x1024x32(Single Player 1600x1200x32) moeglich. Bei Generals dagegen gabs null Probleme, alle Details @ 1600x1200x32. Gezockt haben wir zu 4t und ich habe dabei den Server gestellt. Meine Kumpels haben shit noname Netzwerkkarten im Rechner, waehrend ich mal ein paar Mark mehr ausgegeben hab und mir ne 3com NIC holte. Komisch, dass fast immer ich den Server stellen muss weil den Anderen Ihre Billgteile staendig das Netz abschiessen. Einzig BF1942 konnte mein King nicht vernuenftig hosten, was aber wie gesagt an der lausig programmierten Netzwerkengine liegt. Wie auch immer, seit wir nen dedicated Server fuer unsere LANs haben gibts null Problemo.
Wie auch immer, niemand muss jetzt seine was weis ich wieviel Mhz rechtfertigen. Die koennen ja auch vernuenftig eingesetzt werden. Nur eben nicht bei zukuenftigen Games, insbesondere solche die Shader verwenden werden.
Ich kann in dem Fall Sweeny' s Aussage zu 100% beipflichten.
Wie auch immer, niemand muss jetzt seine was weis ich wieviel Mhz rechtfertigen. Die koennen ja auch vernuenftig eingesetzt werden. Nur eben nicht bei zukuenftigen Games, insbesondere solche die Shader verwenden werden.
Ich kann in dem Fall Sweeny' s Aussage zu 100% beipflichten.