G92 doch mit 128 Unified Shader?

Diskutiere und helfe bei G92 doch mit 128 Unified Shader? im Bereich User-Neuigkeiten im SysProfile Forum bei einer Lösung; Derzeit ranken sich viele Spekulationen um den G92 Chip, welcher derzeit auf der 8800GT Verwendung findet. Hat der Chip doch 128 Unified Shader statt... Dieses Thema im Forum "User-Neuigkeiten" wurde erstellt von Kaktus, 2. November 2007.

  1. Kaktus
    Kaktus Wandelnde HDD
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845

    Derzeit ranken sich viele Spekulationen um den G92 Chip, welcher derzeit auf der 8800GT Verwendung findet. Hat der Chip doch 128 Unified Shader statt der bisher nur gezeigten 112? Man munkelt derweil auf einigen Hardware Seiten das schon im nächsten Monat ein G92 mit 128 Shader auf den Markt kommen wird, obwohl es offiziell dazu weder eine Andeutung oder Verlautbarung gab. Aber worauf beruhen diese Vermutungen und was könnte dran sein an den Gerüchten?

    Es sind eigentlich zwei Hauptfaktoren die dazu führen, das solche Vermutungen aufkommen, wobei ein Faktor schon fast niedergeschmettert werden kann.
    Anders als der G80 mit 128 Shadern und stolzen 681 Millionen Transistoren, kommt der G92 auf ganze 754 Millionen Transistoren. Also deutlich mehr. Viele vermuten darin nicht freigeschaltete Pipelines im Chip, was auch nachvollziehbar ist. Aber wie soll es anders sein, es gibt ein großes "Aber". Dieses Aber besteht aus zwei Teilen die nun zusätzlich, bedingt durch die kleinere Fertigungstechnik, Platz auf dem Chip gefunden haben. Einmal der Videoprozessor, kurz VP2, welcher bisher nur bei den kleineren nVidia Modellen (8600/8500) im Chip direkt integriert war und bei der 8800 Reihe bisher als separater Chip zur Verfügung stand.
    Der zweite Zusatz ist der NVIO-Chip, welcher für SLI-Koordinierung notwendig ist, nun auch wieder direkt im Chip integriert ist.

    Ein weiter Punkt der an 128 Unified Shader beim G92 glauben lässt, klingt wesentlich plausibler und glaubwürdiger. Allerdings muss man dazu ein bisschen in die Chiptechnik hineinsehen. Wichtig ist erstmal das jede GPU in Cluster aufgeteilt ist. Jeder Cluster besteht aus einer bestimmten Anzahl an Textureunits, Shader und einigen weiteren wichtigen Dingen. Beim G92 besteht ein Cluster aus 16 Unified Shader und 8 Textureinheiten, das ganze mal 7 und schon hat man die technischen Daten einer 8800GT mit 112 Unified Shader und 56 Textureinheiten.
    Der Knackpunkt ist hierbei die Zahl 7, den bisher hatte jeder Chip, gleich ob von nVidia oder ATI, immer eine Grade Anzahl von Clustern, was auch zur Geometrischen Bauweise von Chips passt. Ungrade Zahlen wären schwieriger in der Produktion und Planung umzusetzen.
    Aufgrund dieser ungeraden Zahl ist es höchst wahrscheinlich das der G92 mehr kann und ist als nVidia bisher preis gibt.

    Natürlich kann man auf Grund solcher Überlegungen nicht steif und fest behaupten das im G92 mehr steckt als bisher offiziell bekannt, aber die Wahrscheinlichkeit ist extrem hoch das wir bald einen Karte mit G92 Chip sehen der deutlich schneller ist als die 8800GT. Vielleicht wird es ja demnächst eine Nachfolge Karte für die 8800GTX auf Basis des G92 geben, die Leistung würde stimmen, sofern man eine Speicheranbindung von 512bit umsetzen würde und den Chiptakt auf ca. 700Mhz setzen würde. Damit würde sich eine neue 8800GTX deutlich von der 8800GT absetzen.
     
  2. Diabolus
    Diabolus Deutscher Meister 2011
    Registriert seit:
    25. Dezember 2006
    Beiträge:
    8.558
    Zustimmungen:
    202
    1. SysProfile:
    1909
    2. SysProfile:
    10701
    16100
    21574
    Steam-ID:
    sysp_diabolus
  3. Kaktus
    Kaktus Wandelnde HDD
    Themenstarter
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845
    Das kann unmöglich stimmen. Nicht mit diesen Taktraten der 8800GTS. Basierend auf dem G80 Kern hätte der Chip eine 25% geringere Shaderleistung als die 8800GT und eine 20% geringere Textureleistung und nur 11% mehr Speicherbandbreite. Die Karte kann unmöglich schneller sein da Crysis extrem viel Shaderleistung erfordert zumal hier nicht mal mit AA oder AF getestet wurde was ein Vorteil für die Speicherbandbreite gewesen wäre.
    Nein, halte den Test für einen Fake. Oder der Tester hat hier Fehler gemacht.
     
  4. RavingRAT
    RavingRAT Computer-Experte
    Registriert seit:
    27. Dezember 2006
    Beiträge:
    756
    Zustimmungen:
    38
    1. SysProfile:
    27027
    2. SysProfile:
    35745
    42962
    21748
    21199
    ich weiß nicht, der Test könnte durchaus stimmen. Aufgrund er schlechten
    Treiber seitens nVidia und Ati für Crysis kann da alles mögliche rauskommen.
    Die Treiber von Ati erzeugen Teils schwere Bildfehler (schwarze Texturen,
    flackern etc) und in den Treibern der Reihe 169.01 bis 169.04 hat nVidia an
    der Qualität in Crysis gedreht um mehr Frames rauszuholen (Nachziehende
    Wasserspiegelung aufgrund heruntergedrehter Refreshtime für den Aufbau
    der Spiegelung, schlechtere Texturen in der Entfernung und fehlende
    Spiegelungen auf manchen Galsoberflächen). Da haben Ati und nVidia noch
    einiges vor sich. Bis da nicht vernünftige finale Treiber draussen sind ist
    jeder dieser Benchmarks so gut wie nichts sagend.


    MfG RavingRAT
     
  5. Kaktus
    Kaktus Wandelnde HDD
    Themenstarter
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845
    Das ist doch Blödsinn. Nach deine Aussage müssten alle Hersteller extra Treiber für jedes Spiel auf den Markt bringen. Dir sollte bewußt sein das die Spielehersteller ihre Spiele auf älteren Treibern programmieren als wir sie heute benutzen. Treten Fehler auf, liegen diese nicht am Treiber sondern am Spiel. Und ein Treiber beeinflusst nicht die Rohleistung einer Karte und die ist bei der 8800GT nun mal deutlich höher als bei einer 112 Unified Shader 8800GTS.
    Ich wüßte auch gerne wo du die Informationen her hast das NVidia an den Treibern gedreht hätte um mehr FPS raus zu holen, das wäre mir ja ganz neu und zudem technisch etwas unverständlich, den das würde dann für alle Spiele gelten nicht nur für Crysis.
     
  6. alex
    alex killed in action
    Registriert seit:
    30. Dezember 2006
    Beiträge:
    8.187
    Zustimmungen:
    282
    1. SysProfile:
    63644
    2. SysProfile:
    18897
    40873
  7. Kaktus
    Kaktus Wandelnde HDD
    Themenstarter
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845
    Vielleicht sollte man einfach mal die Treiberinternen Optimierungen ausschalten ;)
     
  8. Diabolus
    Diabolus Deutscher Meister 2011
    Registriert seit:
    25. Dezember 2006
    Beiträge:
    8.558
    Zustimmungen:
    202
    1. SysProfile:
    1909
    2. SysProfile:
    10701
    16100
    21574
    Steam-ID:
    sysp_diabolus
    #8 Diabolus, 3. November 2007
    Zuletzt bearbeitet: 3. November 2007
  9. RavingRAT
    RavingRAT Computer-Experte
    Registriert seit:
    27. Dezember 2006
    Beiträge:
    756
    Zustimmungen:
    38
    1. SysProfile:
    27027
    2. SysProfile:
    35745
    42962
    21748
    21199
    So HIER mal was zum Thema "ist doch blödsinn das nVidia bei den Treibern
    mogelt". Für alle die auch mit ForceWare 169.04 ohne nVidia gefusche,
    dafür aber mit etwas weniger Frames, Crysis zocken wollen einfach, wie
    im verlinkten Artikel beschrieben, die Crysis.exe umbenennen.


    MfG RavingRAT
     
  10. bernd das brot
    bernd das brot The real RocknRolla
    Registriert seit:
    8. Februar 2007
    Beiträge:
    6.683
    Zustimmungen:
    147
    Name:
    Justin
    1. SysProfile:
    18232
    2. SysProfile:
    18342
    Warum kotzen ? wenn du in 19x12 spielst kannst dir die GT eh knicken da die dort einbricht, natürlich hat sie eine bessere Preis/Leistung aber das ist immer so bei mid-radge Karten also heul nicht sondern freu dich über high-end und bis es ne Karte gibt die besser als die ultra ist wird auch noch ein wenig Zeit vergehen.
     
    #10 bernd das brot, 1. Dezember 2007
  11. Demcy
    Demcy Grünschnabel
    Registriert seit:
    5. Dezember 2007
    Beiträge:
    6
    Zustimmungen:
    0
    1. SysProfile:
    42758

    Der G92 HAT 128 Unified Shader !!!!

    Siehe SIG !
     
Thema:

G92 doch mit 128 Unified Shader?

  1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies.
    Information ausblenden