Was haltet ihr von dem R600

Diskutiere und helfe bei Was haltet ihr von dem R600 im Bereich Grafikkarten im SysProfile Forum bei einer Lösung; gibts da eigentlich adapter, die aus dem 6er ein 8er kabel machen? oder nen kabel fuer das liberty, was man dann hinten dranklemmen kann? weiss ich... Dieses Thema im Forum "Grafikkarten" wurde erstellt von zocker28, 17. Juli 2007.

  1. regenrohr
    regenrohr Alter Hase
    Registriert seit:
    11. März 2007
    Beiträge:
    2.004
    Zustimmungen:
    36
    Name:
    Sören Torben Horst Erich
    1. SysProfile:
    26602
    2. SysProfile:
    33873
    50485

    weiss ich nicht, habe bisher noch keins gefunen beim suchen...
     
    #16 regenrohr, 18. Juli 2007
  2. zocker28
    zocker28 BIOS-Schreiber
    Themenstarter
    Registriert seit:
    23. März 2007
    Beiträge:
    662
    Zustimmungen:
    21
    1. SysProfile:
    117046

    Jup kann man kaufen, google mal nach 6+2 Pin PCIe Adapter" oder sowas:)

    da:
    http://media-planet.org/25,28,28,180,437.page

    da:
    Email von Enermax und Corsair:
    Die Kabel haben wir in Stückzahlen hier in Deutschlöand vorrätig. Bitte schreibt eine Email (kurzes Anschreiben mit Adresse und einer Rechnungskopie) und wir werden Euch diese kostenfrei in einem gefütterten Din A5 Umschlag per Post zukommen lassen.

    Es handelt sich um ein PCIe Y-Kabel, welches an den beiden freiligenden Enden dann 2x PCIe 6-fach Stecker hat, wovon einer 2 weitere Pins hat, um aus ihm einen 8-fach zu machen
     
    #17 zocker28, 18. Juli 2007
    Zuletzt bearbeitet: 18. Juli 2007
  3. Diabolus
    Diabolus Deutscher Meister 2011
    Registriert seit:
    25. Dezember 2006
    Beiträge:
    8.558
    Zustimmungen:
    202
    1. SysProfile:
    1909
    2. SysProfile:
    10701
    16100
    21574
    Steam-ID:
    sysp_diabolus
    hm na das denn ich mal guten support ;)

    sollte das bei mir noetig werden kann ich das ja nutzen ^^
     
  4. Kaktus
    Kaktus Wandelnde HDD
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845
    Na da werde ich auch mal meinen Senf los..... da kann ich einfach nicht anders. :cool:

    Um es vorweg zu nehmen, die Karte ist in meinen Augen kein guter Wurf geworden. Hier die Gründe.

    1. Stromverbrauch
    In der heutigen Zeit ist es ein graus das eine Karte sooooo viel Saft braucht. Im Regelfall bin ich da ja nicht so empfindlich, ob 20W mehr oder weniger juckt eigentlich niemanden. Aber hier sind es ja schon 60W mehr als bei einer 8800GTX die zudem noch schneller ist mit AA und AF, worauf ja keiner bei so einer Karte verzichten will.

    2. Lüfter
    Ich weis nicht ob sie es mittlerweile auf die Reihe bekommen haben, aber die ersten Karten hatten ein Problem mit dem Lüfter. Unter 2D kam es nicht selten vor das der Lüfter immer wieder mal aufdreht und dann wieder ruhig ist.. aber ein ständiges auf und ab würde mich in den Wahnsinn treiben. Aber wie gesagt, ich weiss nicht wie es bei den letzten Modellen ist.

    3. Leistung
    Ja ja.... das leidige Thema bei der 2900XT. Ohne AA und AF der 8800GTX nicht selten überlegen, aber wer spielt schon ohne das? :rolleyes: Sobald AA und AF zugeschaltet werden, verliert sie teilweise 50% Leistung. Wen wundert es wen die Karte nur 16 Pixelpipes hat? Da helfen theoretische 320 Shader Units überhaupt nicht, den bei der Berechnung von AA und AF muss ein Pixel bis zu 4 mal durch eine Pixelpipe, was bei dieser Karte ein extremer Flaschenhals ist, da helfen auch keine besseren Treiber, hier bietet die Hardware einfach nicht mehr.
    Im übrigen hat die 2900XT keine 320 Shaderunits, das ist so nicht ganz richtig. Es sind 64 Units die 5 Befehle gleichzeitig abarbeiten können,währen die G80 Reihe hier wirklich 128 Units hat, die aber wiederum immer nur ein Befehl abarbeiten. Das Problem ist das man bei der ATi niemals alle Units voll belasten kann, das wäre ein Programierwunder. Es ist selten das ein Pipe hier mehr als 1-3 Befehle abarbeiten muss. Von daher kann es passieren das hier nur 64 units wirklich genutzt werden können, was heute noch sehr oft der Fall ist, mir wäre auf Anhieb keine Engine bekannt die hier mehr als 2 Befehle pro Pipe verarbeiten lässt. Daher schwankt die Karte in der Leistung auch recht gewaltig. Es gibt noch mehrere Details die derzeit Leistung kosten. Wie es kommenden Spielen aussieht, kann man kaum sagen. Dürfte sich aber zu Gunsten der ATI bessern, also das man so programmiert das mehr Befehle pro Pipe verarbeitet werden. Allerdings bleiben die Pixelunits... die werden immer den Flaschenhals darstellen. Hätte ATI hier der Karte 32 Units spendiert, würde eine 8800GTX wohl kaum noch Land sehen.... sehr schade.

    4. Bildqualität
    Ich konnte mir einen Vergleich ansehen bei einem Test, und ich muss leider sagen das ATi hier viel Land verloren hat. Grade im AF Bereich sehen die Texturen sehr verwaschen aus, während beim G80 die Texturen extrem scharf dargestellt sind. Desto höher man das AF stellt, desto schlimmer wird es. Gegenüber der AF Darstellung meiner X1900GT, welche deutlich besseres AF darstellt als die 7XXX Reihe, sieht die 2900XT in meinen Augen kein Land. Das hat was mit der Art und Weise der Berechnung zu tun, kann ich aber nur schwer erklären. Kurz... die Rasterung bei AF der 2900XT ist schlichtweg zu Symetrisch, während der G80 hier sehr unsysmetrisch Rendert, was ein deutlich besseres Bild ergibt.
    AA ist auch so eine Sache. Mag aber noch an den Treibern liegen. Während 2x und 4x noch sehr gut aussehen, so wie man erwartet, gewinnt der G80 bei höheren Einstellungen, aber das sieht man wirklich nur wen man sehr genau hinsieht.

    5.Übertakten
    Man kann die Karte sehr gut übertakten, zumindest findet man oft gute Ergebnisse, und die wenigsten verwenden 2 6-Pin Stecker, es scheint also auch so zu gehen. Allerdings reicht die Leistung dann immer noch nicht in keinster weise an eine 8800GTX heran (mit AA und AF) Jedoch kann man so eine 8800GTS 640MB doch sehr gut in Schach halten.

    Mein Fazit:
    Ich denke ATI hat hier ein paar Dinge verpennt. Aus einem anderen Forum (3DCenter) wo ziemlich viele Hardwareredakteure herumhängen (PCGH, CT) kann man teilweise Vermutungen und Gerüchte lesen das der R600 noch gar nicht wirklich fertig war, ATI aber die Karte unbedingt raus haben wollte. Was dran ist... keine Ahnung. Gerüchte halt. Aber genau diesen Eindruck macht die Karte auf mich "unfertig"!
    Ich hoffe das der kommende Chip das besser macht, vor allem ist es zwingend Notwendig die Pixelpipes zu erhöhen, sonst hat jede andere Verbesserung kaum Sinn. Den das ist der größte Flaschenhals der Karte.
    Und ich hoffe das der Stromverbrauch mit der neuen Fertigung verringert werden kann. Dann wäre die Karte extrem gut.
    So aber.... so sehr ich auch ATI Fan bin, und wahrscheinlich würde ich sie mir trotzdem kaufen .. fragt nicht warum.. kaufe oft das was andere blöd finden :o... würde ich sie derzeit einfach nicht guten Herzens empfehlen können.
     
  5. bernd das brot
    bernd das brot The real RocknRolla
    Registriert seit:
    8. Februar 2007
    Beiträge:
    6.683
    Zustimmungen:
    147
    Name:
    Justin
    1. SysProfile:
    18232
    2. SysProfile:
    18342
    naja da könnte ja der r680 in ein ganz anderes Licht fallen so ist er dann kein aufgebohrter r600 mehr sondern einfach nur der r600 so wie er schon vor einem halben Jahr hätte sein sollen
     
    #20 bernd das brot, 19. Juli 2007
  6. Kaktus
    Kaktus Wandelnde HDD
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845
    Das hoffe ich. Finde es mittlerweile etwas langweilig das alle nur 8800 Karten haben und kaum jemand zur ATI greift :ugly: Das macht mich echt traurig. Den ATI hat sehr sehr viel geleistet in den letzten 12 Jahren der 3D Karten Geschichte. Wäre schade wen sie jetzt den Anschluss verlieren.
     
  7. zocker28
    zocker28 BIOS-Schreiber
    Themenstarter
    Registriert seit:
    23. März 2007
    Beiträge:
    662
    Zustimmungen:
    21
    1. SysProfile:
    117046
    So Kaktus, dann werd ich mal deine Aussagen so weit wie es geht;)


    1.

    im 2D verbracuht die Karte viel weniger als ne GTS, oder ockst du 24 h am Tag?
    Und ob nun 30 Watt mehr oder weniger ist völlig egal, das sind im Jahr nur 5 € mehr.
    Und wer nach sowas fragt wie Stromverbrauch der Lautstärke, der sollte sich keine Highend Hardware kaufen (was der R600 nicht ist), aber die 8800 brauch sich da nicht aufregen, den Lüfter auf 100% und e ist auch unerträglich.

    2.
    Das Lüfter Problem ist seit dem Cat. 7.5 weg, was hast du für Benches gesehen mit nem Beta Treiber?

    3.

    ich weiss nich wo du gelesen hast das der R600 noch Pixelpielines hat, der R600 ist eine Unifet Shader GPU, wo es weder Pixel oder Vertexshader gibt, das nennt sich Skaler Prozessor Unit und nicht Pixelpipelines.
    Im R600 Arbeiten 320 Stream-Prozessoren, wobei die Zahl nicht nur stur mit den 128 Einheiten bei NVIDIA verglichen werden kann und darf:Architektonisch gesehen besitzt der R600 64 Shader Einheiten, die bei voller Auslastung je für Berechnungen pro Taktzyklus durchführen kann,was nach Multiplikation zu den beschriebenen 320 Strea,-Prozessoren führt (5x64).
    Der G80 verarbeitet pro Taktzyklusnur einen bzw. maximal zwei Rechenschritte, wobei die Taktfrequenz der Shader deutlich höher liegt.
    Eine ständige Vollauslastung der R600 Shader Einheiten würde in eine nahezu vernichtenden Leistung bringen gegenüber dem G80, jedoch müssen vom treiber die Anfragen und den Prozessoren vorgeschalteten werden, und genau hier liegt der Flaschenhals der 2900XT der sie noch gewaltig ausbremst.
    Dazu kommt noch das der R600 VEC5 hat und ein 512 BIT SI, der G80 nur VEC4 und 384 BIT SI.
    Also Technisch gesehen, ist der G80 dem R600 unterlegen, nur was AMD/ATI mit dem Treiber anstelltum die Power auch richtig zu nutzen werden wir noch sehen.

    4.
    AF sieht genauso aus wie bei dem G80, da ist KEIN unterschied zu erkennen, auch nicht für ein geschultes Auge.
    Und 4xAA sieht auf dem R600 auch besser aus wie auf meiner "alten" GTS
    Ich stelle dazu unten ein Bild von TDU rein wo 4xAA und 16xAF an ist, User mit nem G80 können gern auch ein Bild dagegen halten und du wirst sehen das da weder beim G80 nich beim R600 etwas verwaschen ist:rolleyes: .

    5.
    Ich will ja nix gegen die User vom 3DC sagen, es gibt schon paar fähige Männer (und frauen dort), aber im Hardwareluxx bist du mit solchen Informationen denk ich besser aufgehoben.
    Und zeig mir bitte den Thread im 3DC wo AF schlecht ist beim R600.

    So und zum Abschluss, heute früh kam der cat .7.7 Beta, AA einbrüche sind fast weg, und 16xAF kostet dich nur ca.5 FPS

    TDU Screen: sry das ich es so gross hier rein stelle, aber das muss einfach mal sein.

    Zeig mir bitte wo da etwas verwaschen ist, man kann so weit wie man gucken kann nix von vewaschen sehen;)

    (1920x1080 4xAA +16xAF ) Bild bissel verkleinerr auf 1680x1050, das JPG Format zieht viel Quallität aus dem Bild, aber da was ich zeigen will erkennt man.

    http://img358.imageshack.us/img358/7716/testdriveunlimited20070gu8.jpg
    Shot at 2007-07-18
     
    #22 zocker28, 19. Juli 2007
    Zuletzt von einem Moderator bearbeitet: 19. Juli 2007
  8. hot_play
    hot_play Vorsicht bissig
    Registriert seit:
    17. Mai 2007
    Beiträge:
    2.744
    Zustimmungen:
    61
    Name:
    Bernd
    1. SysProfile:
    46907
    @zocker28
    Das kann man so nicht sagen, das technisch gesehen der R600 besser ist als der G80. Denn das Flagschiff von ATI die 2900XT kommt nun mal in eigentlich allen Test's nicht an die 8800GTS ran, ganz zu schweigen von der 8800GTX.
    Und wie jetzt der R600 und keine Pixel oder Vertexshader?
    Irgend wie komisch, in den Technischen Daten kommen diese Pixel und Vertexshader vor, siehe hier: http://ati.amd.com/de/products/radeonhd2900/specs.html

    Edit//: Noch was zum Stromverbrauch.
    Mit Sicherheit hat die ATI HD 2900XT nicht weniger Stromverbrauch als die 8800GTS, denn die ATI HD 2900XT hat fast den gleichen Verbrauch wie die 8800GTX. Hier zum nachlesen: http://www.3dcenter.org/artikel/radeon_hd_2900_xt/
     
    #23 hot_play, 19. Juli 2007
    Zuletzt bearbeitet: 19. Juli 2007
  9. Kaktus
    Kaktus Wandelnde HDD
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845
    @zocker28
    Dann zerleg ich mal dein Kommentar.

    1.Stromverbrauch.
    Unter Idle verbraucht die 2900XT immer noch mehr als eine 8800GTX.

    2. Lüfter
    Wir hatten den Test mit dem 7.5 gemacht und hatte hier immer noch das Problem.

    3. Leistung
    Ich glaube du weisst gar nicht was Unfinied Shader sind. Das hat nichts mit Pixelpipes (TMUs) zu tun, sondern einfach damit das die Shadereinheiten zusammengelegt wurden un nun frei programmierbar sind. Also Vertex Shader, Pixelshader und das man auch Physikalische Effekte damit berechnen lassen kann. Ein Pixel rendert das nicht. Kannst dich ja mal hier schlau machen. Zumindest was die Anzahl Rops und TMUs betrifft. Den scheinbar fehlt dir da was an wissen.
    WENN die Units voll ausgelastet werden könnten, was völlig unmöglich ist, hätte der R600 eine extreme Rechenleistung, allerdings ist das unmöglich. Die Programmierung der Engine müsste speziell drauf ausgelegt sein, ist sie aber derzeit in keinem Spiel. Und selbst wen... wie gesagt.. zu wenig TMUs (um mal den richtigen Ausdruck zu verwenden). Gibt dazu auch einen schönen Artikel in der PCGH.
    Technisch gesehen ist der R600 wirklich überlegen, leider fehlt es trotzdem an TMUs um das auch umsetzen zu können. Also eine Fehlentwicklung. Fachleute sprechen mittlerweile von Transistoren Verschwendung.

    4. Optik
    Das ist Ansichtssache. Ich sehe teilweise sehr deutliche Unterschiede. Vielleicht willst du sie nur nicht sehen. Das Problem ist, das Bilder wenig darüber Aussagen wie das Bild wirklich aussieht. Ich finde die Bildqualität des R600 grundlegend schlechter als die des G80 oder des R580. Wen du anderer Meinung bist, bitte, ändert aber nichts an meiner Erfahrung und meiner Meinung.

    5. LoL
    Sorry... aber Hardwareluxx sind mir zu viele Schwätzer unterwegs. Das ist ja schlimmer wie auf CB. Zu viele Kinder. Nicht mein Fall. Da geh ich lieber in ein Forum wo ich noch was lernen kann und Hardwareluxx bietet mir da keine gute Fläche für.

    6. Treiber
    Da warte ich lieber auf neue Benchmarks von einer bekannten Zeitschrift oder eine bekannten Seite. Sich hier hin zu stellen und zu sagen das mit dem 7.7 alles gut ist, ist mir einfach zu wenig und zu unglaubwürdig. ICh hab auch schon Leute gehört die sagen mit dem 7.6 wäre alles gut und davor mit dem 7.5. Fakt war, das es bisher keinerlei ernsthafte Verbesserung gab.

    @hot_play
    Es ist schon richtig das der R600 keine seperaten Vertex und Pixelshader hat. Deshalb heist es ja Unifieded Shader. Die 320 Shader Units können als Vertex, Pixel oder Geometrieshader verwendet werden, sind also nicht mehr vestgelegt für eine Arbeit sondern können für jede Aufgabe verwendet werden.
    Im übrigen hat zocker28 die Pixelshader mit Pixelunits verwechselt. Das sind zwei völlig verschiedene Dinge.
     
    #24 Kaktus, 19. Juli 2007
    Zuletzt bearbeitet: 19. Juli 2007
  10. zocker28
    zocker28 BIOS-Schreiber
    Themenstarter
    Registriert seit:
    23. März 2007
    Beiträge:
    662
    Zustimmungen:
    21
    1. SysProfile:
    117046
    Jagut hab mich bissel verlesen und es nicht richtig verstanden ok seh ich ein:)

    Aber das mit dem Stromverbauch und der Bildquallität wiederspreche ich trotzdem, runter takten auf 200/200 und mit dem ATI Too weniger Spannung komm ich bei weitem unter den G80.
    Ich rede von normalen AA also nicht mit nhancer 16xS oder sowas, da ist der G80 besser das ist klar, aber dafür unspielbar.
    Aber da kann man sich ewig streiten, ich find die 2900XT besser als den G80, und in 1920x1080 bruah cih sowieso kein AA ein also kann ich auch verzichten drauf:cool:
     
  11. Kaktus
    Kaktus Wandelnde HDD
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845
    Gut, wen du mit einem speziellen Tool runter taktest sieht das wieder anders aus mit dem Stromverbrauch.... allerdings kann man da wieder dagegenhalten das gleiche mit dem G80 zu machen, da würde die ATI wieder alt aussehen. Kann man drehen und wenden wie man will, sie verbraucht einfach mehr als der G80.

    Joar.. über Bildqualität kann man sich immer streiten. Da geb ich dir recht. Jeder hat da ein bisschen seinen eigenen Geschmack. Ich für meinen Teil finde ab 8xAA und 8xAF sieht die ATI einfach deutlich schlechter aus.

    Achja.... zu hohen Auflösungen. Leider ist es hier ein kleines Fehldenken das hohe Auflösungen einen besseren Effekt bieten als hohes AA. Hier gibts mal einen sehr langen und ausführlichen Artikel dazu. Mal interessant zu lesen wer sich für sowas interessiert.
    Nur so als Beispiel. Bei einer Auflösung von 1024x768 mit 4xAA, werden Kanten so fein dargestellt wie in einer Auflösung von 4096x3072.
     
  12. Kaktus
    Kaktus Wandelnde HDD
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845
    Oh weh.... da wird sich aber ATI wieder schwer tun mit dem R650, welcher hauptsächlich bei den TMUs aufgebohrt werden soll, da dies die absolute Schwachstelle darstellt. Leider soll diese bisherigen Gerüchten zufolge von lächerlichen 16 auf 32 angehoben werden. Damit würde sie sehr nahe an eine Ultra herankommen, wahrscheinlich sogar diese überholen, aber der neuen Karte hätte sie wieder rein gar nichts entgegenzusetzen.... *warum gibts kein heulendes Smilie?*.... Dabei mag ich ATI doch so.... sind so schön rot ^^:ugly:

    Aber im ernst.... wen da wirklich nicht mehr beim R650 passieren sollte (mal abgesehen von vielleicht noch ein bisschen mehr Takt) siehts verdammt düster aus.
     
  13. zocker28
    zocker28 BIOS-Schreiber
    Themenstarter
    Registriert seit:
    23. März 2007
    Beiträge:
    662
    Zustimmungen:
    21
    1. SysProfile:
    117046
    Das will ich erstma sehen was die 9800 bringen soll, vorher brauch man garnicht drüber zu labbern.
    Was für gerüchte waren den über den R600 da, zur hälfte hat es gestimmt was herum ging.

    Und du darfst nicht vergessen, der Highendmarkt ist sehr klein, nur die Freaks kaufen sich karten für 500 €+ da ist egal ob NV odr ATI, und in der mittelklasse hat NV nix zu lachen weil die 8600GT totaler crap ist.
     
  14. Kaktus
    Kaktus Wandelnde HDD
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845
    Auch wen ich ATI Fan bin, aber bisher haben die Gerüchte bei NV meist fast komplett gestimmt, während bei ATi die Flunkerei seid Jahren gang und gebe ist.

    Im übrigen ist die 2600 Reihe auch totaler Nonsens. ATi hat derzeit nur mit der X1950pro viel zu lachen, allerdings neigt sich diese Karte auch dem Ende der Spieletauglichkeit zu. Die günstigen X1950XT Karten haben immer noch einen lauten Lüfter und die 8800GTS 320MB Karten nähern sich immer mehr der 200€ Marke, auch wen es bis dahin noch ein Stückchen ist.
     
  15. zocker28
    zocker28 BIOS-Schreiber
    Themenstarter
    Registriert seit:
    23. März 2007
    Beiträge:
    662
    Zustimmungen:
    21
    1. SysProfile:
    117046
    naja der G80 hat halt viele Anhänger gefunden und ATI hat ein wenig verkackt das sie so spät die neuen Karten gebracht haben:(
    Aber trotzdem kann die 8600 gegen die 2600 XT einpacken, und die 8800GTS 640MB kann gegen die HD 2900XT 512 einpacken so war es geplant und so ist es auch gekommen.
    Aber trotzdem ist der G80 ne starke Karte da kann man nix gegen sagen, aber naja, ich gönne es Nvidia mal, die haben bisher nur Müll gebracht:

    FX5600>> lol
    FX 5950>> nochmehr lol
    7800 GTX>> ging so, aber Bild Qualli kacke
    7900GTX>> wird von der x1900XTX weg geblasen, und Bild Qualli kacke
    8600GT>> omfg
    8800GTS 320>> zu wenig VRAM

    alles was über der 320 MB Graka ist kann man noch anbieten.
     
  16. Error:Failed connect to localhost:9200; Connection refused
Thema:

Was haltet ihr von dem R600

  1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies.
    Information ausblenden