DX10 vs. DX10.1

Diskutiere und helfe bei DX10 vs. DX10.1 im Bereich User-Neuigkeiten im SysProfile Forum bei einer Lösung; Da einige enttäuscht darüber sind das die kommende 8800GT nur DX10 und nicht wie vermutet DX10.1 beherrscht, wollen wir ein wenig Aufklärungsarbeit... Dieses Thema im Forum "User-Neuigkeiten" wurde erstellt von Kaktus, 27. Oktober 2007.

  1. Kaktus
    Kaktus Wandelnde HDD
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845

    Da einige enttäuscht darüber sind das die kommende 8800GT nur DX10 und nicht wie vermutet DX10.1 beherrscht, wollen wir ein wenig Aufklärungsarbeit leisten was DX10.1 eigentlich bringen wird.
    Um es vorweg zu nehmen, DX10.1 bringt nur wenig neues, dafür aber entscheidendes. Auch soll gesagt sein das WinXP für diesen Artikel, aus Ermangelung der Unterstützung für DX10 und höher, keine Rolle spielt.

    1. Neues WDDM 2.1
    WDDM oder um es richtig aus zuschreiben, Windows Display Driver Model, wird einer der entscheidenden Vorteile von DX10.1 sein. Das bisherig von DX10 genutzte Treiber Model 1.0 hat eine entscheidende Schwäche. Wen ein Grafikprogramm der Grafikkarte eine Order erteilt, also etwas das sie berechnen soll, werden alle weiteren Anfragen komplett gesperrt und in Warteschleife gelegt bis der erste Auftrag beendet ist. Mit dem neuen WDDM 2.1 soll dies nicht mehr der Fall sein. Hier kann ein zweiter oder dritter Auftrag hinterhergeschickt werden welcher die Bereiche nutzt die der erste Auftrag schon durchlaufen hat oder nicht verwendet.
    Grundsätzlich ist WDDM 2.1 Multitasking fähig, was der GPU die Möglichkeit git mehreres gleichzeitig zu tun. Ein Beispiel wäre das Berechnen einer Texture oder Lichtquelle während gleichzeitig die Physik über die Physikshader berechnet wird, was derzeit nicht möglich ist. Mit DX10 müsste die Grafikkarte erst das eine dann das andere tun, was die Performance natürlich ungemein bremst.

    2. 4x Antialiasing mit veränderbaren Subpixel Muster
    Dieses Feature kann man schwer genau bestimmen, da es keine konkreten Informationen zu geben scheint. Zumindest die veränderbaren Subpixel Muster kann man hervorheben. Ist derzeit jede Karte nur in der Lage nach einem bestimmten Muster Antialiasing darzustellen was bei bestimmten Winkeln, trotz hohen AA Einstellungen, zu störenden Treppcheneffekten führt, könnte man genau dies mit veränderbaren Subpixel beheben. Hier wäre die Hardware in der Lage das AA Muster zu ändern und dies zu vermeiden. Inwiefern dies aber mit 4xAA zusammen hängt, kann man derzeit kaum sagen.

    3. 32 bit Gleitkomma Berechnung
    Grade bei HDR Effekten wird derzeit immer noch gerne in 16bit oder 24bit berechnet, da diese Lichteffekte extrem viel Leistung kosten. DX10.1 verlangt nun eine 32bit genaue Berechnung womit die Farbentreue einzelner Pixel deutlich besser werden sollen. Kurz gesagt, 32bit Gleitkomma Berechnung wird der Hardware einiges abverlangen dafür aber einen Schritt näher zum Fotorealismus führen.

    4. Dynamisch adressierbare Cubemap-Arrays
    Ohne es allzu kompliziert zu machen. Durch eine dynamische Adressierung der Cubemaps, kann man deutlich schönere Oberflächen auf Objekten erschaffen die zudem näher an realistische Grafik heran reicht.

    5. Rendern in blockkomprimierte Framebuffer
    Dies ist ein weiterer enormer Performance Vorteil für DX10.1. Wen eine GPU ein Objekt mit belegten Texturen in den Grafikspeicher legt, wird diese komprimiert damit sie nicht zu viel Platz verbraucht. Wird dieses Objekt aber wieder verändert, musste es quasi entpackt, bearbeitet und wieder gepackt werden. Bei DX10.1 ist aber die Hardware in der Lage direkt die gepackte Datei zu bearbeiten, so das zwei Arbeitsschritte wegfallen, also das erstmalige Entpacken und wieder das Packen. Das belastet die Speicherbandbreite deutlich weniger und sorgt für einen deutlichen Geschwindigkeitsvorteil gegenüber DX10.

    6. DX10.1 und der Sound
    DX10.1 und auch die Vorgänger, sind nicht nur Grafikschnittstellen sondern, mit DirectSound, auch eine Schnittstelle für die Soundkarte. Hier wird DX10.1 DirectSound durch XAudio2 ersetzt, was derzeit schon die XBox 360 verwendet. Damit wären alle Soundkarten in der Lage EAX ähnliche Effekte darzustellen was grade Creative sauer aufstößt, da dies das Aus für EAX wäre. Auch ein Manko ist, das XAudio2 grundsätzlich die CPU zur Berechnung von Effekten herhalten muss. Auch hier sieht Creative rot, den Creative wirbt grade damit, das ihre Soundchips sämtliche Effekte selbst berechnen könnten um so für mehr fps in Spielen sorgen. Bedenkt man aber das Zeitalter von Mehrkern CPUs, wird dieses Argument so oder so hinfällig.

    Wann braucht man DX10.1 Hardware?
    Hier sollte man sich einiges vor Augen führen. Einmal existiert DX10 schon seid beinahe 1 Jahr mit passender Hardware, und es gibt derzeit noch nicht ein einziges echtes DX10 Spiel. Warum nicht? Ganz einfach. Der größte Teil der Anwender besitzt noch WinXP mit DX9 Hardware. Würden Spielehersteller nun reine DX10 Spiele produzieren, wäre das Produkt ein reiner Ladenhüter da es kaum jemand wirklich spielen könnte. Also werden derzeit noch alle Spiele mit DX9 programmiert und DX10 Effekte oder Berechnungen nur dazugepackt um das Spiel besser aussehen zu lassen. Der Übergang von DX9 zu DX10 ist also noch lange nicht vollzogen. Auch sämtliche, bisher bekannten, kommenden Spiele sind alle auf DX9 programmiert und mit DX10 verschönert. Selbst Crysis ist kein echtes DX10 Spiel, bietet aber eine sehenswertere Optik mit DX10. Sicher setzt sich DX10 im nächsten Jahr durch und 2009 werden wir vielleicht wirklich eine Handvoll echter DX10 Titel zu bestaunen haben, aber bis dahin ist noch viel Zeit. Wozu also der Trubel um DX10.1? Passende Hardware kommt demnächst von Seitens ATI, was diese auch in der Werbung hoch anprangern werden, aber einen Nutzen hat derzeit niemand.
    Sicher, DX10.1 beherbergt ein paar höchst interessante Techniken, aber selbst die ersten DX10.1 Titel werden abwärts kompatibel zu DX9 sein, sofern doch noch ein DX10.1 Titel im nächsten Jahr erscheinen soll. Eventuell werden wir hier und da einen schöneren Effekt sehen, diese werden aber sehr marginal sein und keine Rolle spielen. Grundlegend kann man davon ausgehen das DX10.1 nicht vor Ende 2009 eine größere Rolle spielen wird, zumal sich einige Spielentwickler nicht grade positiv zu DX10.1 geäußert haben, grade aufgrund der mangelnden Hardware und Akzeptants von Vista seitens der Endverbraucher.

    Fazit
    DX10.1 bietet viel für niemanden. Keiner kann es verwenden, niemand will es programmieren, die meisten haben nicht mal DX10 fähige Hardware. Reine Zukunftsmusik, wen auch sehr ansprechende, aber derzeit eine Sache über die man sich absolut keine Gedanken machen braucht.


    Eigene Sache
    Da es sehr wenig Infos über die einzelnen Punkte gibt und es auch nicht grade einfach für einen Nichtprogrammierer ist hier einen Durchblick zu bekommen, bitte ich um Entschuldigung falls mir Fehler bei der Erklärung unterlaufen sind.
     
    #1 Kaktus, 27. Oktober 2007
    Zuletzt bearbeitet: 27. Oktober 2007
    2 Person(en) gefällt das.
  2. fanrpg
    fanrpg Computer-Guru
    Registriert seit:
    27. Juli 2007
    Beiträge:
    161
    Zustimmungen:
    16
    1. SysProfile:
    30134

    Dabei stellt sich mir die Frage, wie wollen die kompromierte Daten ohne entpacken überhaupt verarbeiten?

    Nehmen wir mal ein Textdokument.. komprimieren das als ZIP.
    Kann man nun in dem ZIP Archiv den Inhalt wiederfinden und bearbeiten? NEIN! (Je nach Speicherungsformat doch, aber ist jetzt erstmal unwichtig)
    Also müsste man das erst entpacken um zu bearbeiten, richtig oder?
    Also wie wollen die dann komprimierte Daten direkt verarbeiten sollen?
    Selbst wenn man Teilstücke finden würde und verändern würde, würde es jegliche Checksummen durcheinander bringen und ein spätere Entpackung zur Ausgabe - fehlschlagen. Natürlich könnte man dies umgehen wenn man einfach die Checksummen ignorieren würde. Aber hat dies nicht den Nachteil falls irgendwas auf dem Weg zum RAM zerstört wird, das es gar nicht mehr auffällt? Im Prinzip würde dann die Grafikkarte ja Grafikfehler produzieren.

    Archiv-Packer arbeiten auch nicht anders. Wenn man zu einem bestehenden Archiv eine Datei hinzufügen, entpackt der Packer erstmal im Hintergrund das Archiv, fügt die neue Datei hinzu und packt erneut und überschreibt dann das alte Archiv.
    Schon alleine weil beim modifizieren so einiges schief gehen kann.. wirklich zuverlässig funktioniert das nicht, je nach Inputdaten kann ein Archiv dann auch seine gültige Checksumme verlieren und ist somit nutzlos.

    Also warum sollte das auf einmal bei Grafikkarten funktionieren wenn das nicht mal Archiv-Packer richtig können?

    Natürlich sind zerstörte Daten durch falsche Übertragungen äusserst selten durch die kurzen Leitungswege.. aber möglich und können sich beim OCen dann auswirken auf mehr Bildfehler (wie war das? Mehr Leistung weniger Signalstärke und durch keinerlei Integritätsprüfung würden die dann als Bildfehler durchgehen).

    Natürlich wäre auch ein "Real-Time" entpacken möglich, aber ich denke damit wären selbst die übernächsten GPU's schon stark ausgelastet, aber es heisst ja ohne Entpacken, also fällt der Punkt ja schonmal im Prinzip weg, auch wenn es nur noch ein Arbeitsschritt wäre.
     
  3. Kaktus
    Kaktus Wandelnde HDD
    Themenstarter
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845
    Ah.. vorsicht, vergleich nicht das Packen von Dateien mit dem packen von Texturen oder Koordinaten, das sind zwei Grundverschiedene Dinge. Während du bei einer Datei ALLE Informationen packen musst, kann man eine Textur dahingehend "packen" das man sie in einer kleineren Auflösung hinterlegt als die welche eigentlich verwendet werden soll.
    Das Packen von Dateien läuft völlig anders ab als Compressionsverfahren bei Grafikkarten.
     
  4. fanrpg
    fanrpg Computer-Guru
    Registriert seit:
    27. Juli 2007
    Beiträge:
    161
    Zustimmungen:
    16
    1. SysProfile:
    30134
    Was ja wieder ein herausrechnen wäre und somit auch ein von Archiven genutzt Methode.. da bestehen schon genug Parallelen, das mit dem ZIP war nur ein Beispiel.

    Ich beschäftige micht gezwungernemaßen schon ein bisschen mit der 3D Programmierung (zwar hauptsächlich OpenGL.. aber sollte ja mit D3D nicht gross anders sein und im Allgemeinen sowieso mit Programmierung) aber hauptsächlich ist es so: Wenn man was komprimiert und im komprimierten Zustand bearbeitet ändert man die Checksumme.. wenn man später wieder entpacken möchte und können Fehler nicht mehr dadurch erkannt werden.
    Gehen wir mal davon aus es soll ein punkt mit der nummer 239 gespeichert werden, durch einen Fehler wird aber nur 23 gespeichert.. durch die spätere Checksumme kann man den Fehler erkennen und entsprechend neu berechnen lassen (macht zwar heutzutage keine GPU aber vllt. kommen die mal auf so ne geniale Idee, würde den oc'lern schon so einiges erleichtern solange kein ganzausfall besteht, ja nicht mal Arbeitsspeicher ohne Fehlerkorrektur macht sowas wirklich [wenn nur softwareseitig] aber dafür gibts ja ECC).. während wenn man es komprimiert berechnet wird.. ignoriert er diesen Fehler und gibt dann dieses mit Bildfehler aus.

    Natürlich lässt sich auch eine Checksumme von etwas komprimierten erstellen.. aber wäre dies wieder eine Mehrarbeit durch die GPU die dementsprechend langsamer wäre.

    Also ich gehe im Prinzip davon aus das es schom die Geschwindigkeit steigert, aber mit der Gefahr das mehr Bildfehler durch Falschübertragungen zustande kommen und damit das OC Potenzial arg limitieren.
    Natürlich hängt dies wieder von üblichen Verdächtigen mit ab (Chipsatz, ..) aber sollte dennoch etwas einschränken.
     
  5. Kaktus
    Kaktus Wandelnde HDD
    Themenstarter
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845
    Da ich ehrlich gesagt nicht so tief in der Materie drinnen stecke um wirklich darüber zu Disskutieren, muss ich passen. Aber eines weiß ich, eine Checksumme gibt es beim Compressionsverfahren bei einer Grafikkarte nicht. Das funktioniert völlig anders und du solltest dich durch das Wort "Packen" nicht irritieren lassen und glauben das es auch nur im entferntesten eine Ähnlichkeit mit dem Packen einer Datei hat.
     
  6. Tymant
    Tymant Hardware-Wissenschaftler
    Registriert seit:
    11. September 2007
    Beiträge:
    534
    Zustimmungen:
    6
    Name:
    Dirk O.
    1. SysProfile:
    39153
    verdammt.... was seid denn ihr für freaks...

    das is ja mal fachchinesisch und ihr redet als ob das deutsch wär....
    wow :great::great:
     
  7. Kaktus
    Kaktus Wandelnde HDD
    Themenstarter
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845
    Wen du fragen hast, stell sie ruhig. Dafür ist das Forum da, zum lernen und informieren ;) Soweit ich kann, werde ich dir alles erklären. Nur weiß ich auch nicht alles :cool:
     
  8. fanrpg
    fanrpg Computer-Guru
    Registriert seit:
    27. Juli 2007
    Beiträge:
    161
    Zustimmungen:
    16
    1. SysProfile:
    30134
    btw. ich habe mal meinen chef gefragt .. was der dazu sagt.

    Und er hat gesagt das ich theoretisch recht habe, praktisch es wieder ganz anders aussieht. Er meint das meine Bildfehler die ich meine durchaus auftreten können (allerdings extremst selten) und wenn dann wäre überhaupt nur 1px gestört und das auch nur 1 Bild (also rechnet das mal auf 60 Bilder / Sec um) und das durch Architekturänderungen auch ganz unterbunden werden könne, nur da gibt er mir recht, heutige Architekturen (die das sowieso nicht unterstützen also auch keine Bildfehler generieren) könnten diesen 1px verhauen (von dem man so oder so nix merken würde, würde ich mal behaupten, auch auf einem standbild nicht).

    Und was er noch angemerkt hat, er denkt allzu Leistungssteigern dürfte das nicht sein (höchstens 10%).
     
  9. Kaktus
    Kaktus Wandelnde HDD
    Themenstarter
    Registriert seit:
    10. Januar 2007
    Beiträge:
    2.621
    Zustimmungen:
    64
    1. SysProfile:
    19845

    Nun ja..... 1px ist ja extrem wenig bis uninteressant. Das dürfte überhaupt nicht auffallen ab 25fps, denke ich mal. Ich hab auch keine Ahnung wie genau das technisch aussehen soll.
    Naja, ich halte 10% schon für beachtlich, da es ja nur ein Architektureschritt ist der eher am Rande ausfällt. Bedenke das z.B. einer 1950GT und einer X1950pro keine 10 Unterschied liegen, ebenso ist der Unterschied zwischen einer 7950GT und einer 7900GT keine 10% groß (im durchschnitt). Nicht mal zwischen einer 8800GTX und einer 8800Ultra liegen 10% Unterschied. Das ist schon einiges, dafür das es nur eine der Neuerungen ist. Die Multitaskingfähigkeit bringt vielleicht auch nur 5-10%. Aber im Grunde wäre das schon eine Leistungssteigerung von 15-20% gegenüber einer ansonsten identischen GPU. Bedenkt man das, ist es ziemlich beachtlich.
     
Thema:

DX10 vs. DX10.1

  1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies.
    Information ausblenden