Nvidia Grafikkarten...welche ist denn nu die beste?

  • man man man ihr habt euch ja richtig lieb :mua


    b2T :


    ich hab eine GT520 von Asus rund 30 Watt im peak. die GF 9300 vom Zotac board hatte nicht mehr genun saft für xbmc menüs und HD wiedergabe. fullscreen ohne xbmc menüs tuts die aber immernoch super.


    hat jmd vllt ein paar kurze infos zu den benchmarkgeschichten die GK betreffend ? am besten über terminal dann brauch ich an den vdr nicht wieder maus keyvord und co klemmen ;D

  • Ansonsten ist dies Format umschalten äußerst hässlich und man bekommt auf diesen Weg kein hochauflösendes OSD.


    Jetzt wo Du das sagst fällt es mir wie Schuppen aus den Haaren:
    Das ist nämlich genau der Knackpunkt gewesen, warum ich die Reel-eHD aus dem VDR genommen habe: Es gibt da nur ein PAL-OSD mit maximal 720x576 Pixel. :]


    Das war jetzt genug OT, zurück zu NVIDIA und VDPAU! ;D
    Paulaner

  • Ich habe aus Neugier, die 30 Bit Farbtiefe mit der GT430 getestet.
    Die 1920x1080 sind damit nicht möglich, funktioniert hier also nicht.
    Die 30 Bit werden schon unterstützt, aber halt nicht mit dieser Auflösung.


    Wie aus den Erklärungen hervorgeht bringt die 30 Bit Farbtiefe sowieso keinen Mehrwert.

    VDR 1 (SD) : ASRock A330 GC, 1 GB RAM, TT- FF Karte rev. 2.3, 7'' TFT, Lirc X10 - Selbstbau Gehäuse - Suse 11.3 (64) vdr-1.7.10 diverse Plugins
    VDR 2 (HD) : MSI G41M-P25, 2 GB RAM, E6700 2x3.20GHz, Gainward GT220, 2TB HD, Lirc X10, TT S2-3600 USB, TT S2-1600, - Suse 11.3 (64) NvidiaTreiber 260.19 vdr-1.7.18 - xineliboutplugin 1.0.90 cvs, xine-lib 1.1.90 , s2-liplianin DVB Treiber

  • Ich war auch neugierig und habe es auch mit einer GT430 ausprobiert. Bei mir scheint es funktioniert zu haben, zumindest sagt das Log [ 45585.293] (==) NVIDIA(0): RGB weight 101010
    Es wurde aber erst übernommen als ich "Default Depth" auf 30 gesetzt habe. Die Option Depth in der Display Subsection hatte weierhin RGB weight 888


    Einen Unterschied kann ich aber optisch nicht erkennen, hängt wohl damit zusammen was hier schon beschrieben ist, das es für TV nichts bringt.

  • Wie aus den Erklärungen hervorgeht bringt die 30 Bit Farbtiefe sowieso keinen Mehrwert.


    Ich persönlich finde das man den Unterschied am schwierigste Teil der Wiedergabe sieht, den Hauttönen, ansonsten bei wirklich guten HD Sendungen auch bei Farbverläufen eines tiefblauen Himmels. Im Gegenzug verstärkt sich das Farb-Banding bei schlechten SD Sendung, kann ja inzwischen aus 2,5 Jahren Erfahrung damit berichten ...


    Wichtig, der Monitor/TV muß das können, die Grafikkarten prüft das. Wenn das Anzeigegerät über HDMI/DP nicht DeepColor/x.v.Color signalisiert, startet der X-Server nicht.


    Regards
    fnu

    HowTo: APT pinning

  • Klappt es denn generell mit der 30-Bit Ausgabe wenn der Monitor nicht am VGA oder DP-Ausgang der Grafikkarte angeschlossen ist? Ich hatte das so verstanden, dass laut http://us.download.nvidia.com/…04.43/README/depth30.html auf 8 oder 6 Bit pro Pixel heruntergerechnet wird, wenn der Monitor am HDMI- oder DVI-Anschluss der Karte hängt:

    Zitat

    When displaying a depth 30 image, the color data may be dithered to lower bit depths, depending on the capabilities of the display device and how it is connected to the GPU. Some devices connected via analog VGA or DisplayPort can display the full 10 bit range of colors. Devices connected via DVI or HDMI, as well as laptop internal panels connected via LVDS, will be dithered to 8 or 6 bits per pixel.

    yaVDR-Dokumentation (Ceterum censeo enchiridia esse lectitanda.)

  • Klappt es denn generell mit der 30-Bit Ausgabe wenn der Monitor nicht am VGA oder DP-Ausgang der Grafikkarte angeschlossen ist?


    Das Anzeigegerät muss DeepColor/x.v.Color beherrschen, ansonsten verhindert der Nvidia Treiber den Start von Xorg. Diese Fähigkeit steht nur per DP und HDMI zur Verfügung, nicht für DVI-D.


    DP ist "die Mutter" der 30-bit Farbtiefe, weil das bis vor kurzem nur Quadros das konnten, die ausschließlich mit DP und/oder DVI-I (u.a. für VGA) ausgeliefert wurden. Das beinhaltet auch die DMS-59 Anschlüsse, dort sind lt. Nvidia nur Adapterkabel für, VGA, DVI, DP erhältlich. Das Feature wurde im übrigen hauptsächlich für medizinische Anwendungen eingeführt, damit Ärzte z.B. die Schattierung auf Röntgen, CT, MRT Bildern besser erkennen können ... ;)


    Ich weiß leider auch nicht, mit welcher Linux Treiber Version den Unterschied aufgehoben wurde, hab nie einen passenden Eintrag im Changlog gefunden. Bin da nur eher zufällig drüber gestolpert ...


    Auch macht runterrechnen doch überhaupt keinen Sinn, weder für den Arzt der so oder so nicht mehr erkennen kann, weil eben das Display nicht mehr darstellt, noch für Videoausgabe ...


    Regards
    fnu

    HowTo: APT pinning

  • Das Feature wurde im übrigen hauptsächlich für medizinische Anwendungen eingeführt, damit Ärzte z.B. die Schattierung auf Röntgen, CT, MRT Bildern besser erkennen können ...


    Aus dem Bereich kenne ich das ganze ja und da macht die hohe Graustufenauflösung bei entsprechenden Monitoren in Verbindung mit der hohen Pixeldichte auch wirklich einiges aus :)


    Ich weiß leider auch nicht, mit welcher Linux Treiber Version den Unterschied aufgehoben wurde, hab nie einen passenden Eintrag im Changlog gefunden. Bin da nur eher zufällig drüber gestolpert ...


    Ok, dann ist das von mir Verlinkte wohl ein überholter Abschnitt in der Treiber-Dokumentation für die Version 304.43...

    yaVDR-Dokumentation (Ceterum censeo enchiridia esse lectitanda.)

  • Ich bin immer noch hin und hergerissen, welch Grafikkarte ich mir für die Zukunft kaufen soll:


    1. Eine Karte mit GT520. Mit dem letzten Treiberupdate von NVIDIA scheint ja dieser Grafikchip eine wesentlich bessere Performance zu haben als bisher. Ein wesentlicher Vorteil dieser Karten ist für mich die etwas geringeren Wärmeentwicklung. Etwas Bedenken habe ich, dass ich diese Karte in einem Jahr wieder rauszuschmeißen, weil sie eben doch etwas schmalbrüstig in ihrer Leistung ist!


    2. Eine Karte mit GT430. Mit dem Grafikchip ist man ja, nach den Aussagen hier im Forum auf jeden fall auf der sicheren Seite, was die Performance und Bilddarstellung betrifft. Ein nachteil ist die höhere Verlustleistung, sprich Wärmeentwicklung.


    Zur GT430 bin ich bei meiner Recherche auf diese Karte von Gigabyte GV-N430OC-1GL gestoßen. Diese Karte hat 2 Lüfter und man kann mit etwas Geschick die Wärme gleich über eine Slotblende aus dem VDR-Gehäuse leiten.
    Hat jemand von Euch bereits Erfahrung mit dieser Karte und vor allem: Sind die Lüfter zu hören, oder drehen diese unter Normallast so langsam, das sie unhörbar sind?
    Oder welche Grafikkarten mit GT430 Grafikchip könntet Ihr empfehlen, die leise im normalen VDR-Betrieb sind?


    Paulaner

  • Ich bin immer noch hin und hergerissen, welch Grafikkarte ich mir für die Zukunft kaufen soll:


    Tja, das ist das Dilemma, der Spagat zw. Zukunftssicherheit, Leistungsaufnahme/-fähigkeit, aktive, passiv etc.


    Daher läßt sich die Frage nicht so leicht beantworten, ich werde aber z.B. meinen Quadro's treu bleiben ... ;)


    Aber ich denke Du machst mit keiner Karte etwas komplett falsch, außer der Tatsache das evtl. bei den etwas neueren GT6xx Karten schauen solltest, die GT610 basiert auf der gleichen GPU wie die GT520. Mal sehen evtl. postet ja mal einer "qvdpautest" Werte neu/alt in dem anderen Thread dazu.


    Bzgl. Kepler GPUs kann ich vorr. Anfang Oktober was zeigen. Zu den Gigabyte Karten kann ich nix sagen, sorry


    Regards
    fnu

    HowTo: APT pinning

  • Ich bin immer noch hin und hergerissen, welch Grafikkarte ich mir für die Zukunft kaufen soll:...


    Geht mir genauso.


    Ich habe mal etwas gegoogeld und festgestellt, das wenn es um (HD) Videobearbeitung, bzw Ausgabe geht, eigentlich immer die GT... und die GTX... empfohlen werden.
    Die Quadro's sind wohl eher was für CAD Anwendungen.
    Den einzigen Nachteil der GT(X), gegenüber den Quadro's was ich bisher finden konnte ist, dass die GT(X) einen wesentlich höheren Stromverbrauch haben, was sich dann wohl vermutlich auch auf die Wärmeentwicklung auswirken wird.

  • Die Quadros haben eine andere Zielgruppe und sind deswegen eigentlich unendlich zu teuer für den geplanten Einsatzzweck.

    Man korrigiere mich wenn ich falsch liege:
    Die Basis ist jeweils die gleiche wie die der normalen GT/GTX Karten. Die Designs/Vorgaben sind wegen des geplanten Einsatzes restriktiver - nur bestimmte Hersteller dürfen nach Vorgabe die Dinger bauen. Wenn ich die TDP von 17,5W sehe bei einigen Karten, dürften auch ausgesuchte GPUs der Reihen verbaut werden (die GT Karten mit gleicher GPU haben 30W).


    Die Quadros sind für Grafikworkstations aller Art: CAD, Medizin, Videoschnitt - da zählen dann auch langfristiger Support und gute Qualität mehr als immer "The latest and greatest"


    Für reinen TV Betrieb dürfte es sich nicht lohnen - evtl wenn man anderweitig HD Filme abspielt (zB BR) und die Kette im Ganzen recht gut ist (Anzeigegerät etc)

    VDR User: 87 - LaScala LC14B - LG/Phillipps 6,4" VGA Display | Asrock H61/U3S3 | G630T | 1x 16GB Mobi Mtron 3035 1x WD 750GB 2,5" |1x L4m DVB-S2 Version 5.4

  • steffen_b


    FullAck! Quadros sind was für Fan's, habe nie etwas anderes behauptet, wie eben z.B. auch eine S2-6400 auch ihre zufriedenen Fans hat, jeweils zu Recht.


    Aber noch Anmerkungen dazu:

    nur bestimmte Hersteller dürfen nach Vorgabe die Dinger bauen.

    Das stimmt so nicht, die Karten werden von Nvidia gebaut bzw. vmtl. bei Foxconn nach deren Referenzdesign im Auftrag gefertigt und an die Quadro OEMs (PNY, HP, IBM, Dell, Fujitsu, etc.) geliefert. Es ist daher egal von welchem OEM man die Karte kauft, es sind die gleichen.


    Die Karten werden immer mit den maximal möglich schnellsten Speicher und Anbindung ausgestattet, der für die GPU möglich ist. Wer aber aufgepasst hat, sieht das nie wirklich viel Speicher drauf ist, aber eben sehr schneller. Durch das Nvidia Design sind die Karten immer ein wenig effizienter als vergleichbare OEM Karten, hier bitte immer den gleichen Speicher+ Anbindung vergleichen. Was das enge Designkorsett ausmachen kann, sieht man z.B. an einer OEM G210 und der FX 380 LP ...


    da zählen dann auch langfristiger Support und gute Qualität mehr als immer "The latest and greatest"


    Genau das ist für mich persönlich eigentlich der Punkt beim VDR, der Wunsch nach einer Langzeitstabilität und meine FX 580 ist ein gutes Beispiel dafür.


    Wenn man mal überlegt, wieviel Geld die Nutzer in Core i3+ Procs, super teuere CPU Lüfter und passende Mainboards stecken. Aber wehe die Grafik kostet nur €5 mehr, wo sie doch eigentlich neben der DVB Karte das wichtigste Teil im VDPAU VDR ist. Das soll keine glühende Kampfrede für Quadros werden, im Gegenteil, aber für hochwertig gebaute GeForce Karten und dafür doch evtl. eher eine Nummer größer zu nehmen, weil die nicht unbedingt überproportional mehr Leistung aufnimmt, aber eben Reserven hat ...


    Regards
    fnu

    HowTo: APT pinning

  • Zitat von »Paulaner«
    "Oder anders gefragt: Was kann den die GT520 bei einem HDTV-Bild an Farbtiefe darstellen?"


    24bit.


    Wo kann ich das eigentlich nachlesen?
    Ich habe gesucht, aber konnte keine richtigen Aussagen dazu finden!


    In diesem Beitrag findet man z. B. die Aussage, dass die GT520 eine "max. Auflösung / Farbtiefe 2560 x 1600, 32Bit (Dual Link)" haben soll! Aber das ist keine Aussage des Herstellers, sondern aus einem Vergleichstest einer beliebigen Plattform.


    Paulaner

  • Paulaner


    Gott was machst Du Dich verrückt mit der Farbtiefe?


    Hat alles seine Richtigkeit, die volle Farbtiefe bei allen Grafikkarten und Monitoren ist 24bit/32bit, sowohl Windows als auch Linux. 24bit deshalb, weil RGB888, also 8-bit = 2^8 = 256 Schattierungen pro Farbkanal = 256³ = 16,7Mio. Farben über alles.


    So woher kommen nun die fehlenden 8-bit? Das nennt sich die Alpha-Kanäle oder manchmal auch als Transparenz(-Kanäle) bezeichnet und erhöht im Prinzip nicht die Anzahl der möglichen Farben, die bleibt bei 16,7Mio. Es schlicht eine Frage der Schreibweise ob 24-bit oder 32-bit genutzt wird, ersteres ist technisch richtig (Linux/Xorg), zweiteres ist gut für's Marketing und die gängige Sprachregelung in der Windows Welt. Blöd ist halt die Log Ausgabe im Xorg.log, mit der verwirrenden Angabe von 24-bit und 32-bit, aber es ist immer das Gleiche gemeint und über alle Anschlußarten möglich, VGA, DVI-D, DP, HDMI.


    Wenn Du mal Internet nach 24-bit, 32-bit, alpha channels, transparency suchst, wirst Du viele Erklärungen dazu finden.


    Die 10- oder 12-bit Schattierungen pro Farbkanal ist ja nix gängiges, sondern erfordert, zum einen eine Grafikkarte die das kann, den passenden Treiber, den passenden Connect DP/HDMI, ein Display das das kann und vorallem Software die das nutzt. Wenn Du unter Xorg mit RGB101010 eine Applikation aufrufst, die das nicht kann, siehst Du nur eine schwarze Fläche. xine-ui kann das z.B. schon lange und softhddevice inzwischen auch schon eine ganze Weile ...


    Regards
    fnu

    HowTo: APT pinning

    Einmal editiert, zuletzt von fnu ()

  • Gott was machst Du Dich verrückt mit der Farbtiefe?


    Naja, verrückt mache ich mich deshalb nicht. 8o


    Ich war eben nur bei der Suche nach verschiedenen Grafikkarten u. a. über den von mir verlinkten Beitrag gestolpert und wollte und will deshalb nur wissen, wo ich denn Einzelheiten zu den möglichen technischen Details zu den einzelnen Grafikchips finden kann.
    Bei NVIDIA habe ich ja diesen Vergleich von Grafikchips gefunden. Aber hier sind eben auch viel allgemeine Werbefeatures aufgeführt und relativ wenig aussagefähigen Details.


    Paulaner

  • Bei NVIDIA habe ich ja diesen Vergleich von Grafikchips gefunden. Aber hier sind eben auch viel allgemeine Werbefeatures aufgeführt und relativ wenig aussagefähigen Details.

    Dieser Leistungsvergleich bezieht sich IHMO auf Windoof OS, der WIntreiber ist aktuell und zeigt was die Hardware kann.
    Unter Linux ist das Bild evtl. verzerrt, da der Linux Treiber hinterherhinkt.
    Wenn man eine aktuelle Karte mit mehr Leistung kauft, muss man halt etwas warten bis man die Leistung unter Linux bekommt.


    So gesehen gibt man unnötig Geld aus, wenn man eine aktuelle Karte für den VDR kauft.

    VDR 1 (SD) : ASRock A330 GC, 1 GB RAM, TT- FF Karte rev. 2.3, 7'' TFT, Lirc X10 - Selbstbau Gehäuse - Suse 11.3 (64) vdr-1.7.10 diverse Plugins
    VDR 2 (HD) : MSI G41M-P25, 2 GB RAM, E6700 2x3.20GHz, Gainward GT220, 2TB HD, Lirc X10, TT S2-3600 USB, TT S2-1600, - Suse 11.3 (64) NvidiaTreiber 260.19 vdr-1.7.18 - xineliboutplugin 1.0.90 cvs, xine-lib 1.1.90 , s2-liplianin DVB Treiber

  • Hi,


    das stimmt so leider nicht. Die CPU spielt bei VDPAU nur die zweite Geige. Oft schon im Board berichtet und bestätigt.
    Ich habe selbst einen AMD X2 auf 1,2 GHz (!) untertaktet, dieser langweilt sich bei SKY HD oder anderen HD-Sendern mit temporal_spatial zu tode.


    EDIT: und alles läuft damit flüssig, ohne einen Ruckler.


    Groetjes,
    Polaris

    TV: Toshiba 42XV635D 42 Zoll
    AV-Receiver: Yamaha RX-V473
    VDR: YaVDR 0.6, Zotac H77-ITX-C-E (onboard Geforce GT620 512MB RAM), Intel Pentium G630T@1,6GHz, 2x 2GB RAM, 1TB Media-HDD 2,5", 30GB System-mSATA SSD, DD Cine S2 V6 -> alles verbaut im InterTech Mini ITX E-i7, PS3 Remote
    NAS: Synology DS415+, 4x 3TB Raid5

  • das stimmt so leider nicht. Die CPU spielt bei VDPAU nur die zweite Geige. Oft schon im Board berichtet.


    Wo wurde das berichtet?


    CPU, Hauptspeicher und Grafikkarte bilden ein System verbunden über den Grafiktreiber als Teil des Betriebssystems. Ein Atom reicht im Prinzip dafür aus, aber mach da mal ein aufwändigen Skin drauf, dieser Teil der Grafikausgabe wird zu 100% von der CPU abgewickelt, also ruckeln Anthra und Co. Dein Athlon X2 mit 1,2GHz ist verglichen mit manchen Atom CPUs immer noch ein Goliath. Das ist nur die Video-/OSD-Ausgabe. Was mit den Dateien, sprich den Aufnahmen z.B. beim Schnitt? Da macht Deine Grafikkarte gar nix, alles CPU (und HDD), die HD Aufnahmen haben ja nun problemlos 10GB und mehr. Die CPU muß muß nebenbei noch Video und OSD darstellen, die Grafik unterstützt die CPU nicht andersrum ... 8)


    Ist wie bei einer 3D Gamerkiste oder einer CAD Workstation, es reicht nicht aus nur eine dicke Grafikkarte reinzustecken, die CPU als Haupt-Rechenwerk muß hier mithalten können bzw. sogar eher noch mehr Reserven haben, wie gesagt die Grafikkarte spielt der CPU zu ...


    Im Gegensatz zu einer DXR3 oder SD-FF die das System nur als Wirt genutzt haben, Video und OSD wurde auf den Karten annähernd losgelöst vom Betriebssystem behandelt. Ist bei der FF-HD heute auch noch so, nur sind die HD Aufnahmen halt ebenso groß und erfordern beim Schnitt auch ein wenig CPU Power ...


    Also ist Paulaners Aussage technisch absolut korrekt.


    Regards
    fnu

    HowTo: APT pinning

    2 Mal editiert, zuletzt von fnu ()

  • Hallo Frank,


    Zu dem Thema GPU und CPU habe ich mal eine Frage:


    Wenn das OSD auf die CPU, müsste ja dann die Last dieser hochgehen, wenn ich das OSD öffne, oder?


    Ich habe letztens mal spassenshalber auf meinem System (siehe Signatur) im WebFrontend beide Deinterlacer auf temporal_spatial gestellt und und im Plugin softhddevice bei allen Auflösungen unter "Video" das beste eingestellt. Damit sollte ja die GT520 am Anschlag laufen.
    Sky Sport HD konnte ich aber noch fehlerfrei darstellen, obwohl im Log von softhddevice schon deutlich mehr Meldungen wegen dropped frames und so. War ja zu erwarten.
    Nur wenn ich das OSD öffne (anthra fse 1920), wurden die Fehler noch mehr und das LiveBild lief auch nicht mehr so smooth. An der CPU-Last hat sich aber nix geändert.


    Ist jetzt nur rein interessehalber. Aber das OSD hat ja dann doch Auswirkungen auf die GPU.


    Gruss.
    Markus

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!