Nvidia Grafikkarten...welche ist denn nu die beste?

  • Na, dann ist doch die Frage, "Nvidia Grafikkarten...welche ist denn nu die beste? " beantwortet.
    Für einen HTPC mit HD und VDR ist eine günstige GT520, oder GT430 völlig ausreichend.


    Für mich gibt es da schon einen Unterschied zwischen "... die Beste" und " ... ausreichend" ! 8)


    Paulaner

  • Für einen HTPC mit HD und VDR ist eine günstige GT520, oder GT430 völlig ausreichend.


    Deine Meinung. Aber das ist ja nun weiter oben eigentlich schon geklärt und formuliert gewesen, aber schön das Du es nochmal auf den Punkt bringst.


    Mir fehlt aber die Definition von günstig ...


    Für mich gibt es da schon einen Unterschied zwischen "... die Beste" und " ... ausreichend" ! 8)


    Dieser Meinung schließe ich mich uneingeschränkt an.


    Regards
    fnu

    HowTo: APT pinning

  • [...] Für mich gibt es da schon einen Unterschied zwischen "... die Beste" und " ... ausreichend" ! 8)


    Ich denke mal. dass es hier in diesem Thread rein um eine Graka für einen HTPC geht?


    Klar, man kann sicherlich auch GraKas für mehrere hundert Euro in einem HTPC verbauen, die Frage ist halt, ob das dann wirlich Sinn macht?

  • Klar, man kann sicherlich auch GraKas für mehrere hundert Euro in einem HTPC verbauen, die Frage ist halt, ob das dann wirlich Sinn macht?


    Die Frage sollte sich in der Tat jeder stellen, ob er eine Quadro 2000, 4000, 5000, 6000 für mehrer hundert Euro im VDR verbaut. Aber eine Quadro 400 im €100 Bereich im Vergleich zu einer vernünftigen GeForce für €60, ist realistisch vergleichbar. Ganz klar immer eine Frage des persönlichen Geschmacks, wie TevII oder Cine, oder S2-6400 oder eben nicht.


    Aber Übertreibungen aus dem Zusammenhang auf Niveau der Regenbogenpresse bringen hier niemand weiter, aber wenn Du das für Dich persönlich brauchst, ok ... :rolleyes:


    Regards
    fnu

    HowTo: APT pinning

  • Ich bin am überlegen, ob ich mir einen neuen VDR zusammenstellen will und mich würde einfach nur interessieren, was eine Quadro 410 gegenüber einer GT520 in einem VDR besser kann.


    Ein für mich entscheidender Punkt für eine Quadro, wäre z.B. wenn diese CEC unterstützen würde.....


    BTW:

    Zitat

    Aber Übertreibungen aus dem Zusammenhang auf Niveau der Regenbogenpresse bringen hier niemand weiter, aber wenn Du das für Dich persönlich brauchst, ok


    fnu, es tut absolut nicht Not, jedesmal persönlich zu werden!!
    Ich habe weder Übertreibungen gepostet, noch "brauche" ich das persönlich.

  • fnu, es tut absolut nicht Not, jedesmal persönlich zu werden!!


    Du hast aber übertrieben, keine der hier besprochenen Quadros kostet mehrere hundert Euro, meine FX 580 hat damals €119 gekostet, meine Quadro 600 habe ich für €80 bekommen, die "NVS 300" für €50, etc. alle inkl. Versand ....


    Du mußt verzeihen, Deine Argumentation kommt schon für mich so rüber, also ob Du Dir was schön reden und das aber wiederum als allgemeingültige Meinung verstanden haben willst, den Eindruck habe scheinbar nicht nur ich. Ich wollte Dich gar nicht angreifen, Du hast Deine Meinung, ich die Meine, beide vertreten wir sie. Wenn wir aufeinander antworten, hat das zwangsläufig was persönliches. Und hey, Du teilst hier im Portal ziemlich aus, dafür bist'e ganz schön empfindlich ...


    Regards
    fnu

    HowTo: APT pinning

  • fnu + C-3PO
    einfach sachlich bleiben ist doch das Beste! :]


    Um das Thema GT520 vs. GT430 nochmals aufzugreifen:
    Meine ersten Tests haben nur marginale Verbesserungen zwischen der Onboard GF8300 und der GT430, respektive zwischen "temporal" und "temporal_spatial" erkennen lassen! Mein TV ist ein 47" Philips aus der 9000er Serie mit guter Bildaufbereitung und Darstellung, so dass ich denke das der TV mir die Unterschiede bei Laufschrift usw. schon vernünftig anzeigen kann.


    Mit der "einfachen" Onboardgrafik GF8300 schaffe ich bei allen freien HD-und HD+Sendern (außer SKY, weil ich das nicht abboniert habe) ein perfektes Bild mit Ton, wenn ich "temporal" auswähle. Ich denke dazu trägt auch mein Athlon X2 240e Prozessor mit bei, da ich vorher mit einem Athlon X2 4850e Prozessor auch Probleme bei "temporal" hatte. Für eine einwandfreie Bildwiedergabe ist m. M. nach nicht nur die Grafikkarte, sondern auch der Rest, wie Prozessor und RAM entscheidend. Ich denke da werdet Ihre mir Recht geben!


    Natürlich bin ich auch ein Freund vom "nice to have" und für mein Hobby VDR gebe ich auch gern ein paar Euro mehr aus, das ist nicht das Problem. Der große Nachteil der GT430 ist eben die wesentlich höhere Verlustleistung (>+16W) gegenüber der OnBoard-Grafikkarte. Der Grafikchip wurde in meinem Gehäuse auf über 80°C heiß und hat das ganze Gehäuse aufgeheizt! X(
    Aktuell ist mein VDR +Innereien +Gehäuse auf möglichst leisen Betrieb ausgerichtet, d.h. unter anderem sowenig wie nötig Wärme erzeugen, die ich dann aus dem Gehäuse transportieren muss.


    Aus diesem Grund habe ich die GT430 wieder ausgebaut und werde diese zurückschicken, da für mich der Mehrwert mit meiner aktuellen VDR-Konfiguration nicht gegeben ist.
    Demnächst werde ich mir sehr wahrscheinlich einen neuen Philips-TV kaufen, der dann 60" groß sein wird und dann werde ich auch meinen VDR auch etwas neues gönnen und umbauen. Ich werde mir ein anderes Mainboard ohne Onboard-Grafik besorgen und dann evtl. noch eine GT520 dazu und das Ganze nochmals testen. Ich denke mit dem System (schneller Prozessor, RAM und dann GT520) werde ich auch das "nice to have" respektive temporal_spatial nutzen können. :D


    Paulaner

  • Ich denke der Thread hat einige an Unklarheiten beseitigt.
    Das Schöne daran ist, daß meine GT430 mit dem neuen Nvidia Treiber jetzt prima funktioniert - bin echt happy :]


    Unklarheiten beim Thema Farbtiefe:
    Die GT430 kann, soweit ich das ermittelt habe 32 Bit Farbtiefe.
    In der xorg.conf wird diese aber nur mit 24 Bit betrieben.
    Mein TV ist ein Philips 37PFL5405H der sollte doch auch 32 Bit können.

    Ein für mich entscheidender Punkt für eine Quadro, wäre z.B. wenn diese CEC unterstützen würde.....

    Interessant, willst du damit den VDR steuern - Funktioniert das generell ?

    VDR 1 (SD) : ASRock A330 GC, 1 GB RAM, TT- FF Karte rev. 2.3, 7'' TFT, Lirc X10 - Selbstbau Gehäuse - Suse 11.3 (64) vdr-1.7.10 diverse Plugins
    VDR 2 (HD) : MSI G41M-P25, 2 GB RAM, E6700 2x3.20GHz, Gainward GT220, 2TB HD, Lirc X10, TT S2-3600 USB, TT S2-1600, - Suse 11.3 (64) NvidiaTreiber 260.19 vdr-1.7.18 - xineliboutplugin 1.0.90 cvs, xine-lib 1.1.90 , s2-liplianin DVB Treiber

  • Die GT430 kann, soweit ich das ermittelt habe 32 Bit Farbtiefe.


    Wo kann man eigentlich nachlesen, welcher Grafikchip welche Farbtiefe bei HDTV (1920x1080p) darstellen kann?
    Oder anders gefragt: Was kann den die GT520 bei einem HDTV-Bild an Farbtiefe darstellen?


    Paulaner

  • einfach sachlich bleiben ist doch das Beste! :] ...


    Jetzt übertreibe Du mal nicht so, das ist doch eher harmlos ...


    Ich wüsste jetzt nicht, wann ich mal nicht bei der Sache war??


    Deine absoluten Aussagen mit der unterschwelligen Forderung nach Allgemeingültigkeit sind das Problem. Mach deutlich das es Deine persönliche Meinung ist, dann eckst Du nirgends an.


    Ich habe z.B. immer gesagt, das sich niemand ein Nvidia Quadro kaufen soll, bloß weil ich zufrieden damit bin, das ist einfach nur ein Faible von mir ...


    Und ja, Meine Erfahrungen mit Dir in den letzten Jahren hier, drücken direkt ein paar Knöpfe bei mir, sicher mein Fehler, das lässt sich abstellen.


    Ein für mich entscheidender Punkt für eine Quadro, wäre z.B. wenn diese CEC unterstützen würde....


    Für mich war das jetzt nicht als Frage zu erkennen, ich sehe auch kein :?:


    Aber damit habe ich mich noch nicht befasst, ich schau gerne mal was ich dazu in Erfahrung bringen kann, aber von mir willst ja nix annehmen ...


    Regards
    fnu

    HowTo: APT pinning

  • Die GT430 kann, soweit ich das ermittelt habe 32 Bit Farbtiefe.


    Xorg macht reale 24bit Farbtiefe ('RGB888'), "depth = 24" in der xorg.conf, also 256 Schattierungen pro Farbkanal. Im Xorg log findet ihr dann wohl die Ausgabe 32bit ... warum das so ist, müsst ihr die Xorg Leute fragen ...


    Wenn ich von 30bit rede, meine ich echte RGB101010, also 1024 Schattierungen pro Farbkanal, muß mal suchen, es gab da ein gutes Dokument von Nvidia dazu. Jetzt reitet aber darauf nicht so rum, probiert es aus, in dem ihr "depth = 24" in "depth = 30" ändert. Wenn's nicht tut, ist das Bild deshalb nicht scheiße ... :(


    Code
    (**) NVIDIA(0): Depth 30, (--) framebuffer bpp 32
    (==) NVIDIA(0): RGB weight 101010
    (==) NVIDIA(0): Default visual is TrueColor


    Oder anders gefragt: Was kann den die GT520 bei einem HDTV-Bild an Farbtiefe darstellen?


    24bit.


    Regards
    fnu

    HowTo: APT pinning

  • 24bit.


    Hhhhmm, das ist schlecht für die GT520!
    Da muss ich ja doch noch mal überlegen und sehen, was ich später für eine Grafikkarte einsetzen werde, wenn ich meinen neuen TV habe.
    Der soll ja lt. Philips-Werbeversprechen über 1 Trillionen Farben darstellen können! :wow
    Ich weiß gar nicht, wievil Bit Farbtiefe das sein soll? :evil:
    Hier habe ich mal was zur Farbtiefe gefunden!


    Die andere Frage ist noch: Mit welcher Farbtiefe werden eigentlich die HDTV-Bilder beim HDTV gesendet?


    Paulaner

    2 Mal editiert, zuletzt von Paulaner ()

  • Hhhhmm, das ist schlecht für die GT520!


    Sorry, das ist Quark, weil alle (!) Grafikkarten seit jeher unter Xorg mit 24bit Farbtiefe (RGB888 - 256³ Farben) angesprochen werden, das war noch nie anders, auch bei VDPAU. Also alles richtig und gut, oder war Euer Bild scheiße seither?


    Die 30-bit, die seither nur die Quadro's können, ist eine Ausnahme nach oben. Man, hätte ich bloß mein Maul gehalten, hätte wissen müssen, das Ihr die Dinge nur wieder aus dem Zusammenhang reißt ... :(


    Regards
    fnu


    PS: 24-bit = 256³ = 16,7 Mio; 30-bit = 1024³ = 1Mrd ...

    HowTo: APT pinning

    2 Mal editiert, zuletzt von fnu ()

  • Also meine GT520 und GT430 kann ich auf 30Bit umstellen.
    Am Desktop mit der GT520 habe ich es wieder rückgängig gemacht, da es leider viele Programme gibt,
    die kein 30Bit unterstützen.


    Johns

    Sag mir, wo die Developer sind. Wo sind sie geblieben? . . . . . . . . . . . . . . . . . . . . SoftHdDevice - A software and GPU emulated HD output device plugin.
    Sag mir, wo die Developer sind. Was ist geschehn?


    Client0: Crown CW02 MSI_C847MS-E33 Zotac_GT640_passiv Cine-S2 iMon-MCE / streamdev softhddevice
    Client1: Lian_Li_PC-Q09FB ASRock_H67M-ITX/HT I3-2100 ASUS_ENGT520_passiv / streamdev softhddevice
    Test: Lian_Li_PC-Q09R Asus C60M1-I / streamdev
    Server0: Dockstar TT-S2-3600-USB / streamdev
    Server2: Lian_Li_PC-Q07R Intel_DH61DL G620 WD20EARX 90W PicoPSU Cine-S2+DuoFlex-S2+DuoFlex-CT / streamdev / 22 Watt Verbrauch

  • Sorry, das ist Quark, weil alle (!) Grafikkarten seit jeher unter Xorg mit 24bit Farbtiefe (RGB888 - 256³ Farben) angesprochen werden, das war noch nie anders, auch bei VDPAU. Also alles richtig und gut, oder war Euer Bild scheiße seither?


    Genau das habe ich befürchtet! :D
    Ich habe mich nämlich schon gewundert, warum mein Bild mit der Onboard-GF8300 genauso bunt ist, wie mit der GT430!
    Nein nun mal im ernst: Ich denke mit 24bit = 3x8bit pro Farbe ist man aktuell gut dabei und mehr werden die HDTV-Sender auch nicht senden.
    Die Verbesserungen von stärkeren Grafikkarten wie GT430 betreffen dann eher das Deinterlacing (temporal_spatial) was dann das beste Bild liefern kann.


    Das ist aber für mich auch einer der Nachteile der Grafikkartern-Lösung a'la VDPAU, dass es keine flexible Bildausgabe gibt. Damit meine ich, wie es z. B. bei der Reel-eHD möglich ist, das digitale TV-Signal einfach 1:1 durchzuleiten, so wie es vom Sender kommt und das Scaling und Deinterlacing den TV machen zu lassen.


    Das kann man leider bei VDPAU nicht auswählen, es wird immer auf 1920x1080p bzw. was man eingestellt hat, hochgerechnet, egal was der Sender liefert. Hier wäre eine softwareseitige Auswahl "Auflösung wie Quellsignal" oder "Auflösung auf 1920x1080p" optimal! Da könnte man dann die Version wählen, die das beste Bild liefert. Denn ich denke gute TVs, die auf beste Bildwiedergabe optimiert sind können das vielleicht besser als eine Softwarelösung, zumindest könnte man das testen und vergleichen. 8)


    Bei VDPAU ist man ja auf das Wohlwollen des Grafikchip-Herstellers angewiesen. Mit der neueren Treiberversion nvidia-30x.xx scheint es ja eine Menge Performanceverbesserungen zu geben, die die Möglichkeiten auch etwas schmalbrüstiger Grafikchips besser unterstützt.


    Paulaner

  • Na, mal wieder Mut angetrunken, um hier ein wenig zu trollen?


    Sorry Frank, ich bin nicht up-to-date. Mut angetrunken? Habe ich jemals Angst gehabt?


    Junge, es geht hier nicht um Storage. Pflege die alte Pakete fleißig. Dafür danken wir Dir.


    Wie kommt es, dass Du mich blacklistest, aber trotzdem meine Beiträge liest? Funzt das Forum nicht?


    Werde mit der alten Blechbüchse glücklich. Hoffentlich setz er mich auch auf die "Liste"!


    Ich bin für mindestens eine Woche wech.


    Du musst nicht posten, wo Du eine Art Halbwissen hast.


    Du müllst louis sein Thread zu. Ist Dir das aufgefallen?


    Ganz ohne Smileys, gut ODER!?


    Albert

  • Paulaner


    Viel schlimmer, es werden noch nichtmal 8bit gesendet, sondern nur die Schattierungen 16-231 aus 256 pro Farbkanal, auch bekannt als studio-levels. Kein echtes schwarz, nur dunkelgrau, auch kein rein-weiß, das fällt aber nicht so wirklich auf. Kurzum 7,5bit … ;)


    @DaKilla


    Ja, ich lese Deine Beiträge, um zu sehen welchen Bullshit Du über mich verbreitest. Außerdem glaube ich immer noch an das Gute im Menschen, auch bei Dir. Aber bei Dir wird das wohl nix mehr … schade …



    Regards

    HowTo: APT pinning


  • Das kann man leider bei VDPAU nicht auswählen, es wird immer auf 1920x1080p bzw. was man eingestellt hat, hochgerechnet, egal was der Sender liefert. Hier wäre eine softwareseitige Auswahl "Auflösung wie Quellsignal" oder "Auflösung auf 1920x1080p" optimal! Da könnte man dann die Version wählen, die das beste Bild liefert. Denn ich denke gute TVs, die auf beste Bildwiedergabe optimiert sind können das vielleicht besser als eine Softwarelösung, zumindest könnte man das testen und vergleichen. 8)


    Du kannst auch mit VDPAU jede Auflösung ausgeben die du willst.
    Nicht jede NVidia kann Interlaced, so deute ich mal die Meldung
    "14.484] (--) NVIDIA(0): Interlaced video modes are supported on this GPU" im xorg.log.
    Die Frage ist auch hier wieder, kann man den Videostream vernünftig mit dem Fernseher synchronisieren.
    Ansonsten ist dies Formt umschalten äußerst hässlich und man bekommt auf diesen Weg kein
    hochauflösendes OSD.


    Damit das Ganze nicht zusehr Offtopic wird:
    GT520 + GT430 unterstützen Interlaced Ausgabe.


    Johns

    Sag mir, wo die Developer sind. Wo sind sie geblieben? . . . . . . . . . . . . . . . . . . . . SoftHdDevice - A software and GPU emulated HD output device plugin.
    Sag mir, wo die Developer sind. Was ist geschehn?


    Client0: Crown CW02 MSI_C847MS-E33 Zotac_GT640_passiv Cine-S2 iMon-MCE / streamdev softhddevice
    Client1: Lian_Li_PC-Q09FB ASRock_H67M-ITX/HT I3-2100 ASUS_ENGT520_passiv / streamdev softhddevice
    Test: Lian_Li_PC-Q09R Asus C60M1-I / streamdev
    Server0: Dockstar TT-S2-3600-USB / streamdev
    Server2: Lian_Li_PC-Q07R Intel_DH61DL G620 WD20EARX 90W PicoPSU Cine-S2+DuoFlex-S2+DuoFlex-CT / streamdev / 22 Watt Verbrauch

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!