ZITAt (RudiWin @ 7.05.2006 - 16:32) Die Anzahl der Löcher ergibt sich aus dem sog. Pitch (0,23-0,31mm) und der Gesamtbruttogröße des Bildschirms (z.B. 14"-22" sichtbare Diagonale + der durch den Ghäuserahmen abgedeckte Teil) und ist eine rein mechanische Größe. Die mögliche Bildschirmauflösung (640x480, 800x600, 1024x768 etc.) ist aber unabhängig davon einstellbar.[/quote]Das ist klar. Nochmal: Nehmen wir mal Dot Pitch (h) von 0,26mm an, dann können damit 3,846… Pixel pro mm dargestellt werden. Das sind dann (gerundet) 96 ppi. Jetzt klar?
ZITAt (RudiWin @ 7.05.2006 - 16:45) Wie ist das dann bei analogen Bildsignalen (z.B. TV), wo ich keine Datei mit definierten Pixeln habe, sondern ein rein analoges Bildsignal die Kathoden der Bildröhre steuert?[/quote]Was soll da der Unterschied sein? Das TV-Signal wurde doch schon bei seiner Aufzeichnung in die entsprechenden Komponenten aufgeteilt.
ZITAt (Dennis @ 7.05.2006 - 16:50) Das ist klar. Nochmal: Nehmen wir mal Dot Pitch (h) von 0,26mm an, dann können damit 3,846… Pixel pro mm dargestellt werden. Das sind dann (gerundet) 96 ppi. Jetzt klar?[/quote] Das ist die "Auflösung" der 0,26mm Lochmaske Deines Mionitors (rein mechanischer Wert), nicht die Deiner darstellbaren Einstellung (z.B. 1280x1024 mit 128DPI) unabhängig von der Darstellungsqualität und der mechanischen Auflösung Deiner Bildröhre.
ZITAt (Dennis @ 7.05.2006 - 16:54) Was soll da der Unterschied sein? Das TV-Signal wurde doch schon bei seiner Aufzeichnung in die entsprechenden Komponenten aufgeteilt.[/quote] Quatsch (Stichwort BAS-Signal). Der TV-Standard hat bei PAL eine Auflösung von 720x576 Bildpunkten, die analog auf genau der gleichen Bildröhre bidschirmfüllend dargestellt werden.
ZITAt (RudiWin @ 7.05.2006 - 16:57) Das ist die "Auflösung" der 0,26mm Lochmaske Deines Mionitors (rein mechanischer Wert), nicht die Deiner darstellbaren Einstellung (z.B. 1280x1024 mit 128DPI) unabhängig von der Darstellungsqualität und der mechanischen Auflösung Deiner Bildröhre.[/quote] /rolleyes.gif" style="vertical-align:middle" emoid="" border="0" alt="rolleyes.gif" /> Oh Mann! Rudi! Halloooo! Dann lies doch endlich mal richtig! Darum geht es doch die ganze Zeit. Natürlich kannst Du einen Monitor von Seiten zB des Betriebssystems in unterschiedlichen Auflösungen fahren - zB in 800x600 bis 2.048x1.536. Aber bei allen Einstellungen wird bei einem Monitor mit einer 0,26er Lochmaske das Bild "real" mit 96 dpi dargestellt. Und die Einstellung, bei der die rechnerische Auflösung der Einstellung im Dialog "Einstellungen" mit der "realen" oder "mechanischen" Auflösung des Monitors überinstimmt, ist die optimale. Das waren die Aussagen, und ich kann keine Aussage bei Dir entdecken, die in eine andere Richtung geht. Du sprichst vom gleichen, aber merkst es nicht...
ZITAt (hendriks @ 7.05.2006 - 16:43) Welchem Missverständnisses? /wacko.gif" style="vertical-align:middle" emoid="" border="0" alt="wacko.gif" />[/quote] Gute Frage. Zumal er sich im Anschluss ja selbst korrigiert hat...
ZITAt (RudiWin @ 7.05.2006 - 17:03) Quatsch (Stichwort BAS-Signal). Der TV-Standard hat bei PAL eine Auflösung von 720x576 Bildpunkten, die analog auf genau der gleichen Bildröhre bidschirmfüllend dargestellt werden.[/quote]WHUXGA hat eine Auflösung von 7680 × 4800 Bildpunkten.
ZITAt (Dennis @ 7.05.2006 - 18:07) WHUXGA hat eine Auflösung von 7680 × 4800 Bildpunkten.[/quote] Und in der Nordsee gibt es (noch) Fische. Wieviel ppi haben die eigentlich? Oder sind das dann dpi? /unsure.gif" style="vertical-align:middle" emoid="" border="0" alt="unsure.gif" />
ZITAt (hendriks @ 7.05.2006 - 18:11) Und in der Nordsee gibt es (noch) Fische. Wieviel ppi haben die eigentlich? Oder sind das dann dpi? /unsure.gif" style="vertical-align:middle" emoid="" border="0" alt="unsure.gif" />[/quote]Na, fpi, Du Fischkopf! /blum.gif" style="vertical-align:middle" emoid="" border="0" alt="blum.gif" />
ZITAt (hendriks @ 7.05.2006 - 18:11) Und in der Nordsee gibt es (noch) Fische. Wieviel ppi haben die eigentlich? Oder sind das dann dpi? /unsure.gif" style="vertical-align:middle" emoid="" border="0" alt="unsure.gif" />[/quote] Ernsthafte Antwort auf die Scherzfrage: Es ist immer dann legitim "DPI" zu verwenden, wenn im jeweiligen Kontext dem Punkt kein Intensitätsvektor ("Farbe" zugeordnet werden kann oder muss.
ZITAt (Dennis @ 7.05.2006 - 17:10) /rolleyes.gif" style="vertical-align:middle" emoid="" border="0" alt="rolleyes.gif" /> Oh Mann! Rudi! Halloooo! Dann lies doch endlich mal richtig! Darum geht es doch die ganze Zeit. Natürlich kannst Du einen Monitor von Seiten zB des Betriebssystems in unterschiedlichen Auflösungen fahren - zB in 800x600 bis 2.048x1.536. Aber bei allen Einstellungen wird bei einem Monitor mit einer 0,26er Lochmaske das Bild "real" mit 96 dpi dargestellt. Und die Einstellung, bei der die rechnerische Auflösung der Einstellung im Dialog "Einstellungen" mit der "realen" oder "mechanischen" Auflösung des Monitors überinstimmt, ist die optimale. Das waren die Aussagen, und ich kann keine Aussage bei Dir entdecken, die in eine andere Richtung geht. Du sprichst vom gleichen, aber merkst es nicht...[/quote]
Hab bisher nur mitgelesen, muss jetzt aber doch eine Frage einwerfen:
Wie siehts mit der Bildkorrektur seitens Monitor aus? Da kann man das dargestellte Bild ja u.a. grösser und kleiner machen und so die ganze dpi-Rechnung wieder futsch machen, richtig? Klar, normalerweise kalibriert man seinen Monitor so, dass das Bild die Fläche möglichst ausfüllt. Aber bei meinem Monitor geht das z.B. nicht so genau und je nach dem, ob er warmgelaufen ist oder nicht, ist das Bild manchmal ein bisschen grösser oder kleiner. Macht das die wirklich *exakte* dpi-Bestimmung auf CRTs, Lochmaske hin oder her, nicht fast unmöglich?
ZITAt (Dennis @ 7.05.2006 - 13:17) Da hast Du völlig recht, ich mich da auf Programme zur Bildbearbeitung "eingetunnelt".
/rolleyes.gif" style="vertical-align:middle" emoid="" border="0" alt="rolleyes.gif" /> Genau diese reale Auflösung meinte ich, wie aus dem Kontext hervorgeht. Aber gut, dass Du das nochmal klargestellt hast. Daher ja auch meine Berchnungen /wink.gif" style="vertical-align:middle" emoid="" border="0" alt="wink.gif" />
Bingo.
Yep. Der beste Beweis, dass man alle Theorie ignorieren kann, und trotzdem keine guten Bilder hinbekommt, bist Du /blum.gif" style="vertical-align:middle" emoid="" border="0" alt="blum.gif" />[/quote]
Völlig Falsch - Keine Theorie und trotzdem gute Bilder - LMAA
ZITAt (thobo @ 7.05.2006 - 18:28) Ernsthafte Antwort auf die Scherzfrage: Es ist immer dann legitim "DPI" zu verwenden, wenn im jeweiligen Kontext dem Punkt kein Intensitätsvektor ("Farbe" zugeordnet werden kann oder muss.[/quote]Wo hast du das her? Klingt gut.
ZITAt (AlexDragon @ 7.05.2006 - 20:56) Völlig Falsch - Keine Theorie und trotzdem gute Bilder[/quote]so, wie Dein jüngstes und eiligst aus der Galerie entferntes Bild, nachdem es in die Kritik gekommen war? /rofl.gif" style="vertical-align:middle" emoid="" border="0" alt="rofl.gif" />
ZITATLMAA[/quote]Wenn der genauso runzlig und schlaff wie Dein Antlitz ist, verzichte ich gerne drauf. Oder ist dieser Gutschein auch auf Deine Models übertragbar?
ZITAt (Dennis @ 7.05.2006 - 22:36) Wo hast du das her? Klingt gut.[/quote] Das ist von mir. Ich habe bisher von keiner genauen Definition gelesen, wann "DPI" und wann "PPI" verwendet werden soll. Also sollte man das IMHO mit der Semantik von "Punkt" und Pixel" verbinden.
Allgemein wird in der Computergrafik "Pixel" als "Punkt mit bestimmter Farbe" verstanden, das Verständnis reicht völlig aus. Für gewisse Dinge braucht man aber einen "griffigeren Formalismus" (für die Unterscheidung von "DPI" und "PPI" natürlich nicht):
Die Definition von "Pixel" als Tupel von Position und Intensität ist auf Fiume ("The Mathematical Structure of Raster Graphics" zurückzuführen. Die Erweiterung auf einen Intensitätsvektor stammt von mir und ist der Versuch, das Modell auf beliebige Farbräume zu erweitern.