• Liebe User, bitte beachtet folgendes Thema: Was im Forum passiert, bleibt im Forum! Danke!
  • Hallo Gemeinde! Das Problem leidet zurzeit unter technischen Problemen. Wir sind da dran, aber das Zeitkontingent ist begrenzt. In der Zwischenzeit dürfte den meisten aufgefallen sein, dass das Erstellen von Posts funktioniert, auch wenn das Forum erstmal eine Fehlermeldung wirft. Um unseren Löschaufwand zu minimieren, bitten wir euch darum, nicht mehrmals auf 'Post Reply' zu klicken, da das zur Mehrfachposts führt. Grußworte.

auflösungsfrage

Mitglied seit
09.01.2002
Beiträge
5.855
Reaktionen
0
Angenommen ich schau mir ein bild (auflösung 1024*768) auf einem monitor mit der auflösung 1024*768 an.
wenn ich nun das selbe bild (diesmal aber mit der auflösung [ca.]2000*1500 ) auf dem selben monitor (auflösung weiterhin 1024*768) anschaue.
erkenn ich bei dem höher auflösenden bild einen qualitativen unterschied ?
theoretisch ja nicht, weil der monitor es nur in 1024*768 bildpunkten darstellt.
oder ?

wenn ich aber keinen qualitativen unterschied erkenne, warum kaufen sich dann soviele überdimensionale riesengrafikkarten wenn die monitore diese auflösung eh nicht darstellen können ?
 

bog

Mitglied seit
02.08.2002
Beiträge
10.121
Reaktionen
0
Ort
auf dem mutterschiff
moeglicherweise weil die riesengrafikkarten (monster aus dem sumpf?) neben der maximalen aufloesung noch andere kleine gimmicks haben, wie z.b. ein sehr gutes bildsignal im vergleich zu 0815-gamerkarten, oder ein hdmi-anschluss oder sonstwas. sonst gibt es keine antworten auf diese vage formulierte antwort. dieser thread kann somit geschlossen werden.
 
Mitglied seit
09.01.2002
Beiträge
5.855
Reaktionen
0
also bringt eine auflösung nur soweit was wie es der monitor zulässt ?

und die beiden fotos werden qualitativ gleich dargestellt ?
 
Mitglied seit
03.08.2002
Beiträge
5.045
Reaktionen
105
Ort
Berlin
Es hängt vom Bild selbst ab. Wenn man Starcraft im Vollbild spielt, wirkt alles größer und pixeliger als wenn man einen Screenshot in Paint offen hat, weil da eben die Pixel "kleiner" sind bzw. bei den hohen Auflösungen das dem menschlichen Auge gar nicht auffällt.
Kurzum: wie bog geschrieben hat, kann man das wenn überhaupt nur durch irgendwelche Treiberoptionen verbessern, aber ein körniges JPG wirkt auf einem Großbildschirm sicherlich noch fehlerhafter, da man ja eben mehr sehen kann. Hängt also von der "Quelle", dem Bild oder was auch immer ab :hammer:

Und hohe Auflösungen haben den Vorteil, was Arbeitsplatzfläche angeht. Arbeite mal mit Photoshop und diversen Plugins oder Filtern. Bei 1024 x 768 wird es schon ziemlich knapp mit dem Platz, was die Fenster angeht.
 
Mitglied seit
16.08.2001
Beiträge
6.240
Reaktionen
0
wenn du das bild in der höheren auflösung an die bildschirmauflösung anpasst wird es durch die stauchung wahrscheinlich noch schlechter aussehen als vorher...

aber die höhere auflösung des bildes ermöglicht dir das bild auch über den bildschirm hinaus anzuzeigen, so dass du scrollen musst... und dann wirst du auch deutlich mehr details erkennen können.
 

bog

Mitglied seit
02.08.2002
Beiträge
10.121
Reaktionen
0
Ort
auf dem mutterschiff
um deine ausgangsfrage nochmal zu beantworten (mein stilles schweigen dazu hast du ja scheinbar nicht als "ja, du hast recht" interpretieren koennen): ja, mit der annahme hast du recht.

der unterschied zwischen 2000*1500- und 1024x768-bildern ist letztendlich nur der, dass erstere mehr bildinformationen besitzen. fast 4x soviel. wenn du als ausgangsbild das mit 2000*1500 pixeln, also vielen informationen hast und runterskalierst auf 1024*768, verringerst du die bildinformationen und somit die flaeche auf 1/4 der ursprungsinformation/-flaeche. schaust du dir dann beide bilder auf einem einzigen monitor an, der die groessere aufloesung meistern kann (bei 2000x1500 duerfte wohl erst ein 22"er reichen), dann ist das bild mit der kleineren aufloesung einfach kleiner dargestellt, da es weniger pixel der monitor-aufloesung verbraucht als das grosse. wenn du beide bilder meinetwegen im fullscreen-modus anschaust, sie also physikalisch gesehen gleich gross erscheinen, hat das bild mit der hoeheren aufloesung eine hoehere qualitaet, da beim hochskalieren interpoliert wird, d.h. aus wenigen informationen erhaelt man viele informationen - die allerdings errechnet und nicht ursprungsgetreu sind. das bild mit der niedrigeren aufloesung sieht schwammiger/schlechter aus, je nachdem welchen interpolationsfilter man verwendet.

verwendet man hingegen auf seinem 17"er eh nur eine aufloesung von 1024x768, dann sehen beide bilder im fullscreen modus wohl nahezu gleich aus. bloss, dass du ausserhalb des fullscreen-modus bei dem mit der hoeheren aufloesung noch scrollen kannst - also mehr informationen hast.
Original geschrieben von Greg
wenn du das bild in der höheren auflösung an die bildschirmauflösung anpasst wird es durch die stauchung wahrscheinlich noch schlechter aussehen als vorher...
ich denke mal, solange man kein _wirklich_ mistiges grafikprogramm benutzt, duerfte das mit gewoehnlichen interpolationsalgoritmen gar kein problem sein. ich hab zwar schlechte augen, hab aber zumindest in 8 jahren computerkonsum noch nie ein bild mit grosser aufloesung verkleinert und ein schlechter aussehendes resultat erhalten. zumindest nicht wenn der vorgang lossless ablaeuft.
 
Mitglied seit
16.08.2001
Beiträge
6.240
Reaktionen
0
wenn du das bild per software verkleinerst oder ne gute bildbetrachtungssoftware einsetzt dann sicherlich... aber wenn firefox z.B. ein bild staucht, damit es auf einen bildschirm passt, sieht das meistens nach nix aus.
 

Busta_inaktiv

Guest
zeit für einen Test...
Ich nehme ein hochauflösendes Studiofoto (21 MP) und verkleinere es (mit dem selben Algorithmus) auf meine Monitorauflösung (XGA) sowie das doppelte dessen - habe leider keine direkte Quelle für ein Bild in "doppel-xga". ALs Betrachter fungiert ACDSee 2.41. Ist das in Ordnung?

edit: oder doppel-xga aus dem bild ausschneiden und den beschnitt verkleinern?

edit2: auf letztere Art ist die verkleinerte Version, also die Bildschirmauflösung, eindeutig schärfer - in dem Portrait sind Hautfältchen besser zu erkennen, die größere Version wirkt weichgezeichnet.

edit3: sind beide testbilder verkleinerte Versionen des Originals ist die Darstellung zwar unterschiedlich, die Unterschiede sind aber nicht zu qualifizieren. Letztendlich scheint also der resampling bzw. resize-algo zu entscheiden.
 
Mitglied seit
09.01.2002
Beiträge
5.855
Reaktionen
0
die beantwortung einer frage wirft 10 neue auf..


was ist eigentlich auflösung ?

die eigentliche auflösung ist doch die angabe der bildpunkte auf eine bestimmte physikalische größe (zB inch).

also kann es sein das eine digicam ein bild im 800*600 format (mit 72bildpunkte pro inch) macht und eine zweite im selben format (800*600) bei nur 40 bildpunkten pro inch.

demnach hätten beide bilder das selbe format aber das erste bild wäre in einer viel höheren auflösung.

ein inch hat 25,4 mm.
also wären 25 dbi eine auflösung von einem bildpunkt pro milimeter.

das ist doch die eigentliche auflösung oder ?

jeder andere angabe ist total unwichtig bei der findung der bildqualität oder ?
und wieso werden bei digicams keine dpi angaben mitgeliert (zumindest bei alternate)
 
Mitglied seit
09.01.2002
Beiträge
5.855
Reaktionen
0
achsooo
kann es sein das jede digicam gleichviele dpi hat ?
und das eigentlich tolle ist diese dpi auf eine größere fläche zu erhalten ?

wäre es nicht viel toller ein eh schon großes bild mit mehr dpi darzustellen ?
hat jede digicam 72dpi ?

oder wo liegt mein denkfehler ?
 
Mitglied seit
30.07.2000
Beiträge
4.626
Reaktionen
71
Edit: Mein Posting bezieht sich auf dein Posting von 09:42

Nein. Und du gibst dir den Grund schon selbst:
dpi = dots per inch = Punkte pro Zoll.
Ist die Anzahl der Punkte gleich, ist die Auflösung gleich. Der einzige Unterschied ist, dass wenn das selbe Bild einmal mit 75dpi und einmal mit 40dpi auf dem Monitor angezeigt oder ausgedruckt wird, letzteres in cm größer ist. Die Auflösung ist aber dieselbe.

Und damit sind wir auch bei einem entscheidenden Faktor, der bisher noch nicht genannt wurde: Unterschiedliche Monitore haben unterschiedliche Pixeldichten, alsowenn du so willst: unterschiedliche physikalische dpi-Zahlen. Bei 19- oder sogar 20"-TFTs ist die Pixeldichte meistens viel höher als bei 17"-TFTs. Somit erscheint ein Bild mit der selben Auflösung in selber "aufgenommener" dpi-Zahl auf einem 20"-TFT trotzdem kleiner als auf einem 17"-TFT (aber schärfer, falls der Betrachter nicht zu weit weg sitzt oder die Pixeldichte eh schon viel zu hoch ist). Ausgedruckt (mit derselben dpi-Zahl) wird es dann wieder gleich groß.

Was ich aber an der ganzen Diskussion nicht verstehe: Was hat das alles mit der Ausgangsfrage zu tun?
wenn ich aber keinen qualitativen unterschied erkenne, warum kaufen sich dann soviele überdimensionale riesengrafikkarten wenn die monitore diese auflösung eh nicht darstellen können ?
Leute kaufen sich z.B. teure Grafikkarten, weil die höher auflösende Texturen in 3D-Spielen mit krassen Effekten schneller darstellen können. Und da sind wir noch längst nicht an der Wahrnehmungsgrenze oder am momentan bildqualitativ Machbaren angekommen. Außerdem, wie bog schon sagte, sind auf Highend-Grafikkarten meistens bessere Komponenten verbaut. Schließt man einen Monitor analog an, ist der Unterschied bei einem TFT mit 1600x1200 Pixeln sofort sichtbar. Aber selbst am DVI-Ausgang, bei dem das eigentlich nicht sein darf, gab es einen krassen Unterschied bei mir zwischen einer Geforce FX5600 und einer Radeon X800 GTO.
 
Mitglied seit
09.01.2002
Beiträge
5.855
Reaktionen
0
deine aussage deckt sich mit unseren (gerade gesammelten) erfahrungen.


allerdings sollte auflösung = dpi sein
und zB 1024*800 = datendichte genannt werden.

nun gut
bei mir sind alle unklarheiten beseitigt.
danke
 

bog

Mitglied seit
02.08.2002
Beiträge
10.121
Reaktionen
0
Ort
auf dem mutterschiff
wieso sollte es das? dpi heisst dots per inch, ist also nur eine "aufloesungs"-einheit fuer die fixe einheit inch. sozusagen eine einheit der informationsDICHTE der hardware (=blatt papier mit druckbild, etc). 1024x768 PIXEL (=dots) hingegen ist eine einheit fuer die informationsMENGE.

man kann die informationsmenge (aufloesung) als eine grundsaetzlichere masseinheit sehen als die dichte, doch die dichte gibt vor, wie gross die information letztendlich sein wird.

das ist in etwa dasselbe wie masse und druck. ich kann 50kg wasserstoff(=menge) entweder bei niedrigem oder hohem druck(=dichte) haben, je nachdem was von beidem ich nehme aendert sich der abstand der wasserstoffmolekuele und somit die dichte des gesamten koerpers. der koerper aus wasserstoff koennte sich also entweder in mehrere kilometer in alle 3 dimensionen ausdehnen, oder als koffer von mir tragbar sein (bin stark!).
 
Mitglied seit
30.07.2000
Beiträge
4.626
Reaktionen
71
dog: Tut es eben nicht, ganz im Gegenteil, das hatte ich doch lang und breit zu erklären versucht. Ich hoffe, mit bogs Posting hast du verstanden, warum Auflösung eben nicht = dpi!!
 
Mitglied seit
09.01.2002
Beiträge
5.855
Reaktionen
0
ich versteh das schon.


allerdings sag ich mir ein bild mit hoher auslösung hat eine bessere qualität als ein bild niederer auflösung.


allerdings heißt mehr informationsMENGE (also 2000*1000) nicht automatisch höhere qualität. (viel informationsmenge auf großem raum)

eine höhere informationsdichte hingegen gibt mir eindeutigen aufschluss über die qualität. (bestimmte dpi bei einer größe 30x20)

und wenn ich hohe "auflösung" lese übersetzt das mein unterbewusstsein mit hoher "qualität".
eben genau wie es die werbung will.

hoffe ihr versteht was ich meine.
 
Mitglied seit
30.07.2000
Beiträge
4.626
Reaktionen
71
Ich glaube, wo es bei dir noch nicht ganz "Klick" gemacht hat, ist, dass die dpi-Zahl absolut variabel ist, auch über Computer-Grenzen hinaus. Wenn ein Bild mit 900x600 Pixeln auf einem imaginären TFT gezeigt wird, der pro Quadrat-Zentimeter genau 30x30 Pixel hat, dann wird das Bild auf diesem Monitor im Zoom 1:1 genau 30x20 cm groß sein. Auf einem anderen imaginären TFT mit 60x60 Pixel pro cm² wird das Bild nur 15x10cm groß sein - die Qualität des Bildes bleibt trotzdem die Selbe.

Ein anderes Beispiel: Ein Digicam-Bild wird mit 2000x1000 Pixeln aufgenommen. Ich drucke es auf DIN A2 aus, ohne irgendwelche Interpolationseffekte oder sonstwas. Wenn ich mich direkt vor den Ausdruck stelle, erkenne ich natürlich jedes einzelne Pixel, da jedes Pixel sehr groß ist. Die DPI-Zahl auf so einem Ausdruck kann ich aus dem Kopf nicht ausrechnen, aber sie wird sehr gering sein - meinetwegen 10 Pixel pro Zoll.
Ich drucke das selbe Bild nochmal auf DIN A4 aus. Die "Qualität" erscheint mir bei gleichem Abstand natürlich viel besser, weil ich die einzelnen Pixel nicht erkenne. Nun betrachte ich beide Bilder aus 10m Abstand. Welches wird jetzt die bessere "Qualität" haben?

Fazit: Du sagst: "eine höhere informationsdichte hingegen gibt mir eindeutigen aufschluss über die qualität. (bestimmte dpi bei einer größe 30x20)", und gleichzeitig: "allerdings heißt mehr informationsMENGE (also 2000*1000) nicht automatisch höhere qualität." Diese beiden Sätze schließen sich gegenseitig aus. Der erste ist (nur inkl. der Klammer) richtig, der zweite falsch. Ich glaube, dass geringere Informationsmenge bei Bildern automatisch = geringere Qualität bedeutet, sollte intuitiv einleuchten sein. Wenn ein Bild A eine höhere dpi-Zahl auf einer Größe 30x20 (cm?) haben soll als ein Bild B, so muss die Pixelzahl (und damit die Informationsmenge) von Bild A größer sein als die von Bild B.
Und die dpi-Zahl allein ist dabei völlig wurscht, denn sie kann man beliebig verstellen, sie ist nur eine Methode ein und dasselbe Bild auf verschiedene Weisen darzustellen.
 
Mitglied seit
09.01.2002
Beiträge
5.855
Reaktionen
0
ich glaube du verstehst nur nicht was ich meine. bezogen auf die ersten beiden absätze.

die angabe dpi hat bei einem foto in digitalform nichts zu suchen und ist lediglich für den ausdruck bedeutend.
da dpi ein maß für die bildqualität einer besitmmten fläche (inch) ist.

wenn ich nun ein bild mit der informatiosnmenge 2000*1000 habe drucke dies aber auf einem a4blatt aus ist die dpi zahl und somit auch die qualität sicherlich sehr gering.
drucke ich ein bild mit der informationsmenge 2000*1000 im format 13 zu 9 aus ist die dpi anzahl (und natürlich auch die qualität) schon sehr viel höher.
darum meinte ich ist die informationsmenge kein ausschlaggebender fakt für die qualität eines bildes.

die tabelle Bildauflösungen in der Digitalfotografie auf:

http://de.wikipedia.org/wiki/Bildauflösung

hilft vielleicht zu verstehen wie ich das meine.
gruß


edit:
du beschreibst doch im 2. absatz genau das was ich mit dem satz "allerdings heißt mehr informationsMENGE (also 2000*1000) nicht automatisch höhere qualität" meine.
2000*1000 bringt mehr qualität auf nem kleinen blatt als 4000*2000 auf einem riesigen bringt.
weil die dpi anzahl auf dem kleinen blatt größer ist.

dpi(qualität des bildes) verhält sich (bei gleicher informationsmenge)umgekehrt proportional zur größe des blattes.
 

bog

Mitglied seit
02.08.2002
Beiträge
10.121
Reaktionen
0
Ort
auf dem mutterschiff
"qualitaet auf einem blatt papier" und "qualitaet in digitaler form" sind eben doch zwei paar schuhe.

digital gesehen ist die informationsmenge ein indikator fuer qualitaet, analog (=papier) gesehen ist die dichte einer. zweiteres ist natuerlich voellig irrelevant wenn du einen drucker hast, der 4000 dpi schafft und du ein 4 megapixel-bild auf einen inch ausdruckst. da wirst du dann sagen, da ist es nicht weit her mit der qualitaet, weil du's nicht mehr erkennen kannst. das ganze haengt also in beiden faellen (ob analog oder digital) auch von der aufloesung deines auges ab - du kannst selbst mit 150% sehstaerke nur begrenzt gut sehen.


wo ich's uebrigens grad sehe, bzgl informationsmenge und -dichte: hier eine huebsche illustration: http://de.wikipedia.org/wiki/Bild:Wikipixel.png

um eine aussage ueber die qualitaet zu treffen muss man sich halt die verschiedenen faelle anschauen. in sachen monitore haben wir das ja schon abgehandelt, bei ausdrucken ebenso. entweder du selbst weisst nicht, was du meinst, oder du solltest mal versuchen eine frage zu formulieren (sofern es ueberhaupt noch eine gibt).
 
Mitglied seit
09.01.2002
Beiträge
5.855
Reaktionen
0
alle unklarheiten sind schon seit einer weile beseitigt.

diese illustration findest du auch bei dem von mir geposteten link.




zu deinem bsp.

man wird ein bild nie auf ein inch ausdrücken können
da inch eine eindimensionale größe ist (genau wie cm oder mm).

man muss dabei zwischen dpi horizontal und dpi vertikal unterscheiden.
das übertragen auf dein bsp: ein bild mit der größe von 1² inch hätte dann schon eine höhere qualität.
WENN qualität = dpi

wenn diese qualität auf verschwindend geringen raum ist, bringt es natürlich nicht.
aber als briefmarke zB würde das ganze noch sinn machen und die aussage dpi = qualität bleibt richtig.

der begriff dpi hat beim betrachten im computer (also in der digitalen welt) überhaupt keine daseins berechtigung.

der einzige grund warum wir hier noch diskutieren ist das typische "aneinander vorbei reden in einem forum"-syndrom (glaub ich).
 
Mitglied seit
30.07.2000
Beiträge
4.626
Reaktionen
71
Ich geb's auf.
Das, was du eingangs gefragt hast, hat überhaupt nichts mit dem zu tun, was du jetzt meinst verstanden zu haben. Warum redest du jetzt über Ausdrucke, wenn du eingangs eine Computerfrage beantwortet haben wolltest?
 
Mitglied seit
09.01.2002
Beiträge
5.855
Reaktionen
0
weil ich mit dem 10. post (der mit "die beantwortung einer frage wirft 10 neue auf.." anfängt) vermieden hab einen neuen thread zu öffnen und ich da noch dachte dpi hat was mit digitaler auflösung zu tun.
das ganze hat aber nichts miteinander zu tun und nun weiß ich das diese frage unsinnig ist eben weil der begriff dpi nur bei ausgedruckten bildern sinn macht.
 

bog

Mitglied seit
02.08.2002
Beiträge
10.121
Reaktionen
0
Ort
auf dem mutterschiff
lies dir den thread und smarty/meine postings nochmal durch. du hast definitiv nicht verstanden, wovon wir geredet haben. die aufloesung des 300dpi bildes ist etwa 3x so gross wie die des 100dpi bildes.
 
Mitglied seit
09.01.2002
Beiträge
5.855
Reaktionen
0
es ist klar das die auflösung des 300dpi bilder in etwa 3mal so groß ist wie die, des 100dpi bildes.

eben weil es 300bildpunkte pro 2,54cm sind.
allerdings hat die aussage 300bildpunkte pro 2,54cm in der digitalen welt nichts zu suchen.

aber gut, ich werde mir, bei genügend muße, alles nochmal durchlesen
 
Mitglied seit
09.01.2002
Beiträge
5.855
Reaktionen
0
und warum steht dann da 100dpi und 300dpi ?
is doch total sinnlos

das 300dpi bild is 3,5mb groß.
wenn da nun stehen würde das es eine auflösung von 4000*3000 hat, könnte ich mir vorher ungefähr vorstellen das es so groß ist.
aber bei der angabe 300dpi ?


edit: ich denke mal die leute die diese seite erstellt haben, haben keine ahnung.
oder diese bilder im scanner mit der jeweiligen dpi zahl eingescannt und das einfach nur 1 zu 1 übernommen.
 
Mitglied seit
30.07.2000
Beiträge
4.626
Reaktionen
71
Nicht ganz. Wenn man mit Printmedien arbeitet, hat man vorgefertigte Abmessungen des Papiers, auf das hinterher gedruckt werden soll, z.B. eine DIN A4 Abizeitung. Wenn ich jetzt z.B. in Pagemaker in der Abizeitung für jeden Schüler eine Beschreibung mit Bild mache, dann soll das auf jeden Fall immer 4x5 cm groß werden hinterher. Aber das bitte bei möglichst hoher Auflösung --> in möglichst hoher DPI-Zahl, wie z.B. 300dpi. Das Programm muss also bei einem x mal y großen Bild, das hinterher 4x5cm groß werden muss die dpi-Zahl "digital" festlegen. (Natürlich wird jeder vernünftige Grafiker alle Bilder auch in der Pixelzahl gleich groß machen, sodass sie alle mit derselben dpi-Zahl gedruckt werden - die dpi-Zahl ist aber auf jeden Fall auch schon im PC wichtig.)
Bei simpleren Vorhaben sagt die dpi-Zahl einem Druckprogramm ganz einfach, wie groß das Bild "sein soll". Druckst du die oben verlinkten Bilder mit irfanview, kannst du "Größe aus dpi-Zahl" angeben, und dann wird das Bild so groß ausgedruckt wie vom Autor des Bildes vorgesehen. "Die dpi-Zahl hat auf dem PC nichts zu suchen" kann man so also nicht stehen lassen.
 
Oben