Pixel (Deutsch)

Ein Pixel oder Bildelement im Kontext von Computer Vision ist der numerische Wert der skalaren (Graustufen oder Index) oder Vektorinformationen (Farbe oder Multispektral) an einem Punkt in ein Bild oder ein Bild. Ein Bild wird typischerweise als Array von Pixeln dargestellt.

In anderen Kontexten wie Displays, Kameras und Druckern kann der Begriff eines Pixels eine etwas andere Definition haben.

Vorherige Version dieser Seite aus der Geschichte

Ein Pixel (ein Portmanteau aus Bildelementen) ist einer der vielen kleinen Punkte, aus denen die Darstellung eines Bildes in einem Computer besteht Normalerweise sind die Punkte so klein und so zahlreich, dass sie beim Drucken auf Papier oder beim Anzeigen auf einem Computermonitor zu einem glatten Bild verschmelzen.]] Die Farbe und Intensität jedes Punkts wird vom Computer individuell ausgewählt, um sie darzustellen ein kleiner Bereich des Bildes. Pixel wird manchmal mit px oder pel (für Bildelement) abgekürzt, obwohl pel manchmal auf Subpixel verweist.

== Technical ==

Pixel sind im Allgemeinen Die Definition ist sehr kontextsensitiv. Beispielsweise können wir von Pixeln in einem sichtbaren Bild (z. B. einer gedruckten Seite) oder von Pixeln sprechen, die von einem oder mehreren elektronischen Signalen getragen werden, oder dargestellt durch eine oder mehrere Digita l Wert (e) oder Pixel auf einem Anzeigegerät. Diese Liste ist nicht vollständig und je nach Kontext gibt es mehrere Synonyme, die in bestimmten Kontexten korrekt sind, z. pel, sample, Bytes, Bits, Punkte, Punkte, Obermenge, Triade, Streifensatz, Fenster usw. Wir können auch abstrakt von Pixeln sprechen, insbesondere wenn Pixel als Maß für die Auflösung verwendet werden, z. 2400 Pixel pro Zoll oder 640 Pixel pro Zeile. Punkte werden häufig verwendet, um Pixel zu bezeichnen, insbesondere von Vertriebs- und Marketingmitarbeitern von Computern, und führen zu der Abkürzung DPI oder Punkte pro Zoll.

Beachten Sie, dass ein Pixel aus Unterteilen oder Unterpixeln bestehen kann. Beispielsweise kann ein Pixel auf einer Farbanzeige aus roten, grünen und blauen Unterteilen (Unterpixeln, Unterpels usw.) bestehen, von denen die drei als Triade bezeichnet werden können. Ein Pixel in einem Videosignal kann aus RGB-Teilen oder Y-, RY-, BY- oder Y-, I-, Q- oder Y-, C-, M- oder Subträger-moduliertem Y- oder Composite-Video oder separaten Signalen wie separaten Signalen der verschiedenen drei Sub-Signale bestehen -Pixel oben. Viele ungelernte Personen und manchmal auch Fachleute verwenden Pixel und Bildelement fälschlicherweise austauschbar oder verwenden Pixel, um auf Unterteile zu verweisen. Ungelernte Leute wissen es nicht besser und die Fachleute wissen es besser, aber weil die Bedeutung aus dem Kontext klar hervorgeht, tun sie dies trotzdem. Viele Wörterbücher verstehen es auch falsch.

Typische Pixel, mit denen wir uns in Laserdruckern befassen sind solche, die im Screening-Verfahren aus Subpels bestehen, solche, die im Farbdruck aus gelben, cyanfarbenen und magentafarbenen Subpels bestehen, und solche, die in Schwarz-Weiß-Druckern einfach Punkte aus schwarzem Toner sind. Typische Pixel, mit denen wir uns befassen Fernsehsysteme sind die Abtastwerte von zusammengesetzten Videosignalen (ein einzelner digitaler Wert mit Y- und Farbunterträgerkomponenten), die von drei elektronischen Signalen oder drei digitalen Werten getragen werden, entweder Y, RY, BY oder R, G, B, je nachdem, wo in der Fernsehen, das wir suchen, und solche, die auf dem Fernsehbildschirm angezeigt werden und aus R-, G- und B-Farbunterpixeln bestehen. Beachten Sie, dass Y-, RY- und BY-Werte in Fernsehanwendungen häufig als zwei elektronische Signale übertragen werden, Y in einem und Zeitmultiplex RY, BY in der anderen.

Bildelemente sind ein weiter gefasster Begriff als Pixel und außerdem sehr kontextsensitiv. Bildelemente umfassen sowohl vollständige Pixel als auch die verschiedenen Unterteile von Pixeln und andere Elemente von Bildern, die nicht pixelbezogen sind, wie z. B. DCT-Koeffizienten. Zum Beispiel ist es richtig zu sagen, dass der rote Teil eines RGB-Pixels ein Bildelement ist, aber es wird normalerweise nicht als richtig angesehen, den roten Teil als Pixel selbst zu bezeichnen (obwohl Personen, die in der Fernsehbranche nicht erfahren sind, dies häufig tun ). Wenn jemand sagt, ein Pixel sei der kleinste Teil eines Bildes, ist diese Aussage falsch, wenn das Bild aus Pixeln mit Unterteilen besteht, aber richtig, wenn das Pixel das kleinste Element ist (insbesondere in Schwarzweißbildern oder wenn a einzelnes Videosignal wurde abgetastet). Folglich kann man sagen, dass Pixel und Bildelemente im Wesentlichen gleich sind, wenn über Technologie gesprochen wird, wenn das Pixel der kleinste Teil ist, aber man kann nicht zustimmen, dass sie gleich sind, wenn über Technologie gesprochen wird, wenn das Pixel aus Unterteilen besteht. Dies verwirrt ungelernte Menschen, die die beabsichtigte Bedeutung aus dem Kontext der Verwendung nicht erfassen können. Http://www.tech-notes.tv/Glossary/Glos\%20files/p.htm Datei: Pixel-example.PNG

Dieses Beispiel zeigt ein ehemaliges Wikipedia-Logo mit einem stark vergrößerten Teil.Die verschiedenen Graustufen verschmelzen miteinander und erzeugen die Illusion eines glatten Bildes. Beachten Sie, dass manchmal (wie im Beispiel hier) die Randpixel des Texts im Schatten verkleinert werden, um bei normaler Größe ein weniger gestuftes Aussehen zu erzielen. Dies wird als Anti-Aliasing bezeichnet.

Je mehr Pixel zur Darstellung eines Bildes verwendet werden, desto näher ähnelt das Ergebnis dem Original. Die Anzahl der Pixel in einem Bild wird als Auflösung bezeichnet. Dies kann als einzelne Zahl ausgedrückt werden, wie bei einer „Drei-Megapixel“ -Digitalkamera mit drei Millionen Pixeln, oder als Zahlenpaar, wie bei einer „640 x 480-Anzeige“ mit 640 Pixeln von der Seite nach Seite und 480 von oben nach unten (wie bei einem VGA-Display) und hat daher eine Gesamtzahl von 640 × 480 = 307.200 Pixel. Die farbigen Punkte, die ein digitalisiertes Bild bilden (z. B. eine auf einer Webseite verwendete JPG-Datei), werden auch als Pixel bezeichnet. Abhängig davon, wie ein Computer ein Bild anzeigt, entsprechen diese möglicherweise nicht eins zu eins den Bildschirmpixeln. In Bereichen, in denen die Unterscheidung wichtig ist, können die Punkte in der Bilddatei als Texel bezeichnet werden. Bei der Computerprogrammierung wird ein aus Pixeln zusammengesetztes Bild als Bitmap-Bild oder Rasterbild bezeichnet. Das Wort Raster stammt aus der analogen Fernsehtechnik. Bitmap-Bilder werden verwendet, um digitales Video zu codieren und computergenerierte Kunst zu erzeugen. Da die Auflösung der Computeranzeige über das Betriebssystem des Computers angepasst werden kann, ist ein Pixel eine rein relative Messung. Die moderne Computeranzeige ist mit einer nativen Auflösung ausgelegt, die sich auf die perfekte Übereinstimmung zwischen Pixeln und Triaden bezieht. Die native Auflösung erzeugt das schärfste Bild, das auf dem Display angezeigt werden kann. Da der Benutzer jedoch die Auflösung anpassen kann, muss der Monitor in der Lage sein, die Auflösung anzuzeigen. Dies wird erreicht, indem jedes Pixel aus mehr als einer Triade gezogen wird. Dieser Vorgang führt normalerweise zu einer Unschärfe Beispiel: Eine Anzeige mit einer nativen Auflösung von 1280 × 1024 sieht am besten auf eine Auflösung von 1280 × 1024 eingestellt aus, zeigt 800 × 600 angemessen an, indem jedes Pixel mit mehr physischen Triaden gezeichnet wird, und kann nicht in 1600 × 1200 angezeigt werden überhaupt aufgrund des Fehlens physikalischer Triaden. Normalerweise wird eine nicht native Auflösung auf einer CRT besser angezeigt als auf einem LCD. Dies liegt daran, dass eine CRT Pixel in verschiedenen Größen anzeigen kann, während die pi xels eines LCD haben eine feste Größe. Nicht native Auflösungen müssen von der Software auf dem LCD-Bildschirm unter Verwendung mehrerer „physischer Pixel“ mit fester Größe angenähert werden, um ein einzelnes „logisches Pixel“ anzuzeigen. Dies führt häufig dazu, dass der Bildschirm gezackt und verschwommen aussieht. Pixel sind entweder rechteckig oder quadratisch. Eine Zahl, die als Seitenverhältnis bezeichnet wird, beschreibt die Rechtwinkligkeit eines Pixels. Zum Beispiel bedeutet ein Seitenverhältnis von 1,25: 1, dass jedes Pixel 1,25-mal breiter als hoch ist. Pixel auf Computermonitoren sind normalerweise quadratisch, aber in digitalen Videos verwendete Pixel haben nicht quadratische Formen, wie z. B. das D1-Seitenverhältnis. Jedes Pixel in einem monochromen Bild hat seine eigene Helligkeit. Null steht normalerweise für Schwarz und der maximal mögliche Wert für Weiß. In einem Acht-Bit-Bild beträgt der maximale vorzeichenlose Wert, der von acht Bit gespeichert werden kann, 255, also ist dies der Wert, der für Weiß verwendet wird. In einem Farbbild hat jedes Pixel seine eigene Helligkeit und Farbe, die normalerweise als Triplett der Intensitäten Rot, Grün und Blau dargestellt wird (siehe RGB). Vollfarb-LCD-Flachbildschirme und CRT-Monitore verwenden Pixel aus drei Subpixeln. {|

Die Anzahl der verschiedenen Farben, die durch ein Pixel dargestellt werden können, hängt von der Anzahl der Bits pro Pixel (BPP) ab. Übliche Werte sind
  • 8 bpp (256 Farben),
  • 16 bpp (65.536 Farben, bekannt als Highcolour), * 24 bpp (16.777.216 Farben, bekannt als Truecolour). Bilder, die aus 256 Farben oder weniger bestehen, werden normalerweise im Chunky- oder Planar-Format im Videospeicher des Computers gespeichert, wobei ein Pixel im Speicher ein Index in einer Liste von Farben ist, die als Palette bezeichnet werden. Diese Modi werden daher manchmal als indizierte Modi bezeichnet Es werden nur 256 Farben gleichzeitig angezeigt. Diese 256 Farben werden aus einer viel größeren Palette ausgewählt, normalerweise mit 16 Millionen Farben. Das Ändern der Werte in der Palette ermöglicht eine Art Animationseffekt. Das animierte Startlogo von Windows 95 und Windows 98 ist wahrscheinlich Das bekannteste Beispiel für diese Art von Animation. Bei Tiefen größer als 8 Bit ist die Anzahl die Summe der drei RGB-Komponenten (rot, grün und blau). Eine 16-Bit-Tiefe wird normalerweise in jeweils fünf Bit unterteilt Rot und Blau sowie sechs Bit für Grün (das Auge reagiert empfindlicher auf Grün). Eine 24-Bit-Tiefe ermöglicht 8 Bit pro Komponente. Auf einigen Systemen ist eine 32-Bit-Tiefe verfügbar. Dies bedeutet, dass jedes 24-Bit-Pixel vorhanden ist zusätzliche 8 Bits zur Beschreibung der Opazität. Bei älteren sy Stängel, 4 bpp (16 Farben) ist ebenfalls üblich. Wenn eine Bilddatei auf einem Bildschirm angezeigt wird, wird die Anzahl der Bits pro Pixel für die Rasterdatei und für die Anzeige separat ausgedrückt.Einige Rasterdateiformate bieten eine größere Bittiefenfähigkeit als andere. Das GIF-Format hat beispielsweise eine maximale Tiefe von 8 Bit, während TIFF-Dateien 48-Bit-Pixel verarbeiten können. Es gibt keine Displays, die 48 Bit Farbe anzeigen können. Daher wird diese Tiefe normalerweise für spezielle professionelle Anwendungen mit Filmscannern und -druckern verwendet. Solche Dateien werden auf einem Bildschirm mit 24-Bit-Tiefe gerendert. Andere vom Pixel abgeleitete Objekte wie Voxel (Volumenelement), Texel (Texturelement) und Surfel (Oberflächenelement) wurden für andere Computergrafikzwecke erstellt. == Subpixel == Auf Vollfarb-LCD-Flachbildschirmen und CRT-Monitoren besteht jedes Pixel aus drei Subpixeln für die drei Farben, die eng beieinander liegen. Jedes einfarbige Subpixel wird gemäß der dreifachen Zahlenreferenz aufgehellt, und aufgrund ihrer Nähe erzeugen sie die Illusion, ein speziell getöntes Pixel zu sein. Eine neuere Technik zum Erhöhen der scheinbaren Auflösung eines Farbdisplays, die als Subpixel-Rendering bezeichnet wird, verwendet die Kenntnis der Pixelgeometrie, um die drei farbigen Subpixel separat zu bearbeiten, was bei LCD-Displays mit nativer Auflösung am effektivsten zu sein scheint. Dies ist eine Form des Anti-Aliasing und wird hauptsächlich verwendet, um das Erscheinungsbild von Text zu verbessern. Microsoft ClearType ™, das in Windows XP verfügbar ist, ist ein Beispiel dafür. == Megapixel == Ein Megapixel ist 1 Million Pixel groß und wird normalerweise verwendet, um die Auflösungsfähigkeiten von Digitalkameras auszudrücken. Zum Beispiel eine Kamera, die kann Bilder mit einer Auflösung von 2048 × 1536 Pixel aufnehmen. Es wird allgemein gesagt, dass sie „3,1 Megapixel“ (2048 × 1536 = 3.145.728) haben. Einige Digitalkameras (Digicams) verwenden CCDs, die Helligkeitsstufen aufzeichnen. Ältere Digitalkameras, die Foveon nicht verwenden X3-CCDs verfügen über rote, grüne und blaue Farbfilter, sodass jedes Pixel die Helligkeit einer einzelnen Primärfarbe aufzeichnen kann. Daher ähneln die Pixel von Digitalkameras, die keine Foveon X3-CCDs verwenden, Subpixeln. Die Kamera interpoliert die Farbinformationen, um das endgültige Bild zu erstellen. Somit kann ein „x“ -Megapixel-Bild von einer Digitalkamera nur 1/4 der Farbauflösung des gleichen Bildes haben, wie es von einem Scanner aufgenommen wurde. Die Detailauflösung ist unbeeinträchtigt. Daher sieht ein Bild eines blauen oder roten Objekts im Vergleich zu demselben Objekt in Graustufen tendenziell unscharf aus. Grüne Objekte erscheinen weniger unscharf, da Grün mehr Pixel zugewiesen wird (aufgrund der erhöhten Empfindlichkeit des Auges für Grün). Siehe [1] für eine detailliertere Diskussion. == Siehe auch ==
  • Computeranzeigestandard
  • Bildauflösung
    • Voxel
    • Vektorgrafiken
    • Jagd nach dem Pixel
    • Putpixel * Elektronische Karten * Pixelkunst * Gigapixel-Bild == Externe Links == * Eine Kurzanleitung zur digitalen Videoauflösung und zu Pixel-Seitenverhältnissen

|| |}

Be the first to reply

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.