So wählen Sie ein Smartphone mit einer guten Kamera aus. Glossar: Webcams Was ist Kamerainterpolation

Sensoren sind Geräte, die nur Graustufen (Abstufungen der Lichtintensität - von komplett weiß bis komplett schwarz) erkennen. Damit die Kamera Farben unterscheiden kann, wird ein Array von Farbfiltern in einem photolithographischen Verfahren auf das Silizium aufgebracht. Bei Sensoren, die Mikrolinsen verwenden, werden Filter zwischen der Linse und dem Fotodetektor platziert. In Scannern, die trilineare CCDs verwenden (drei benachbarte CCDs, die jeweils auf Rot, Blau und Grün reagieren) oder High-End-Digitalkameras, die ebenfalls drei Sensoren verwenden, wird das Licht seiner spezifischen Farbe auf jeden Sensor gefiltert. (Beachten Sie, dass einige Kameras mit mehreren Sensoren Kombinationen mehrerer Farben in Filtern anstelle der standardmäßigen drei verwenden). Bei Geräten mit einem einzigen Sensor, wie den meisten Digitalkameras für Verbraucher, werden jedoch Farbfilterarrays (CFA) verwendet, um verschiedene Farben zu verarbeiten.

Damit jedes Pixel eine eigene Grundfarbe hat, wird darüber ein Filter der entsprechenden Farbe gelegt. Bevor die Photonen auf ein Pixel treffen, passieren sie zunächst einen Filter, der nur die Wellen ihrer eigenen Farbe durchlässt. Licht anderer Länge wird einfach vom Filter absorbiert. Wissenschaftler haben festgestellt, dass jede Farbe im Spektrum durch Mischen von nur wenigen Primärfarben erhalten werden kann. Es gibt drei solcher Farben im RGB-Modell.

Für jede Anwendung werden unterschiedliche Farbfilterarrays entwickelt. Bei den meisten Digitalkamerasensoren sind jedoch die Bayer-Musterfilterarrays am beliebtesten. Diese Technologie wurde in den 70er Jahren von Kodak erfunden, als es auf dem Gebiet der räumlichen Trennung forschte. Bei diesem System sind die Filter abwechselnd gestaffelt und die Anzahl der Grünfilter ist doppelt so groß wie die der Rot- oder Blaufilter. Die Reihenfolge ist so, dass die roten und blauen Filter zwischen den grünen positioniert sind.

Dieses Mengenverhältnis erklärt sich durch die Struktur des menschlichen Auges - es ist empfindlicher für grünes Licht. Und das Schachbrettmuster sorgt für die gleichen Farbbilder, egal wie Sie die Kamera halten (vertikal oder horizontal). Beim Auslesen von Informationen von einem solchen Sensor werden die Farben nacheinander in Zeilen aufgezeichnet. Die erste Zeile sollte BGGBBG sein, die nächste Zeile sollte GRGRGR sein usw. Diese Technologie wird als sequentielles RGB bezeichnet.

Bei CCD-Kameras erfolgt die Zusammenführung aller drei Signale nicht auf dem Sensor, sondern im bildgebenden Gerät, nachdem das Signal von analog in digital umgewandelt wurde. Bei CMOS-Sensoren kann diese Ausrichtung direkt auf dem Chip erfolgen. In jedem Fall werden die Primärfarben jedes Filters basierend auf den Farben der benachbarten Filter mathematisch interpoliert. Beachten Sie, dass die meisten Punkte in jedem Bild eine Mischung aus Primärfarben sind und nur wenige wirklich reines Rot, Blau oder Grün darstellen.

Um beispielsweise den Einfluss benachbarter Pixel auf die Farbe der Mitte zu bestimmen, verarbeitet die lineare Interpolation eine 3x3-Pixelmatrix. Nehmen Sie zum Beispiel den einfachsten Fall - drei Pixel - mit Blau-, Rot- und Blaufiltern, angeordnet in einer Zeile (BRB). Angenommen, Sie versuchen, den resultierenden Farbwert eines roten Pixels zu erhalten. Wenn alle Farben gleich sind, wird die Farbe des zentralen Pixels mathematisch als zwei Teile Blau zu einem Teil Rot berechnet. Tatsächlich sind sogar einfache lineare Interpolationsalgorithmen viel komplexer, sie berücksichtigen die Werte aller umgebenden Pixel. Ist die Interpolation schlecht, dann bekommt man Zähne an den Grenzen des Farbwechsels (oder es treten Farbartefakte auf).

Beachten Sie, dass das Wort "Auflösung" im Bereich der digitalen Grafiken falsch verwendet wird. Puristen (oder Pedanten, was auch immer Sie bevorzugen), die mit Fotografie und Optik vertraut sind, wissen, dass die Auflösung ein Maß für die Fähigkeit des menschlichen Auges oder Instruments ist, zwischen einzelnen Linien auf einem Auflösungsraster wie dem unten gezeigten ISO-Raster zu unterscheiden. Aber in der Computerindustrie ist es üblich, die Anzahl der Pixel nach Auflösung zu bezeichnen, und da dies üblich ist, werden wir auch dieser Konvention folgen. Tatsächlich nennen sogar die Entwickler die Pixelanzahl bei der Sensorauflösung.


Lass uns zählen?

Die Größe der Bilddatei hängt von der Anzahl der Pixel (Auflösung) ab. Je mehr Pixel, desto größer die Datei. Beispielsweise nimmt das Bild von VGA-Standardsensoren (640x480 oder 307200 aktive Pixel) in unkomprimierter Form etwa 900 Kilobyte ein. (307200 Pixel mal 3 Byte (R-G-B) = 921600 Byte, was ungefähr 900 Kilobyte entspricht) Ein Bild eines 16-MP-Sensors nimmt etwa 48 Megabyte ein.

Es scheint, dass es so ist - die Anzahl der Pixel im Sensor zu zählen, um die Größe des resultierenden Bildes zu bestimmen. Die Kamerahersteller geben jedoch eine Reihe unterschiedlicher Zahlen an und behaupten jedes Mal, dass dies die wahre Auflösung der Kamera ist.

Die Gesamtpixel umfassen alle physisch auf dem Sensor vorhandenen Pixel. Als aktiv gelten jedoch nur diejenigen, die an der Bildaufnahme beteiligt sind. Etwa fünf Prozent aller Pixel nehmen nicht an der Bildaufnahme teil. Dies sind entweder defekte Pixel oder Pixel, die von der Kamera für einen anderen Zweck verwendet werden. Beispielsweise können Masken existieren, um das Niveau des Dunkelstroms zu bestimmen oder das Seitenverhältnis zu bestimmen.

Seitenverhältnis - das Verhältnis zwischen Breite und Höhe des Sensors. Bei einigen Sensoren, beispielsweise mit einer Auflösung von 640x480, beträgt dieses Verhältnis 1,34:1, was dem Seitenverhältnis der meisten Computermonitore entspricht. Das bedeutet, dass die Bilder, die von solchen Sensoren erstellt werden, ohne Vorschneiden genau auf den Bildschirm passen. Bei vielen Kameras entspricht das Seitenverhältnis dem Format des herkömmlichen 35-mm-Films, bei dem das Verhältnis 1: 1,5 beträgt. Auf diese Weise können Sie Bilder in Standardgröße und -form aufnehmen.


Auflösungsinterpolation

Neben der optischen Auflösung (der tatsächlichen Fähigkeit von Pixeln, auf Photonen zu reagieren) gibt es auch eine Auflösung, die durch einen Software- und Hardwarekomplex unter Verwendung von Interpolationsalgorithmen erhöht wird. Wie bei der Farbinterpolation analysiert die Auflösungsinterpolation die Daten benachbarter Pixel mathematisch. In diesem Fall werden durch Interpolation Zwischenwerte erzeugt. Ein solches "Einbetten" neuer Daten kann ziemlich reibungslos erfolgen, während die interpolierten Daten etwas dazwischen liegen, zwischen den echten optischen Daten. Aber manchmal können während eines solchen Vorgangs verschiedene Interferenzen, Artefakte und Verzerrungen auftreten, wodurch sich die Bildqualität nur verschlechtert. Daher glauben viele Pessimisten, dass die Auflösungsinterpolation keineswegs eine Möglichkeit zur Verbesserung der Bildqualität ist, sondern nur eine Methode zum Vergrößern von Dateien. Achten Sie bei der Geräteauswahl auf die angegebene Auflösung. Seien Sie nicht zu glücklich über hohe interpolierte Auflösung. (Es ist als interpoliert oder erweitert gekennzeichnet).

Ein weiterer Bildverarbeitungsprozess auf Softwareebene ist das Subsampling. Tatsächlich ist dies der umgekehrte Vorgang der Interpolation. Dieser Prozess wird im Stadium der Bildverarbeitung durchgeführt, nachdem die Daten von der analogen in die digitale Form umgewandelt wurden. Dadurch werden die Daten der verschiedenen Pixel gelöscht. Bei CMOS-Sensoren kann dieser Vorgang auf dem Chip selbst ausgeführt werden, wodurch das Lesen bestimmter Pixelzeilen vorübergehend deaktiviert oder nur Daten von ausgewählten Pixeln gelesen werden können.

Downsampling hat zwei Funktionen. Erstens, um die Daten zu komprimieren - um mehr Bilder einer bestimmten Größe im Speicher zu speichern. Je kleiner die Pixelanzahl, desto kleiner die Dateigröße und desto mehr Bilder passen auf eine Speicherkarte oder in den internen Speicher des Geräts und desto seltener müssen Sie Fotos auf einen Computer herunterladen oder Speicherkarten wechseln.

Die zweite Funktion dieses Prozesses besteht darin, Bilder einer bestimmten Größe für bestimmte Zwecke zu erstellen. Kameras mit einem 2MP-Sensor sind ziemlich schwierig, ein Standardfoto von 8 x 10 Zoll aufzunehmen. Wenn Sie jedoch versuchen, ein solches Foto per Post zu versenden, wird der Brief merklich größer. Durch Downsampling können Sie das Bild so bearbeiten, dass es auf den Monitoren Ihrer Freunde gut aussieht (wenn Sie sich nicht das Ziel für Details setzen) und gleichzeitig auch auf Rechnern mit langsamen Verbindungen schnell genug gesendet wird.

Da wir nun mit den Prinzipien von Sensoren vertraut sind, wissen wir, wie das Bild entsteht, schauen wir etwas tiefer und gehen auf komplexere Situationen ein, die in der digitalen Fotografie auftreten.

Was ist Kamerainterpolation?

Alle modernen Smartphones verfügen über eingebaute Kameras, mit denen Sie die erhaltenen Bilder mit speziellen Algorithmen vergrößern können. Aus mathematischer Sicht ist Interpolation ein Verfahren zum Erkennen von Zwischenwerten einer Zahl basierend auf einem verfügbaren Satz diskreter Parameter.

Der Interpolationseffekt ist dem einer Lupe ähnlich. Smartphone-Software erhöht weder die Klarheit noch die Schärfe des Bildes. Es erweitert das Bild einfach auf die gewünschte Größe. Manche Smartphone-Hersteller schreiben auf der Verpackung ihrer Produkte, dass die verbaute Kamera eine Auflösung von „bis zu 21 Megapixel“ hat. Am häufigsten sprechen wir von einem interpolierten Bild, das von geringer Qualität ist.

Interpolationsarten

Nächster Nachbar Methode

Die Methode gilt als grundlegend und gehört zur Kategorie der einfachsten Algorithmen. Pixelparameter werden basierend auf einem nächsten Punkt bestimmt. Als Ergebnis mathematischer Berechnungen wird die Größe jedes Pixels verdoppelt. Die Verwendung der Nearest-Pixel-Methode erfordert nicht viel Rechenleistung.

Bilineare Interpolation

Der Pixelwert wird basierend auf den Daten über die vier nächsten von der Kamera erfassten Punkte bestimmt. Das Ergebnis der Berechnungen ist eine gewichtete Mittelung der Parameter der 4 Pixel, die den Originalpunkt umgeben. Mit der bilinearen Interpolation können Sie Übergänge zwischen Farbgrenzen von Objekten glätten. Bilder, die unter Verwendung dieses Verfahrens erhalten wurden, sind in der Qualität den Bildern, die durch das nächste Pixelverfahren interpoliert wurden, signifikant überlegen.

Bikubische Interpolation

Der Farbwert des gewünschten Punktes wird anhand der Parameter der 16 nächsten Pixel berechnet. Die Punkte, die am nächsten liegen, erhalten das maximale Gewicht bei der Berechnung. Die bikubische Interpolation wird von der Software moderner Smartphones aktiv verwendet und ermöglicht es Ihnen, ein ziemlich hochwertiges Bild zu erhalten. Die Anwendung des Verfahrens erfordert eine erhebliche Leistung des Zentralprozessors und eine hohe Auflösung der eingebauten Kamera.

Um keine unnötigen Fragen zu stellen:

Vorteile und Nachteile

Science-Fiction-Filme zeigen oft, wie eine Kamera das Gesicht eines Passanten einfängt und digitale Informationen an einen Computer überträgt. Die Maschine vergrößert das Bild, erkennt das Foto und findet die Person in der Datenbank. Im wirklichen Leben fügt die Interpolation einem Bild keine neuen Details hinzu. Es vergrößert einfach das Originalbild mit einem mathematischen Algorithmus und verbessert seine Qualität auf ein akzeptables Niveau.

Interpolationsfehler

Die häufigsten Fehler, die beim Skalieren von Bildern auftreten, sind:

  • Schritt;
  • Unschärfe;
  • Halo-Effekt.

Alle Interpolationsalgorithmen ermöglichen die Aufrechterhaltung eines gewissen Gleichgewichts der aufgelisteten Fehler. Das Reduzieren des Aliasing führt notwendigerweise zu einer Zunahme der Bildunschärfe und des Halo-Erscheinungsbildes. Eine Erhöhung der Bildschärfe führt zu einer Zunahme der Unschärfe des Bildes usw. Zusätzlich zu den aufgeführten Fehlern kann die Interpolation verschiedene grafische "Rauschen" verursachen, die bei maximaler Vergrößerung des Bildes beobachtet werden können. Wir sprechen über das Auftreten von "zufälligen" Pixeln und Texturen, die für das jeweilige Motiv ungewöhnlich sind.

Die Interpolation von Bildern tritt in allen digitalen Fotografien zu einem bestimmten Zeitpunkt auf, sei es Entmatrisierung oder Skalierung. Dies geschieht immer dann, wenn Sie die Größe eines Bildes ändern oder von einem Pixelraster zu einem anderen aufklappen. Eine Bildgrößenanpassung ist erforderlich, wenn Sie die Anzahl der Pixel erhöhen oder verringern müssen, während eine Neupositionierung in einer Vielzahl von Situationen erfolgen kann: Korrigieren von Linsenverzerrungen, Ändern der Perspektive oder Drehen eines Bildes.


Selbst wenn das gleiche Bild in der Größe geändert oder gescannt wird, können die Ergebnisse je nach Interpolationsalgorithmus erheblich variieren. Da jede Interpolation nur eine Annäherung ist, verliert das Bild bei jeder Interpolation an Qualität. Dieses Kapitel soll ein besseres Verständnis dafür vermitteln, was das Ergebnis beeinflusst - und Ihnen dabei helfen, durch Interpolation verursachte Bildqualitätsverluste zu minimieren.

Konzept

Das Wesen der Interpolation besteht darin, verfügbare Daten zu verwenden, um erwartete Werte an unbekannten Punkten zu erhalten. Wenn Sie beispielsweise wissen wollten, wie hoch die Temperatur mittags war, diese aber um 11 Uhr und um 13 Uhr gemessen hat, können Sie ihren Wert durch lineare Interpolation erraten:

Wenn Sie um halb elf eine zusätzliche Dimension hätten, könnten Sie feststellen, dass die Temperatur vor Mittag schneller anstieg, und diese zusätzliche Dimension für die quadratische Interpolation verwenden:

Je mehr Temperaturmessungen Sie um die Mittagszeit haben, desto komplexer (und voraussichtlich genauer) kann Ihr Interpolationsalgorithmus sein.

Beispiel zur Größenänderung von Bildern

Die Bildinterpolation arbeitet zweidimensional und versucht anhand der Werte der umgebenden Pixel die beste Annäherung in Farbe und Helligkeit eines Pixels zu erreichen. Das folgende Beispiel veranschaulicht, wie die Skalierung funktioniert:

planare Interpolation
Original Vor nach keine Interpolation

Im Gegensatz zu Schwankungen der Lufttemperatur und dem idealen Gradienten oben können sich Pixelwerte von Punkt zu Punkt viel dramatischer ändern. Wie beim Temperaturbeispiel gilt: Je mehr Sie über die umgebenden Pixel wissen, desto besser funktioniert die Interpolation. Aus diesem Grund verschlechtern sich die Ergebnisse schnell, wenn das Bild gestreckt wird, und außerdem kann die Interpolation dem Bild niemals Details hinzufügen, die nicht vorhanden sind.

Beispiel für die Bilddrehung

Die Interpolation erfolgt auch jedes Mal, wenn Sie ein Bild drehen oder die Perspektive ändern. Das vorherige Beispiel hat getäuscht, da dies ein Sonderfall ist, in dem Interpolatoren normalerweise gut funktionieren. Das folgende Beispiel zeigt, wie schnell Bilddetails verloren gehen können:

Bildverschlechterung
Original 45 ° drehen 90° drehen
(kein Verlust)
2 Umdrehungen 45 ° 6 Umdrehungen bei 15 °

Eine Drehung um 90 ° führt zu keinem Verlust, da keine Pixel an der Grenze zwischen den beiden platziert (und daher geteilt) werden müssen. Beachten Sie, wie viele Details bei der ersten Runde verloren gehen und wie die Qualität bei der nächsten weiter abnimmt. Das bedeutet, dass man Vermeiden Sie Drehungen so weit wie möglich; Wenn ein ungleichmäßiger Rahmen eine Drehung erfordert, sollten Sie ihn nicht mehr als einmal drehen.

Die obigen Ergebnisse verwenden den sogenannten "bikubischen" Algorithmus und zeigen eine signifikante Qualitätsverschlechterung. Beachten Sie, wie der Gesamtkontrast mit abnehmender Farbintensität abnimmt und wie dunkle Lichthöfe um das Hellblau herum erscheinen. Die Ergebnisse können je nach Interpolationsalgorithmus und abgebildetem Motiv deutlich besser sein.

Arten von Interpolationsalgorithmen

Die allgemein akzeptierten Interpolationsalgorithmen können in zwei Kategorien unterteilt werden: adaptiv und nicht adaptiv. Adaptive Methoden variieren je nach Interpolationsthema (scharfe Kanten, glatte Textur), während nicht adaptive Methoden alle Pixel gleich behandeln.

Nicht adaptive Algorithmen umfassen: Nächster-Nachbar-Methode, bilinear, bikubisch, Splines, Kardinalsinusfunktion (sinc), Lanczos-Methode und andere. Je nach Komplexität verwenden sie 0 bis 256 (oder mehr) zusammenhängende Pixel für die Interpolation. Je mehr benachbarte Pixel sie enthalten, desto genauer können sie sein, dies wird jedoch auf Kosten einer erheblichen Verlängerung der Verarbeitungszeit erreicht. Diese Algorithmen können sowohl für das Entpacken als auch für die Bildskalierung verwendet werden.

Adaptive Algorithmen enthält viele der kommerziellen Algorithmen in lizenzierter Software wie Qimage, PhotoZoom Pro, Genuine Fractals und anderen. Viele von ihnen verwenden verschiedene Versionen ihrer Algorithmen (basierend auf Pixel-für-Pixel-Analyse), wenn sie das Vorhandensein einer Grenze erkennen - um unansehnliche Interpolationsfehler an den Stellen zu minimieren, an denen sie am sichtbarsten sind. Diese Algorithmen wurden in erster Linie entwickelt, um fehlerfreie Details in vergrößerten Bildern zu maximieren, sodass einige von ihnen nicht zum Drehen oder Ändern der Perspektive eines Bildes geeignet sind.

Nächster Nachbar Methode

Es ist der einfachste aller Interpolationsalgorithmen und erfordert die geringste Verarbeitungszeit, da er nur ein Pixel berücksichtigt - dasjenige, das dem Interpolationspunkt am nächsten liegt. Als Ergebnis wird jedes Pixel nur größer.

Bilineare Interpolation

Bei der bilinearen Interpolation wird ein 2x2-Quadrat bekannter Pixel betrachtet, das das Unbekannte umgibt. Der gewichtete Durchschnitt dieser vier Pixel wird als interpolierter Wert verwendet. Dadurch wirken die Bilder deutlich glatter als das Ergebnis der Nearest Neighbour Methode.

Das Diagramm auf der linken Seite bezieht sich auf den Fall, in dem alle bekannten Pixel gleich sind, also ist der interpolierte Wert einfach ihre Summe dividiert durch 4.

Bikubische Interpolation

Die bikubische Interpolation geht noch einen Schritt weiter als die bilineare Interpolation und berücksichtigt ein Array von 4x4 umgebenden Pixeln - nur 16. Da sie sich in unterschiedlichen Abständen vom unbekannten Pixel befinden, werden die nächsten Pixel bei der Berechnung stärker gewichtet. Die bikubische Interpolation erzeugt deutlich schärfere Bilder als die beiden vorherigen Methoden und ist in Bezug auf Verarbeitungszeit und Ausgabequalität wohl optimal. Aus diesem Grund ist es für viele Bildbearbeitungsprogramme (einschließlich Adobe Photoshop), Druckertreiber und die integrierte Kamerainterpolation zum Standard geworden.

Interpolation höherer Ordnung: Splines und Sinc

Es gibt viele andere Interpolatoren, die mehr umgebende Pixel berücksichtigen und daher rechenintensiver sind. Diese Algorithmen umfassen Splines und Kardinalsinus (sinc) und behalten die meisten Bildinformationen nach der Interpolation bei. Daher sind sie äußerst nützlich, wenn ein Bild mehrere Drehungen oder Perspektivenwechsel in separaten Schritten erfordert. Für einzelne Vergrößerungen oder Drehungen ergeben solche Algorithmen höherer Ordnung jedoch eine geringe visuelle Verbesserung mit einer erheblichen Verlängerung der Verarbeitungszeit. Darüber hinaus schneidet der Kardinalsinusalgorithmus in einigen Fällen bei einem glatten Abschnitt schlechter ab als die bikubische Interpolation.

Beobachtete Interpolationsfehler

Alle nicht adaptiven Interpolatoren versuchen, das optimale Gleichgewicht zwischen drei unerwünschten Defekten zu finden: Grenzhalos, Unschärfe und Aliasing.

Selbst die fortschrittlichsten nicht-adaptiven Interpolatoren sind immer gezwungen, einen der oben genannten Fehler auf Kosten der anderen beiden zu vergrößern oder zu verkleinern - als Ergebnis wird mindestens einer von ihnen wahrnehmbar. Beachten Sie, wie der Grenzhof aussieht Entschärfungsfehler bei unscharfer Maske und wie es zunimmt scheinbare Schärfe durch Verbesserung der Klarheit.

Adaptive Interpolatoren können die oben beschriebenen Fehler erzeugen oder auch nicht, aber sie können auch für das Originalbild ungewöhnliche Texturen oder einzelne Pixel in großen Maßstäben erzeugen:

Andererseits können auch einige "Defekte" adaptiver Interpolatoren als Vorteile angesehen werden. Da das Auge erwartet, in fein strukturierten Bereichen wie Blattwerkdetails bis ins kleinste Detail zu sehen, können solche Designs (bei bestimmten Materialien) das Auge aus der Ferne täuschen.

Glätten

Anti-Aliasing oder Anti-Aliasing ist ein Verfahren, das versucht, das Auftreten von gezackten oder gezackten diagonalen Rändern zu minimieren, die Text oder Bildern ein grobes digitales Aussehen verleihen:


300%

Anti-Aliasing entfernt diese Zacken und erweckt den Eindruck weicherer Kanten und höherer Auflösung. Es berücksichtigt, wie stark der ideale Rand benachbarte Pixel überlappt. Ein abgestufter Rahmen wird einfach ohne Zwischenwert auf- oder abgerundet, während ein geglätteter Rahmen einen Wert proportional dazu erzeugt, wie viel des Rahmens in jedes Pixel fällt:

Eine wichtige Überlegung beim Vergrößern von Bildern besteht darin, übermäßiges Aliasing aufgrund von Interpolation zu vermeiden. Viele adaptive Interpolatoren erkennen das Vorhandensein von Grenzen und passen sich an, um Aliasing zu minimieren, während sie beibehalten Schärfe der Grenze... Da der geglättete Rand in höherer Auflösung Informationen über seine Position enthält, ist es durchaus möglich, dass ein leistungsfähiger adaptiver (randbestimmender) Interpolator den Rand beim Heranzoomen zumindest teilweise rekonstruieren kann.

Optischer und digitaler Zoom

Viele kompakte Digitalkameras können sowohl einen optischen als auch einen digitalen Zoom (Zoom) ausführen. Der optische Zoom wird erreicht, indem das Zoomobjektiv so bewegt wird, dass das Licht verstärkt wird, bevor es auf den digitalen Sensor trifft. Im Gegensatz dazu verschlechtert der digitale Zoom die Qualität, da er das Bild einfach interpoliert, nachdem der Sensor es empfangen hat.


optischer Zoom (10x) Digitalzoom (10x)

Obwohl ein Foto mit digitalem Zoom die gleiche Pixelanzahl enthält, ist die Detailgenauigkeit deutlich geringer als bei optischem Zoom. Auf Digitalzoom soll fast komplett verzichtet werden minus, wenn es hilft, ein entferntes Motiv auf dem LCD-Bildschirm Ihrer Kamera anzuzeigen. Auf der anderen Seite, wenn Sie normalerweise in JPEG fotografieren und das Bild später zuschneiden und vergrößern möchten, hat der Digitalzoom den Vorteil, dass er interpoliert wird, bevor Kompressionsartefakte eingeführt werden. Wenn Sie den digitalen Zoom zu oft benötigen, kaufen Sie einen Telekonverter oder noch besser ein Objektiv mit langer Brennweite.

Kamerainterpolation, warum und was ist das?

  1. Geben Sie 8 Mp Matrix und 13 Mp das Bild selbst ein
  2. Um keine unnötigen Drähte mit der Matrix zu verdrillen, werden Megapuxel gleich dabei aufgeblasen.
  3. Dies ist der Fall, wenn ein Pixel in mehrere unterteilt wird, sodass das Bild beim Vergrößern nicht quadratisch ist. Fügt keine echte Auflösung hinzu. Verschmiert die Zeichnung.
  4. Interpolation findet einen unbekannten Wert aus bekannten Werten.
    Die Qualität der Interpolation im Foto (Annäherung an das Original) hängt von einer gut entwickelten Software ab
  5. Der Kamerasensor hat 8 MP und das Bild ist auf 13 MP gestreckt. Unzweideutig trennen. Die Fotos werden 13 MP haben, aber die Qualität wird wie 8 MP sein (es wird mehr digitales Rauschen geben).
  6. Die reale Auflösung liegt dort in Zeilen pro mm ohne Unschärfe jedenfalls bei 2MP.
  7. Naja nur aufgeblähte Pixel
    Beispielsweise steht bei vielen Webkameras geschrieben, dass 720 usw. man sich die Einstellungen anschaut und es 240x320 . gibt
  8. Interpolation – im Allgemeinen – die Verwendung einer weniger komplexen Funktion bei der Berechnung, um ein möglichst absolutes Ergebnis zu erzielen, das nur mit Hilfe möglichst genauer und korrekter Maßnahmen erreichbar ist.
    In dieser Version - vereinfacht gesagt, loben sich Programmierer, dass die mit dem Telefon aufgenommenen Bilder sich geringfügig von denen mit komplexeren Geräten - Kameras - unterscheiden.
  1. Loading ... welche Matrizen sind besser als Live MOS oder CMOS ??? "Live MOS Sensor ist der Handelsname für eine Vielzahl von Bildsensoren, die von Panasonic entwickelt wurden und auch in Leica-Produkten verwendet werden ...
  2. Loading ... was ist eine Fresnel-Linse Das Kopieren von Wikipedia-Artikeln ohne Angabe der Quelle ist nicht gut. 1. Fresnel-Linse 2. Konventionelle Linse Der Hauptvorteil einer Fresnel-Linse ist ihre e ...
  3. Wird geladen ... Sagen Sie mir, ist die Fujifilm FinePix S4300 26-ZOOM-Kamera semiprofessionell? Es ist eine fortschrittliche Seifenschale, Supurzum. für Fotosessions ungeeignet. schau hier http://torg.mail.ru/digitalphoto/all/?param280=1712,1711amp;price=22000,100000 Verdammt, diese großen ...
  4. Loading ... Was ist der Unterschied zwischen einer DSLR und einem optischen Sucher? was ist besser? Verspiegelter Sucher - Die Visierung erfolgt über ein Spiegelsystem, das Licht geht direkt durch das Objektiv selbst und ...
  5. Loading ... Was ist der Unterschied zwischen CMOS-Sensoren und CCD-Sensoren in CCD-Kameras? CMOS Matrix (CMOS) ist ein digitales Gerät, kann also mit allen anderen gut auf einem Chip montiert werden ...
Fortsetzung des Themas:
Apfel

0 Viele Leute chatten gerne in Foren und stoßen oft auf den unbekannten Begriff Moder. Daher fragen manche Leute, wer ist Moder oder was bedeutet Moder? Ich möchte empfehlen...