Videokamera
aus Wikipedia, der freien Enzyklopädie
Eine Videokamera ist ein Gerät zur Bildaufnahme und dessen fortlaufender Umwandlung in elektrische Signale. Im Gegensatz zur Filmkamera, die auf fotografischer Technik basiert, steht das Bildsignal sofort zur Verfügung.
Zur Aufzeichnung des Tones ist oft ein Mikrofon integriert .
Eine Videokamera mit integriertem Videorekorder nennt man Camcorder.
Inhaltsverzeichnis |
[Bearbeiten] Bildaufnehmer
[Bearbeiten] Nipkow-Scheibe
Die ersten Kameras basierten auf der sogenannten Nipkow-Scheibe. Das ist eine runde Scheibe mit etwa 30 Löchern, die in Form einer Spirale angeordnet sind. Das Bild wird auf einen rechteckigen Bereich der Scheibe projiziert. Die Bahn der Löcher in diesem Bereich bewirkt eine zeilenweise Abtastung des Bildes: ein Loch wandert immer in eine Richtung, um am Rand zu verschwinden. Dann taucht das nächste Loch etwas weiter unten auf und tastet die nächste Zeile ab. Das gesamte hindurchtretende Licht liefert somit das Videosignal und wird mit einem schnellen Fotoempfänger (Fotozelle) aufgenommen.
Mehr Informationen zu diesem Thema findet man unter Mechanisches Fernsehen.
[Bearbeiten] Ikonoskop
Das Ikonoskop (griechisch) ist eine Fernsehaufnahmeröhre, die von Wladimir K. Zworykin 1923 erfunden wurde und die eine Schicht aus mikroskopisch kleinen Photozellen enthält, die durch einen Elektronenstrahl abgetastet werden. Das Ikonoskop löste mechanische Abtastverfahren ab. Später wurde die Ikonoskoptechnik weiter verbessert und noch bis in die 1990er Jahre verwendet.
[Bearbeiten] Vidicon
Das Vidicon-System arbeitet ebenfalls mit einer Kathodenstrahlröhre und kommt auch heute noch bei Spezialanwendungen (Medizin, strahlenbelastete Orte) zum Einsatz.
[Bearbeiten] CCD-Chip
CCDs stellten einen wichtigen Schritt zur Verkleinerung von Videokameras dar. Inzwischen übertreffen sie die Qualität von Ikonoskopen deutlich. Bei besonders hochwertigen Kameras werden hierzutage die Chips stark abgekühlt. Dies ermöglicht extrem rauscharme Bilder, deren Rauschen selbst nach einer Verstärkung um 16 dB kaum wahrnehmbar sein soll. Billige Kameras haben keine Blende, sondern können die Ladungszeit als Helligkeitsregulierung verwenden.
Je größer die Fläche des eingesetzten Chips, desto mehr Licht kann "eingefangen" werden. Dadurch steigt die Lichtempfindlichkeit des eingesetzten Chips auch bei schlechten Lichtverhältnissen und das Bildrauschen verringert sich. Gängige Größen sind 1/6",1/4" ,1/3,4" oder 1/3" (1"=2,54 cm). Doch Vorsicht ist bei der angegebenen Größe des Chips geboten. Die Pixelangabe auf dem Gehäuse bezieht sich meist auf die reine Fotofunktion, welche Anzahl für die Filmerei verwendet wird, verschweigt der Hersteller gerne und selbst auf den Produktseiten lassen sich diese Angaben nicht finden. Kommt auch noch ein digitaler Bildstabilisator ins Spiel, bleibt von der angegebenen Pixelanzahl oft nicht mehr viel übrig. Interessant ist hier die Netto-Pixelmenge, die tatsächlich zum Filmen verwendet wird. Es kommen sowieso "nur" 414.000 Pixel auf das Speichermedium, da die europäische Norm PAL-Format ist und dieses 720 x 576 Pixel vorschreibt (ca. 414.000 Pixel). Der Rest wird für den digitalen Stabilisator und die Fotofunktion verwendet.
Achten Sie darauf, dass nicht zu viele Pixel auf einem CCD gequetscht sind; sie lassen das Bild lichtschwächer werden.
[Bearbeiten] CMOS-Sensoren
Diese Art der Bildaufnehmer, auch als Active Pixel Sensor bekannt, nutzt die Complementary Metal Oxide Semiconductor-Technik. Diese Sensoren waren anfangs vor allem in sehr billigen Kameras zu finden. Nach der inzwischen stattgefundenen Weiterentwicklung werden sie aber auch für anspruchsvolle Beobachtungsaufgaben und für die Bildverarbeitung genutzt. Der CMOS-Chip nimmt das Bild kontinuierlich auf, kann also zu beliebiger Zeit ausgelesen werden. Die Zahl der Bilder pro Sekunde hängt davon ab, wie hoch die Pixel-Frequenz und die Zahl der Pixel des ausgelesenen Bildausschnittes sind, liegt aber höher als beim CCD-Chip. Einzelne Pixel können in ihrer Funktionalität programmiert und einzeln oder in Gruppen ausgelesen werden. Die Dynamik (die Spannweite zwischen dem schwächsten und dem stärksten noch einwandfrei aufgenommenen Signal) des CMOS-Chips liegt bedeutend höher als beim CCD-Chip, extreme Beleuchtungssituationen (z.B. aufgeblendete Autoscheinwerfer nachts in einem unbeleuchteten Tunnel) können mit bisher nicht erreichter Präzision dargestellt werden. Zudem zeichnet sich die CMOS-Technik durch geringen Stromverbrauch und hohe Bildübertragungsraten aus (bis zu 300 Kb/s gegenüber 100 Kb/s bei der CCD-Technik). Trotz dieser beachtlichen Vorzüge ist die CMOS-Technik der CCD-Technik nicht in jeder Beziehung überlegen, so ist z.B. das Signal-Rausch-Verhältnis schlechter und der menschliche Betrachter empfindet die Bildqualität als deutlich schlechter, als er dies von CCD-Kameras gewöhnt ist. Bei manchen Messaufgaben (Bildverarbeitung) spielt dies aber keine Rolle.
[Bearbeiten] Farbtrennung
Um ein farbiges Videosignal zu erzeugen, benötigt man drei Farbkomponenten (Rot, Grün, Blau). Auch als RGB, additive Farbmischung und Lichtfarben aus der Farblehre bekannt.
[Bearbeiten] Auftrennung in 3 monochrome Bilder
Die offensichtlichste Weise, die Farbbtrennung zu erreichen, ist es, drei Bildaufnehmer für je eine Farbe zu verwenden und sie über eine Optik zu koppeln, die mit Filtern auch die Farbtrennung übernimmt. Im Zeitalter der Vidicons war das Verfahren gebräuchlich. Heutige 3-Chip-Kameras verteilen das durch das Objektiv fallende Licht über Prismen bzw. Teilerspiegel auf drei monochrome CCD-Chips. Durch Farbfilter wird erreicht, dass ein Chip die Grünanteile aufnimmt, die anderen beiden jeweils rot bzw. blau. Dieses Verfahren führt zu sehr hochwertigen Bildern und wird daher im professionellen Bereich verwendet.
[Bearbeiten] sequenzielle Farbtrennung
Vorher experimentierte man mit sequenzieller Farbtrennung. Ein sich drehender Farbfilter filterte abwechselnd die drei Farbkomponenten heraus. Dreht sich ein gleicher Filter synchron beim Empfänger vor einer weiß leuchtenden Wiedergaberöhre, so entsteht dort für das Auge ein Farbbild. Diese Versuche wurden aber bald eingestellt. In der Raumfahrt verwendet man solche Farbfilter noch, da hier sehr viele Frequenzbereiche benötigt werden.
[Bearbeiten] Farbtrennung auf Pixelebene
Insbesondere bei preiswerten Kameras wird ein anderes Verfahren verwendet. Der Bildaufnehmer-Chip trägt vor jedem Pixel abwechselnd Farbfilter der jeweiligen Farbe, sodass unterschiedliche nebeneinanderliegende Bildpunkte unterschiedliche Farbanteile aufnehmen. Eine Elektronik erzeugt daraus ein Farb-Videosignal. Die erforderliche höhere Pixelzahl (pro Bildpunkt 2 x grün, 1 x rot, 1 x blau) führt zu einer schlechteren Auflösung. Ein Bildaufnehmer, der dieses Verfahren nutzt, ist der Bayer-Sensor.
[Bearbeiten] Vergleich 1 und 3 Chip CCD Verfahren
Nach dem PAL-Format (amerikanisch: NTSC-Format) werden auf dem Fernsehbildschirm 720×576 Bildpunkte dargestellt. Um die vollständige Information im Camcorder zu speichern, müsste der Chip mindestens über 414.720×3 Bildpunkte verfügen. Die Anzahl muss mit 3 multipliziert werden, da ein Bildpunkt nicht die komplette Farbinformation, sondern nur Helligkeitsunterschiede wahrnehmen kann. Bei einem 3-Chip-Modell werden die Farben über ein Prisma in die Anteile Rot, Grün und Blau (RGB) zerlegt und auf die 3 Chips verteilt. Ohne Berücksichtigung eines digitalen Bildstabilisators würde diese Pixelanzahl ausreichen, alle benötigten Bildinformationen auf einen Fernsehbildschirm wiederzugeben.
Da bei der Berechnung der notwendigen Pixelanzahl von der Bildschirmauflösung am Fernseher ausgegangen wurde (Verhältnis 720/576=1,25), das Verhältnis tatsächlich aber 4:3=1,33 beträgt, ist mit einer höheren Pixelanzahl (768×576) des benötigten Chips zu rechnen, quadratische Pixel vorausgesetzt.
Bei einem 1-Chip-Modell geschieht die Bildspeicherung auf andere Weise. Da jeder CCD-Bildpunkt nur Helligkeitsunterschiede wahrnimmt, wird vor jedem Bildpunkt ein Farbfilter (Bayerfilter) entweder mit Grün, Rot oder Blau gesetzt. Das DV-Signal wird im Verhältnis 4:2:0 (YCbCr-Farbmodell) aufgezeichnet. Mit Y wird die Luma-Komponente bezeichnet, welche nur Helligkeitsunterschiede speichert und U und V bezeichnen die Farbdifferenzkomponenten (Chroma). Das bedeutet, dass für jedes Pixel die Helligkeit und für 4 Pixel lediglich ein Farbwert gespeichert werden. Da das menschliche Auge auf Helligkeitsunterschiede wesentlich empfindlicher reagiert als auf Farbunterschiede, kann diese Reduktion ohne große Verluste vorgenommen werden.
Rechnerisch ergibt sich für eine Darstellung eine Pixelmenge von 720×576×3/2=622080. Es muss mit 3 multipliziert werden, da 3 Bildpunkte für jede Farbe notwendig sind. Durch die Reduktion (4:2:0) ins YCbCr-Farbmodell wird wieder die Hälfte (Division durch 2) eingespart.
Kommt ein digitaler Bildstabilisator zum Einsatz, kann sich die erforderliche Pixelmenge nochmals um 60 % oder mehr steigern.
Der Vergleich zeigt, dass ein 1-Chip-Modell inzwischen durchaus gleiche Qualitäten erzeugen kann wie ein 3-Chip-Modell. Beim 1-Chip-Modell (1-Chipper) wird die recht aufwendige optische Bildaufteilung gespart. Bei immer größeren Sensoren - heute (2004) sind Chips mit mehr als 8 Millionen Pixel in der digitalen Fotografie keine Seltenheit - können 1-Chipper durchaus mit 3-Chip-Anordnungen konkurrieren.
[Bearbeiten] Bildstabilisator
- elektronisch:
Dabei wird ein übergroßer Wandlerchip eingesetzt, der störende Ruckler durch das Verschieben eines kleineren Bildausschnittes (Lesefenster) auf der großen Chipfläche ausgleicht. Dabei ist die Netto-Chipauflösung jedoch deutlich kleiner als die vom Hersteller oft ausschließlich angegebene gesamte Chipauflösung. Die maximale Auflösung bezieht sich dann fast immer nur auf die Fotofunktion eines Camcorders.
- optisch:
Der optische Bildstabilisator ist der digitalen Stabilisierung vorzuziehen. Hier erfolgt ein Ausgleich durch mit Magnetfeldern bewegte „schwimmende“ Linsen, die den Bewegungen sensorgesteuert entgegenlaufen. Dadurch wird wertvolle Pixelfläche eingespart. Leider sind die optischen Bildstabilisatoren erst bei Camcordern im oberen Preissegment zu finden.
[Bearbeiten] Objektiv
Das verwendete Objektiv spielt eine nicht unerhebliche Rolle zur Erzielung guter Resultate. Es muss nicht nur die erforderliche Auflösung und Schärfe auf dem gesamten ebenen Chip liefern, sondern auch wenig Streulicht erzeugen (Vergütung). Während der digitale Zoom lediglich einen Teilbereich der Chipfläche auswertet und daher mit geringerer Auflösung verbunden ist, liefert der optische Zoom bei verschiedenen Zoomfaktoren gleiche Auflösung. Für den optischen Zoom werden Zoomobjektive verwendet. Oft ist bei diesen der Weitwinkel- und Makrobereich mangelhaft. Zwar kann durch Verwendung von Vorsatzlinsen Abhilfe geschaffen werden, die Qualität wird jedoch dadurch schlechter. Außerdem kann die automatische Schärfenregelung des Camcorders beeinträchtigt werden.
[Bearbeiten] elektrische und Softwareschnittstellen
Es gibt verschiedene Stufen der Vorverarbeitung des Bildsignales einer Videokamera. Den analogen und digitalen Datenformaten ist die serielle Ausgabe gemeinsam.
[Bearbeiten] analoge Ausgabe
Zeilenweise Abtastung und Ausgabe der Helligkeitsinformationen aller (schwarz/weiß) oder der drei Einzelfarben.
- getrennte Ausgabe der drei Farbintensitäten und der Synchronsignale (Zeilen- und Bildsynchronsignal)
- Ausgabe der Farbinformation und der Helligkeit sowie der Synchronsignale
- Ausgabe aller Informationen auf einer Leitung (mixed Signal oder composite Video, PAL-codiert)
[Bearbeiten] digitale Ausgabe
Serielle digitale Datenschnittstellen für Videokameras sind z.B. FireWire® (IEEE1394) oder USB 2.0.
Zur Umwandlung analoger Videosignale in digitale Datenformate gibt es Adapterbaugruppen.
Innerhalb von z.B. Camcordern kommen weitere Formate zum Einsatz, um das Bild auf dem Display anzuzeigen.
Softwareschnittstellen für ein Videosignal am Computer dienen der Anzeige, Weiterverarbeitung oder Speicherung der Bildsequenzen (Videos).
Beispiele:
SANE
TWAIN