Video

Gebina Karus April 6, 2016 V 2 0
FONT SIZE:
fontsize_dec
fontsize_inc

Video ist ein elektronisches Medium für die Aufzeichnung, das Kopieren, die Wiedergabe, die Sendung und die Anzeige von sich bewegenden visuellen Bildern.

Geschichte

Videotechnik wurde zuerst für Kathodenstrahlröhren-Fernsehsysteme entwickelt, aber mehrere neue Technologien für die Videoanzeigevorrichtungen sind seit erfunden worden. Charles Ginsburg führte ein Ampex Forschungsteam entwickelt eine der ersten praktischen Videorecorder. Im Jahre 1951 die erste Videorecorder aufgenommenen Live-Bilder von Fernsehkameras durch Umwandlung elektrischer Impulse der Kamera und speichern Sie die Daten auf Magnetvideoband.

Videorecorder wurden für $ 50.000 im Jahr 1956 verkauft, und Videokassetten kosten $ 300 pro einstündige Rolle. Doch nach und nach fielen die Preise in den letzten Jahren; 1971 begann Sony verkauft Videorecorder und Kassetten-Decks an die Öffentlichkeit. Nach der Erfindung des DVD-1997 und Blu-ray Disc im Jahr 2006 einen Umsatz von Videoband und einem Kontrollgerät eingebrochen.

Später Fortschritte in der Computertechnologie erlaubt Computern zu erfassen, zu speichern, zu bearbeiten und zu übertragen Videoclips.

Eigenschaften des Videostreams

Anzahl der Bilder pro Sekunde

Frame-Rate, die Anzahl der Einzelbilder pro Zeiteinheit von Video-, reicht von sechs oder acht Bilder pro Sekunde für die alten mechanischen Kameras bis 120 oder mehr Bilder pro Sekunde für die neue Profi-Kameras. PAL und SECAM-Standards festlegen 25 frame / s, während NTSC-Standards anzug 29,97 Frames. Film wird an der langsamere Bildrate von 24 Bildern pro Sekunde, die etwas erschwert den Prozess der Übertragung eines filmischen Film auf Video aufgenommen. Der minimale Bildrate zur Erzielung einer komfortablen Eindruck eines bewegten Bildes ist ungefähr sechzehn Bildern pro Sekunde.

Vs progressive interlaced

Video kann interlaced oder progressive werden. Interlacing wurde als ein Weg, um das Flackern in der frühen mechanischen und CRT-Video-Displays, ohne die Anzahl von vollständigen Bildern pro Sekunde, die Bilddetails geopfert würde, um innerhalb der Grenzen einer schmalen Bandbreite zu reduzieren, bleiben erfunden. Die horizontalen Abtastzeilen jedes vollständigen Rahmens werden behandelt, als ob durchnumeriert und als zwei Feldern erfasst: ein ungerades Halbbild aus ungeradzahligen Zeilen und ein gerades Halbbild, die aus den geradzahligen Zeilen.

Analoganzeigevorrichtungen reproduzieren jeden Rahmen in gleicher Weise effektiv verdoppelt die Bildrate so weit wie wahrnehmbar Gesamt Flimmern betrifft. Wenn die Bildaufnahmevorrichtung erfasst die Felder ein zu einer Zeit, anstatt Aufteilung ein komplettes Rahmen nach der Aufnahme, die Bildrate für die Bewegung effektiv verdoppelt sowie, was zu glatter, naturgetreue Wiedergabe von sich schnell bewegenden Teile des Bildes wenn sie auf einem Interlaced-CRT-Anzeige angezeigt, aber die Anzeige eines solchen Signals auf einem progressiven Scan-Einrichtung ist problematisch.

NTSC, PAL und SECAM sind interlaced Formaten. Abgekürzt Video-Auflösung Spezifikationen umfassen oft einen i, um anzuzeigen, Interlacing. Beispielsweise PAL-Video-Format häufig als 576i50 gegebenen 576 gibt die Gesamtzahl der horizontalen Abtastzeilen darstellt, gibt i Interlacing, und 50 zeigt 50 Felder pro Sekunde.

Im Progressive Scan-Systeme, erfrischen jede Periode Updates alle Abtastzeilen in jedem Rahmen in der Sequenz. Bei der Anzeige einer nativ progressive gesendeten oder aufgezeichneten Signals, das Ergebnis ist eine optimale räumliche Auflösung sowohl für die stationären und beweglichen Teile des Bildes. Bei der Anzeige einer nativ Interlaced-Signal jedoch allgemeine räumliche Auflösung wird durch einfache Linie verdoppelt Artefakte wie Flackern oder "Kamm" Effekte in bewegliche Teile des Bildes erscheinen, es sei denn, spezielle Signalverarbeitung eliminiert sie abgebaut werden. Ein Verfahren wie Deinterlacing bekannt ist, kann die Anzeige eines Zeilensprung-Videosignal von einem analogen, DVD oder Satellitenquelle auf einem Progressive Scan-Gerät wie einem LCD-TV, Digital-Video-Projektor oder Plasma-Panel zu optimieren. Deinterlacing kann nicht erzeugen jedoch Videoqualität, die äquivalent zu wahren Progressive Scan-Quellmaterial.

Seitenverhältnis

Seitenverhältnis beschreibt die Dimensionen des Video-Bildschirme und Videobildelemente. Alle gängigen Video-Formate geradlinig sind, und so kann durch ein Verhältnis zwischen Breite und Höhe beschrieben. Das Bildseitenverhältnis eines herkömmlichen Fernsehbildschirm 4: 3 ist, oder etwa 1,33: 1. HD-Fernseher verwenden, ein Seitenverhältnis von 16: 9 oder etwa 1,78: 1. Das Seitenverhältnis eines vollen 35 mm Film-Frame mit Soundtrack ist 1.375: 1.

Verhältnisse, wo Höhe ist größer als Breite sind selten im allgemeinen täglichen Gebrauch, sondern werden in Computersystemen verwendet, wo einige Anwendungen für eine vertikale Gliederung besser geeignet sind. Die häufigste hohen Seitenverhältnis von 3: 4 wird als Portrait-Modus bezeichnet und ist durch physikalisches Drehen der Anzeigevorrichtung um 90 Grad von der Normalstellung erzeugt. Andere hohe Seitenverhältnisse wie 9.16 sind technisch möglich, aber selten benutzt.

Pixel auf Computer-Monitore sind in der Regel quadratisch, aber Pixel in digitale Video verwendet haben oft nicht-quadratische Seitenverhältnisse, wie sie in den PAL- und NTSC-Varianten der CCIR 601 Digital-Video-Standard verwendet, und die entsprechenden anamorphen Breitbildformate. Daher ist ein 720 mal 480 Pixel NTSC DV Bild Zeigt Ihnen mit dem Seitenverhältnis 4: 3, wenn die Pixel sind dünn, und zeigt an der 16: 9-Format, wenn die Pixel Fett.

Farbraum und Bits pro Pixel

Farbmodell Name beschreibt das Video Farbdarstellung. YIQ wurde im NTSC-Fernseh verwendet. Es entspricht weitgehend dem YUV-Schema in NTSC und PAL verwendet, Fernsehen und YDbDr Schema von SECAM-Fernseh verwendet.

Die Anzahl der verschiedenen Farben, die ein Pixel darstellen können, hängt von der Anzahl der Bits pro Pixel. Ein üblicher Weg, um die Menge der Daten in der digitalen Video zu verringern ist durch Farbunterabtastung. Weil das menschliche Auge weniger empfindlich ist, um die Details in der Farbe als Helligkeit, wird die Leuchtdichtedaten für alle Pixel beibehalten, während die Chrominanz-Daten für eine Anzahl von Pixeln in einem Block, und dass derselbe Wert für alle von ihnen verwendet gemittelt. Beispielsweise ergibt sich eine Verringerung von 50% in Chrominanzdaten unter Verwendung von 2-Pixelblöcke oder 75% unter Verwendung von 4-Pixelblöcke. Dieses Verfahren wird nicht die Anzahl von möglichen Farbwerten, die angezeigt werden können, zu reduzieren, reduziert sie die Anzahl von unterschiedlichen Stellen, an denen die Farbe ändert.

Videoqualität

Die Videoqualität kann mit formalen Metriken wie PSNR oder subjektive Videoqualität mit Experten-Beobachtung gemessen werden.

Die subjektive Bildqualität eines Videoverarbeitungssystems wird wie folgt bewertet:

  • Wählen Sie die Videosequenzen, um für die Prüfung zu verwenden.
  • Wählen, die Einstellungen des Systems zu bewerten.
  • Wählen Sie eine Testmethode, wie Sie Videosequenzen von Experten präsentieren und ihre Bewertungen zu sammeln.
  • Laden Sie eine ausreichende Zahl von Experten, vorzugsweise nicht weniger als 15.
  • Führen Sie Tests.
  • Berechnen Sie die Durchschnittsnoten für jeden HRC basierend auf Expertenbewertungen.

Viele subjektive Bildqualität Verfahren sind in der ITU-T-Empfehlung BT.500 beschrieben. Eines der Standardmethode ist die Doppel Stimulus Impairment-Skala. In DSIS, jeder Experte sieht einen ungestörten Referenzvideo gefolgt von einer beeinträchtigten Version der gleichen Video. Der Experte dann bewertet die wertgeminderten Video unter Verwendung einer Skala von "Wertminderungen sind unmerklich" bis "Wertminderungen sind sehr ärgerlich".

Video-Kompressionsverfahren

Unkomprimiertes Video liefert ein Höchstmaß an Qualität, aber mit einer sehr hohen Datenrate. Eine Vielzahl von Verfahren verwendet werden, um Videoströme zu komprimieren, mit den wirksamsten unter Verwendung einer Gruppe von Bildern, um räumliche und zeitliche Redundanz zu verringern. Allgemein gesprochen, räumliche Redundanz wird durch die Registrierung Unterschiede zwischen Teilen eines einzelnen Rahmens vermindert; Diese Aufgabe wird als Intraframe-Kompression bekannt und ist eng mit der Bildkompression bezogen. Ebenso können zeitliche Redundanz durch Registrierung aufeinanderfolgenden Frames reduziert werden; Diese Aufgabe wird als Interframe-Kompression bekannt, einschließlich Bewegungskompensation und andere Techniken. Die häufigsten modernen Standards MPEG-2 für DVD, Blu-ray und Satelliten-Fernsehen verwendet und MPEG-4, AVCHD, Handys und Internet.

Stereoskopisch

Stereoskopischen Video kann mit mehreren Methoden erstellt werden:

  • Zwei Kanäle: einen rechten Kanal für das rechte Auge und linke Kanal für das linke Auge. Beide Kanäle können gleichzeitig unter Verwendung von Licht-Polarisationsfilter 90 Grad außeraxiale voneinander auf zwei Videoprojektoren betrachtet werden. Diese separat polarisierte Kanäle angesehen tragen Brillen mit passenden Polarisationsfilter.
  • Ein Kanal mit zwei überlagerten farbigen Schichten. Diese linken und rechten Layer-Technik wird gelegentlich für die Netzwerk-Broadcast oder letzten "Anaglyphen" Versionen der 3D-Filme auf DVD verwendet. Simple Red / Cyan Kunststoff-Gläser bieten die Möglichkeit, die Bilder diskret zu sehen, eine stereoskopische Ansicht des Inhalts bilden.
  • Ein Kanal mit alternierenden linken und rechten Rahmen für das entsprechende Auge, mit LCD-Shutter-Brille, die die Frame-Sync aus dem VGA-Display Data Channel zu lesen, um das Bild abwechselnd zu blockieren, um jedes Auge, so dass das entsprechende Auge sieht den richtigen Rahmen. Diese Methode ist am häufigsten bei Computer Virtual Reality-Anwendungen, wie beispielsweise in einem Cave Automatic Virtual Environment, sondern reduziert effektive Video-Framerate auf die Hälfte der normalen.

Blu-ray Discs die Schärfe und Detail des zweifarbige 3D-Effekt in farbcodierten Stereoprogramme erheblich verbessern. Siehe Artikel Stereoskopie und 3-D-Film.

Videoformate

Verschiedene Schichten von Video-Übertragung und Speicherung bieten jeweils ihre eigene Reihe von Formaten zur Auswahl.

Für die Übertragung, ein physikalischer Verbinder und Signalprotokoll. Eine gegebene physikalische Verbindung kann bestimmte "Display-Standards", die eine bestimmte Aktualisierungsrate, Auflösung und Farbraum angeben tragen.

Viele analoge und digitale Aufzeichnungsformate in Gebrauch sind, und digitale Videosequenzen können auch auf einem Computer-Dateisystems als Dateien, die ihre eigenen Formate gespeichert werden. Zusätzlich zu dem physikalischen Format von der Datenspeichereinrichtung oder des Übertragungsmedium, dem Strom von Einsen und Nullen, die gesendet wird, muß in einem bestimmten digitalen Videokompressionsformat, von denen eine Reihe zur Verfügung stehen werden verwendet.

Analoge Video

Analog Video ist ein Videosignal um ein analoges Signal übertragen wird. Ein analoges Farbvideosignal enthält Luminanz, Helligkeit und Chrominanz eines analogen Fernsehbild. Wenn sie in einem Kanal in Verbindung, wird es als zusammengesetztes Video als der Fall ist, unter anderem bei NTSC, PAL und SECAM.

Analoge Video in getrennten Kanälen durchgeführt werden, wie in zwei Kanal S-Video und Mehrkanal-Komponenten-Videoformate.

Analoge Video ist sowohl in privaten und professionellen TV-Produktion Anwendungen eingesetzt. Allerdings digitale Videosignal-Formate mit höherer Qualität wurden verabschiedet, einschließlich Serial Digital Interface, Digital Visual Interface, High-Definition Multimedia Interface und Displayport Schnittstelle.

Transportmedium

Video gesendet bzw. in einer Vielzahl von Wegen transportiert werden. Drahtlose Sendung als ein analoges oder digitales Signal. Koaxial-Kabel in einem geschlossenen Kreislauf-System gesendet werden können als analoge Interlaced 1 Volt Spitze mit einer maximalen horizontalen Linie Auflösung von bis zu 480 oder Broadcast-Studiokameras Höhepunkt mit einem Single- oder Dual-Koaxial-Kabel-System mit einem Progressive Scan-Format wie SDI Serial Digital bekannt Schnittstelle und HD-SDI für High Definition Video. Die Abstände der Sende sind etwas in Abhängigkeit von dem Hersteller das Format kann proprietär sein beschränkt. SDI eine vernachlässigbare Verzögerung und unkomprimiert. Es gibt Initiativen, um die SDI-Standards im geschlossenen Kreislauf-Überwachungsanlagen für Höhere Definition Bildern über längere Distanzen über Koax oder Twisted Pair-Kabel zu verwenden,,. Aufgrund der Natur der höheren Bandbreite benötigt wird, der Abstand der Signal effektiv gesendet werden ist eine Hälfte bis ein Drittel von dem, was die älteren verschachtelten analogen Systemen unterstützt.

Video-Anschlüsse, Kabel und Signalstandards

  • Siehe Liste der Video-Anschlüsse für Informationen über physische Anschlüsse und zugehörige Signalstandards.

Video-Display-Standards

Digitalfernseh

Neue Formate für digitale Fernsehsendungen verwenden Sie die MPEG-2-Video-Codec und beinhalten:

  • ATSC - USA, Kanada, Korea
  • Digital Video Broadcasting - Europa
  • ISDB - Japan
    • ISDB-Tb - Verwendet die MPEG-4-Video-Codec. Brasilien, Argentinien
  • Digital Multimedia Broadcasting - Korea

Analog-TV

Analoge Fernsehrundfunkstandards sind:

  • FCS - USA, Russland; obsolet
  • MAC - Europa; obsolet
  • MUSE - Japan
  • NTSC - USA, Kanada, Japan
  • PAL - Europa, Asien, Ozeanien
    • PAL-M - PAL Variation. Brasilien, Argentinien
    • PALplus - PAL-Erweiterung, Europa
  • RS-343
  • SECAM - Frankreich, Ehemalige Sowjetunion, Zentralafrika

Ein analoges Videoformat besteht aus mehr als der sichtbare Inhalt des Rahmens. Vor und nach dem Bild sind Linien und Pixel enthält Synchronisationsinformation und eine Zeitverzögerung. Diese Umgebung Marge als Austastlücke oder Austastbereich bekannt; die horizontale und vertikale Veranda und hinteren Veranda sind die Bausteine ​​der Austastlücke.

Computer-Displays

Siehe Computer-Display-Standard für eine Liste von Standards für Computermonitore und Vergleich mit denen für das Fernsehen verwendet.

Aufnahmeformate vor dem Videoband

  • Phonovision
  • Bildröhre

Analog Bandformate

  • 1 "Typ B Videoband
  • 1 "Type C Videoband
  • 2 "Quadruplex Videoband
  • 2 "Helical Scan Videotape
  • Betacam
  • Betacam SP
  • Betamax
  • S-VHS
  • W-VHS
  • U-matic 3/4 "
  • VCR, VCR-LP, SVR
  • VERA
  • VHS
  • VHS-C
  • Video 2000
  • Video8
  • Hi8

Digitale Bandformate

  • Betacam IMX
  • D-VHS
  • D-Theater
  • D1
  • D2
  • D3
  • D5 HD
  • Digital-S D9
  • Digital Betacam
  • Digital8
  • DV
  • HDV
  • ProHD
  • MicroMV
  • MiniDV

Optisches Speicherformate

  • Blu-ray Disc
  • China Blue HD-Disc
  • DVD
  • Professional Disc
  • Universal Media Disc

Nicht fort

  • Enhanced Versatile Disc
  • HD DVD
  • HD-VMD
  • Kapazität Elektronische Disc
  • Laserdisc

Digital Encoding-Formate

  • CCIR 601
  • H.261
  • H.263
  • H.264 / MPEG-4 AVC
  • H.265
  • M-JPEG
  • MPEG-1
  • MPEG-2
  • MPEG-4
  • Ogg-Theora
  • VP8-WebM
  • VC-1

Standards

  • System A
  • System B
  • System G
  • System H
  • System I
  • System M
  Like 0   Dislike 0
Vorherige Artikel Wolfgang Mayrhofer
Nächster Artikel Rütli
Bemerkungen (0)
Keine Kommentare

Fügen Sie einen Kommentar

smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile
Zeichen übrig: 3000
captcha