Unit Interval

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Das Unit Interval (UI), ist eine Hilfsmaßeinheit zur Bewertung von Jitter (zeitliches Taktzittern bei der Übertragung von Digitalsignalen) im Rahmen der digitalen Signalverarbeitung. Es wird u. a. verwendet in der ITU-T G.810 und bei digitalen Videoschnittstellen wie dem Serial Digital Interface (SDI).[1][2]

Ein Unit Intervall (1 UI) entspricht der Zeitdauer zur Übertragung eines Sendesymbols. Durch Jitter treten bei der konkreten Zeitdauer Abweichungen auf, wodurch es infolgedessen zu Übertragungsfehlern kommen kann. Typische Grenzwerte für Jitter liegen bei 0,1 UI bis 0,3 UI. Ab 0,5 UI ist die horizontale Öffnung im Augendiagramm geschlossen und Symbolübersprechen tritt auf.

  • Mike Peng Li: Jitter, Noise, and Signal Integrity at High-Speed. Prentice Hall, Upper Saddle River NJ u. a. 2008, ISBN 978-0-13-242961-0.
  • Dennis Derickson, Marcus Müller: Digital Communications Test and Measurement. High Speed Physical Layer Characterization. Prentice Hall, Upper Saddle River NJ u. a. 2007, ISBN 978-0-13-220910-6.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. ITU-T Recommendation G.810: Definitions and Terminology for Synchronization Networks, August 1996
  2. Jitter Measurement for Serial Digital Video Signals. Tektronix Inc. Firmenschrift, 2006 (PDF).