Componente fundamentale

Surse

Tipuri de surse. Parametrii

Durata sesiunii versus Rata datelor pe canal

Conversia Analog-Digitala

Toate semnalele pot fi reprezentate prin colectii de numere oricat de acurate rezultate in urma procesului de esantionare care produce numere reprezentand valori ale semnalului la anumite momente de timp.

Teorema esantionarii

Teorema esantionarii a lui Shannon afirma ca:

* dublul frecventei maxime a unui semnal este numita frecventa Nyquist.

** functia nerealizabila fizic sinx/x (sinc).

Teorema de esantionare a lui Shannon afirma ca orice functie (semnal) de banda strict limitata poate fi reprezentat prin esantioanele sale luate la o frecventa de cel putin dublul celei mai mari frecvente din spectrul semnalului. Mai mult ea afirma ca functia originala poate fi restaurata fara distorsiuni prin trecerea esantioanelor (pulsurilor) printr-un filtru trece-jos ideal cu banda egala cu cea a semnalului.

Consecintele teoremei esantionarii

    Orice semnala de banda strict limitata poate fi reprezentat - exact - prin esantioanle luate la intervale de timp egale.

Cuantizarea

Eroarea de cuantizare

Codarea sursei

O definitie a informatiei

*p(xi)  este probabilitatea cu care sursa discreta X emite simbolul xi.

Entropie

Codarea sursei. Principiu

Idea codarii sursei este de a reprezenta fiecare aparitie a unui simbol printrun sir de simboluri alese dintr-un alfabet, B. In exemplul de mai sus, simboluri de la sursa discreta X (dintre care M sunt simboluri distincte) sunt reprezentate printr-un cuvant de cod din N simboluri alese dintr-un alfabet B care are K simboluri distincte. Intr-un exemplu simplu, sa consideram sursa un convertor A/D cu 256 niveluri de cuantizare si fie B un alfabet binar cu K=2 simboluri. Daca sursa emite simbolurile sale echiprobabil, N trebuie sa fie 8 pentru a reprezenta numerele de la iesirea convertorului. Daca nivelurile nu sunt echiprobabile, atunci putem utiliza coduri cu lungime variabila in care anumite coduri vor fi reprezentate prin mai putin de 8 biti iar altele prin mai mult de 8 biti. Putem face asta astfel incat lungimea medie a codului sa fie mai mica de 8 biti.

Teorema codarii sursei

Simbolurile emise de o sursa discreta pot fi reprezentate prin cuvinte in cod binar a caror lungime medie L este marginita de entropia sursei si entropia sursei plus 1 (in biti), adica

H(X) < L < H(X) + 1

Rata sursei

Codarea sursei sau Compresia

Lungimea cuvantulul de cod a codului Huffman urmator este 2.63 biti. Daca simbolurile sursei ar fi fost echiprobabile, cuvintele de cod ar fi avut lungimea de 3.00 biti.

i p(xi) Cod
0 0.30 00
1 0.25 10
2 0.15 010
3 0.10 110
4 0.08 111
5 0.06 0110
6 0.04 01110
7 0.02 01111
    Pentru acelasi cod, un script din pagina, calculeaza entropia si media numarului de biti transmisi de aceasta sursa:
     In cazul in care simbolurile ar fi echiprobabile (adica p(xi) = 1/8) si nu s-ar folosi coduri de lungime fixa 3 biti s-ar obtine pentru codul Hoffman de mai sus o lungime de cuvant medie:

© Cornel Mironel Niculae, 2004-2005
25-Mar-2008