Kompresja sygnalow

Nasza ocena:

4
Pobrań: 7
Wyświetleń: 651
Komentarze: 0
Notatek.pl

Pobierz ten dokument za darmo

Podgląd dokumentu
Kompresja sygnalow - strona 1

Fragment notatki:


1 STANDARDOWE TECHNIKI KOMPRESJI  SYGNAŁÓW 1. Metody bezstratne 2. Metody stratne Źródło Kompresja Kanał transmisji Dekompresja Odbiorca 1 sek wideo – 160 Mbit 2 min muzyki (44 100 próbek/sek, 16 bitów/próbkę) 84 Mbit 2 Kodowanie predykcyjne ) ( ) ( 1 i n s n p r i i − = ∑ = α ∑ = = r i i 1 1 α ) ( ) ( ) ( n p n s n d − = ) ( ) ( ) ( n d n p n s + = NADAWCA ODBIORCA 3 Kodowanie entropowe EC ang. Entropy Coding Ilość informacji stowarzyszona z komunikatami { } M m s m ,..., 1 : = m p m I 2 log ) ( − = gdzie m p wystąpienia  m s Oczekiwana ilość bitów potrzebnych do bezstratnego zakodowania  komunikatu (entropia) ∑ = − = M m m m p p H 1 2 log wynosi { } M m m s n s 1 ) ( = ∈ jest prawdopodobieństwem 4 Alfabet Morse’a Samuel Finley Breese MORSE (1791-1872) – amerykański malarz i wynalazca 1837 – aparat telegraficzny 1840 - alfabet telegraficzny 1844 – pierwsza na świecie linia  Baltimore - Washington h v f l ą p j b x c y z q ó ch s u r w d k g o i a n m e t • − 1 bit 2 bity 3 bity 4 bity 5 Sprawność kodowania Oczekiwana ilość bitów ∑ = = M m m m w p b H 1 jest prawdopodobieństwem komunikatu m p zakodowanego przez symbol posiadający m b bitów. Sprawność kodowania % 100 w H H = η może być co najwyżej być równa 100% bo  1 2 log − ≥ m m p b gdzie 6 Kodowanie ze zmienną długością słowa VLC ang. Variable Length Coding -1 1/8 0 1/4 1 3/8 2 1/4 m s m p 9 , 1 log log log log 4 1 2 4 1 8 3 2 8 3 4 1 2 4 1 8 1 2 8 1 ≈ − − − − = H 7 Przykład algorytmu kodowania metodą Huffmana Symbol 1 0 2 -1 Prawdo- podobieństwo 3/8 1/4 1/4 1/8 Prawdo- podobieństwo 3/8 3/8 1/4 Prawdo- podobieństwo 5/8 3/8 1 0 1 1 0 0 1952 rok 8 Kontynuacja przykładu kodu Huffmana Przeciętna ilość bitów na symbol 2 ) ( 3 2 1 8 1 4 1 4 1 8 3 = + + ⋅ + ⋅ = w H Sprawność kodowania % 95 % 100 2 9 , 1 = = η 111|111|110|0|0|10|0|0|110 2     2    -1  1 1  0 1 1  -1 111 0 10 110 Kod binarny 0,250 0,375 0,250 0,125 Prawdopodobieństwo 2 1 0 -1 Symbol 9 Kolejny przykład kodowania Huffmana ] 008 , 0 )[ 0 ( ] 030 , 0 )[ 1 ( ] 037 , 0 [ ] 073 , 0 [ ]

(…)


k = 0,1,
, N −1
dla k = 0
dla k ≠ 0
Transformacja odwrotna
s (n) =
2 N −1
 (2n + 1)kπ 
c(k ) s (k ) cos


N k =0
2N


20
DCT dla bloków po 8 próbek
Dzieląc sygnał na bloki po 8 próbek posługujemy się transformacją
7
s (k ) = 0,5 c(k )∑ s (n) cos((2n + 1)kπ / 16 )
n =0
2
1
0
-1
-2
0
5
10
15
20
25
30
35
40
45
50
21
z
−1
s
z
↓2
↓2

↓2
−1
↓2
− z −1 −
Kwantyzacja
s
Kwantyzacja
Banki filtrów cyfrowych
↑2

z

−1
≈ 2s
↑2
↑2

z −1
↑2
z −1
≈s
22
Sygnał audio:
44 100 próbek/sekundę po 16 bitów daje
705 600 bitów/s w jednym kanale
Sygnał telefoniczny:
Filtrowanie do 4 kHz,
Próbkowanie 8000 próbek/sekundę,
Zamiana próbek na 13-bitowe pakiety strumień 104 kbit/s,
KOMPRESJA do 13 kbit/s.
Kompresja 705 600 / 13 000 ~ 54,28
23
Kompresja audio w GSM
Sygnał dzielony na bloki po 20 ms,
Każdy blok…
... zobacz całą notatkę



Komentarze użytkowników (0)

Zaloguj się, aby dodać komentarz