To tylko jedna z 24 stron tej notatki. Zaloguj się aby zobaczyć ten dokument.
Zobacz
całą notatkę
1 STANDARDOWE TECHNIKI KOMPRESJI SYGNAŁÓW 1. Metody bezstratne 2. Metody stratne Źródło Kompresja Kanał transmisji Dekompresja Odbiorca 1 sek wideo – 160 Mbit 2 min muzyki (44 100 próbek/sek, 16 bitów/próbkę) 84 Mbit 2 Kodowanie predykcyjne ) ( ) ( 1 i n s n p r i i − = ∑ = α ∑ = = r i i 1 1 α ) ( ) ( ) ( n p n s n d − = ) ( ) ( ) ( n d n p n s + = NADAWCA ODBIORCA 3 Kodowanie entropowe EC od ang. Entropy Coding Ilość informacji stowarzyszona z komunikatami { } M m s m ,..., 1 : = m p m I 2 log ) ( − = gdzie m p wystąpienia . m s Oczekiwana ilość bitów potrzebnych do bezstratnego zakodowania komunikatu (entropia) ∑ = − = M m m m p p H 1 2 log wynosi { } M m m s n s 1 ) ( = ∈ jest prawdopodobieństwem 4 Alfabet Morse’a Samuel Finley Breese MORSE (1791-1872) – amerykański malarz i wynalazca 1837 – aparat telegraficzny 1840 - alfabet telegraficzny 1844 – pierwsza na świecie linia Baltimore - Washington h v f l ą p j b x c y z q ó ch s u r w d k g o i a n m e t • − 1 bit 2 bity 3 bity 4 bity 5 Sprawność kodowania Oczekiwana ilość bitów ∑ = = M m m m w p b H 1 jest prawdopodobieństwem komunikatu m p zakodowanego przez symbol posiadający bitów. m b Sprawność kodowania % 100 w H H = η może być co najwyżej być równa 100% bo 1 2 log − ≥ m m p b gdzie 6 Kodowanie ze zmienną długością słowa VLC ang. Variable Length Coding -1 1/8 0 1/4 1 3/8 2 1/4 m s m p 9 , 1 log log log log 4 1 2 4 1 8 3 2 8 3 4 1 2 4 1 8 1 2 8 1 ≈ − − − − = H 7 Przykład algorytmu kodowania metodą Huffmana Symbol 1 0 2 -1 Prawdo- podobieństw o 3/8 1/4 1/4 1/8 Prawdo- podobieństw o 3/8 3/8 1/4 Prawdo- podobieństw o 5/8 3/8 1 0 1 1 0 0 1952 rok 8 Kontynuacja przykładu kodu Huffmana Przeciętna ilość bitów na symbol 2 ) ( 3 2 1 8 1 4 1 4 1 8 3 = + + ⋅ + ⋅ = w H Sprawność kodowania % 95 % 100 2 9 , 1 = = η 111|111|110|0|0|10|0|0|110 2 2 -1 1 1 0 1 1 -1 Symbol -1 0 1 2 Prawdopodobieństwo 0,125 0,250 0,375 0,250 Kod binarny 110 10 0 111 9 Kolejny przykład kodowania Huffmana ] 008 , 0 )[ 0 ( ] 030 , 0 )[ 1 ( ] 037 , 0 [ ] 073 , 0 [ ]
(…)
… ) = ⎨
⎩ 1
k = 0,1, K , N − 1
dla k = 0
dla k ≠ 0
Transformacja odwrotna
s ( n) =
2 N −1
)
⎛ (2n + 1)kπ ⎞
c(k ) s (k ) cos⎜
⎟
∑
N k =0
2N
⎝
⎠
20
DCT dla bloków po 8 próbek
Dzieląc sygnał na bloki po 8 próbek posługujemy się transformacją
7
s (k ) = 0,5 c(k )∑ s (n) cos((2n + 1)kπ / 16 )
n =0
2
1
0
-1
-2
0
5
10
15
20
25
30
35
40
45
50
21
Banki filtrów cyfrowych
−1
s
z
Kwantyzacja
z
↓2
↓2
−
↓2
−1
↓2
−
z −1
−
Kwantyzacja
s
↑2
−
z −1
≈ 2s
↑2
↑2
−
z −1
−
↑2
z −1
≈s
22
Sygnał audio:
44 100 próbek/sekundę po 16 bitów daje
705 600 bitów/s w jednym kanale
Sygnał telefoniczny:
Filtrowanie do 4 kHz,
Próbkowanie 8000 próbek/sekundę,
Zamiana próbek na 13-bitowe pakiety strumień 104 kbit/s,
KOMPRESJA do 13 kbit/s.
Kompresja 705 600 / 13 000 ~ 54,28
23
Kompresja audio w GSM
Sygnał dzielony na bloki po 20 ms,
Każdy blok…
... zobacz całą notatkę
Komentarze użytkowników (0)