Model bez pamięci dms



Pobieranie 31.15 Kb.
Data01.05.2016
Rozmiar31.15 Kb.
OBRAZ
1.
Aby zbudować model źródła informacji trzeba określić

  • strukturę zbioru postaci, jakie może przyjmować informacja

  • strukturę informacji pojedynczej

  • niedeterministyczny mechanizm wybierania konkretnie pojawiającej się w danej chwili informacji



Model bez pamięci - DMS

Symbole produkowane przez źródło są statystycznie niezależne.

(discrete memoryless source).

Model z pamięcią - CSM

Symbole produkowane przez źródło są statystycznie zależne, ze względu na pamiętanie symboli już wyemitowanych przez źródło

(conditional source model).
Miara ilości informacji

Modele źródeł informacji pozwalają nam określić ilość generowanej przez źródło informacji.IM dokładniejszy model źródła zostanie skonstruowany tym dokładniejsze będzie określenie ilości informacji zawartej w źródle.

Cechy miary;


  • Więcej informacji związane jest z pojawieniem się mniej prawdopodobnego symbolu.

  • Informacja związana z sumą niezależnych zdarzeń jest równa sumie informacji każdego ze zdarzeń.

2.


  • Entropia jest miarą średniej informacji zawartej w

  • symbolu alfabetu źródła.

Dla źródła dyskretnego bez pamięci o alfabecie

źródłowym j entropia wynosi:



i jest ograniczona nierównością



Gdzie K – liczba symboli źródła.


Entropia źródła DMS

Informacja I(sj) związana z wystąpieniem pewnego symbolu si źródła definiowana jest w zależności od jego prawdopodobieństwa p(si) jako




Entropia - średnia ilość informacji przypadająca na symbol źródła.





Zajście zdarzenia mniej prawdopodobnego dostarcza więcej informacji, niż zajście zdarzenia o dużym prawdopodobieństwie.

Zdarzenia mniej prawdopodobne dają więcej informacji
Tutaj jakies wzory i def może to 1.

http://www.cmmsigma.eu/download/mat_info/wstep_do_teorii_informacji.pdf
--czesc 3 pytania 2 do uzupelnienie—
3.

do tłumaczenia live, opis w DOU3.pdf

4.

jw. opis w DOU4.pdf



5.

Algorytm JPEG 2000 opiera się na wykorzystaniu dyskretnej transformaty falkowej DWT, która dzieli obraz na wysokie i niskie częstotliwości. Część odpowiadająca niskim częstotliwościom może być dzielona dalej w ten sam sposób. Tak przygotowaną tablicę próbek dzieli się na bloki, a następnie kwantuje i koduje niezależnie od siebie. Stopień kompresji reguluje się poprzez wysłanie tylko niektórych bloków, jak również przez zmienną kwantyzację próbek.


Zaletą JPEG 2000 jest nieco lepsza jakość obrazu przy tym samym stopniu kompresji. W odróżnieniu od JPEG, obraz może być również skompresowany bezstratnie, co czyni nowy standard konkurencyjnym dla formatu PNG. Inna zaleta JPEG 2000 to skalowalność - w miarę odbierania (np. przez sieć) kolejnych próbek obrazu jego jakość stopniowo się poprawia (podobny tryb, choć bardzo uproszczony, oferuje JPEG). Wadą algorytmu JPEG 2000 jest duża złożoność obliczeniowa, w związku z tym nie przewiduje się zastąpienia nim standardu JPEG. Algorytm JPEG 2000 jest wykorzystywany między innymi do kompresowania obrazu w kinach cyfrowych.
DŹWIĘK
1.

Metody obiektywne:



  • pomiar SNR

  • THD+N

  • SNRseg

Testy subiektywne:

  • MOS – mean opinion score (oceny od 1 do 5)

Testy subiektywne z udziałem grupy słuchaczy (20 - 50 osob)

Testy kodekow mowy - oceniany jest odebrany sygnał, porownanie z wzorcowymi zniekształceniami Ocena przy uŜyciu np. skali 1-5. Na podstawie ocen ekspertow obliczana jest średnia miara MOS - Mean Opinion Score





  • MNRU – modulated noise reference unit (dB)

  • Wyrazistość logatomowa (%)

NajwaŜniejsze testy uŜywane do oceny jakości dźwięku:

• PSQM – Perceptual Speech Quality Measurement

– starszy test do badania jakości sygnału mowy

w systemach telekomunikacyjnych

• PESQ – Perceptual Evaluation of Speech Quality

nowszy test, ktory zastąpił PSQM, rownieŜ do

badania jakości sygnału mowy

• PEAQ – Perceptual Evaluation of Audio Quality

– badanie jakości sygnałow szerokopasmowych

(muzycznych)

2.

Kwantyzacja skalarna





  • Kwantyzacja musi uwzgl˛ednia´c rodzaj danych - ich

  • rozkład.

  • Konstruuja˛c kwantyzacje˛ musimy uwzgle˛dnic´ rozkład

  • danych tak aby przedstawiciele danych obejmowali

  • mniej wi˛ecej równe zakresy danych.

  • Szukamy optymalnych warto´sci granicznych

  • przedziałów i poziomu rekonstrukcji (ilo´sci

  • przedziałów).

Maciek



  • Kwantyzacja równomierna




    • Wszystkie przedziały (poza ewentualnie skrajnymi)

    • maja˛ taka˛ sama˛ długos´c´.

    • Równiez˙ rekonstruowane wartos´ci sa˛ rozmieszczone

    • równomiernie.

    • Stosowany najcz˛e´sciej do rozkładów jednostajnych

    • oraz obrazów (redukcja barw przez obci˛ecie najmniej

    • znacza˛cych bitów).




  • Kwantyzacja nierównomierna (logarytmiczna)

    • Podział na przedziały w taki sposób aby ka˙zdy przedział miał podobne prawdopodobie´nstwo wysta˛pienia (przedziały maja˛ róz˙na˛ długos´c´).

Kwantyzacja adaptacyjna





  • Dostosowanie kwantyzatora do statystyk danych

  • wej´sciowych.

  • Kwantyzacja adaptacyjna w przód – dane dzielone

  • na bloki, bloki analizowane i kwantyzowane osobno,

  • przesyłamy dodatkowe informacje o rodzaju

  • kwantyzacji.

  • Kwantyzacja adaptacyjna wstecz – dostosowujemy

  • kwantyzacj˛e w oparciu o wyniki kwantyzatora

  • (zmieniamy ilo´s´c i wielko´s´c przedziałów kwantyzacji –

  • kwantyzator Jayanta).




  • Adaptacja w przód (MPEG Audio) - dane dzielone na bloki, bloki analizowane i kwantyzowane osobno, przesyłamy dodatkowe informacje o rodzaju kwantyzacji.




  • Adaptacja wstecz (ADPCM) – dostosowujemy kwantyzacj˛e w oparciu o wyniki kwantyzatora (zmieniamy ilo´s´c i wielko´s´c przedziałów kwantyzacji – kwantyzator Jayanta).

Kwantyzacja wektorowa




  • Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki (wektory).

  • Prowadzi to często do mniejszych zniekształcenia szczególnie przydatne w obrazach: podobieństwo całych bloków.

Kwantyzatory o strukturze drzewiastej

strukturze drzewiastej


  • Dzielimy przestrzenie na dwie części i uzyskujemy dla nich wektory reprezentacji.

  • Powtarzamy procedurę do każdej części a, z uzyskamy pełne drzewo o wysokośćci k.

  • Możemy przyciąć niektóre poddrzewa jeśli zmniejszy to zniekształcenie.

3.


ADPCM z ang. Adaptive Differential Pulse Code Modulation to adaptacyjna różnicowa modulacja kodowo-impulsowa. Jest to metoda kompresji cyfrowego zapisu dźwięku oraz technika kodowania analogowego sygnału mowy na postać cyfrową PCM w celu zmniejszenia ilości danych i transmisji przez kanał o przepływnościach od 16 do 32 kb/s.
Metoda kodowania ADPCM polega na tym, że zamiast samych próbek dźwięków zapisuje się tylko ich kolejne różnice. Jest to tzw. technika predykcyjna (prognozująca) wykorzystująca fakt, że np. w kolejnych sekwencjach sygnał mowy lub dźwięku z reguły zmienia się nieznacznie, wystarczy więc zakodować jedynie różnicę.
Liczba bitów informacji o zmianie jest automatycznie dopasowywana do potrzeb. Dzięki technice ADPCM można na pojedynczej płycie CD-ROM zapisać około 16 godzin muzyki (z akceptowalną utratą jakości dźwięku), w odróżnieniu od 74 minut w przypadku zapisu standardowego.


Kwantyzator chce max stosunku SNR, a predykator dodatkowo chce zysk predykcji


4. zrobic

5.


Rodzaje kodeków GSM

Kodek GSM bazuje na dźwięku próbkowanym z częstotliwością 8 [kHz] (każda próbka zapisywana jest za pomocą 13 bitów). 20 ms tak zapisanej rozmowy to 160 (8000 [1/s] * 0.02 [s]) 13 bitowych próbek. Taki blok 160 próbek jest kodowany za pomocą opisanych poniżej kodeków.


Half Rate (HR) codec

Podczas kodowania jeden segment 20 ms rozmowy (160 próbek) zamieniany jest na zbiór parametrów o łącznej długości 112 bitów (analogiczna akcja (112 bitów→160 próbek) związana jest z dekodowaniem). Ponieważ w ciągu sekundy kodowanych jest 50 takich segmentów (8000/160) osiągana prędkość transmisji to 5,6 kbit/s (112*50).


Algorytm używany do kodowania/dekodowania to VSELP (Vector-Sum Excited Linear Prediction).
Full Rate (FR) codec

Kodek zamienia jeden segment 20 ms rozmowy (160 próbek) na zbiór parametrów o łącznej długości 260 bitów (analogiczna akcja (260 bitów→160 próbek) związana jest z dekodowaniem). Ponieważ w ciągu sekundy kodowanych jest 50 takich segmentów (8000/160) osiągana prędkość transmisji to 13 kbit/s (260*50).


Algorytm używany do kodowania/dekodowania to Regular Pulse Excitation - Long Term Prediction Linear Predictive Coder
Enhanced Full Rate (EFR) codec

Kodek zamienia jeden segment 20 ms rozmowy (160 próbek) na zbiór parametrów o łącznej długości 244 bitów (analogiczna akcja (244 bitów→160 próbek) związana jest z dekodowaniem). Ponieważ w ciągu sekundy kodowanych jest 50 takich segmentów (8000/160) osiągana prędkość transmisji to 12,2 kbit/s (244*50).


Pomimo mniejszej szybkości transmisji, kodowana w ten sposób rozmowa ma lepszą jakość niż ta zakodowana przez FR kodek. Dzieje się tak, dzięki użyciu metody kodowania Algebraic-Code-Excited Linear Predictive (ACELP).
Adaptive Multi Rate (AMR) codec

Kodek ten wykorzystuje metodę Algebraic-Code-Excited Linear Predictive (ACELP) używaną też w kodeku EFR. Dzięki wykorzystaniu różnych współczynników kompresji potrafi zamieniać bloki 160 próbek na odpowiednio: 95, 103, 118, 134, 148, 159, 204 i 244 bity, dzięki czemu uzyskiwana prędkość transmisji to 4.75, 5.15, 5.90, 6.70, 7.40, 7.95, 10.2 lub 12.2 kbit/s.


6.

Jakosc poprawia się dzieki faktowi, iż dzielimy wektor transformaty rownomiernie na ilosc podpasm W kazdym z nich dziala kwantyzator adaptacyjny, dostosowujacy zakres pracy do aktualnego poziomu sygnału



Kwantyzator sam decyduje o odpowiednim rozdzieleniu bitow pomiedzy podpasma kazdej ramki. Dostosowuje się do poziomu sygnalu
7.

patrze w którym kanale najwięcej dB i rozdzielam tak, żeby było możliwie po rowno w każdym kanale dB przy zalozeniu, ze 1 bit =-6dB czyli przydzielam bity na zasadzie 3, 0, 1 dla kanałów 1, 2, 3. Wtedy maja po 48-3*6, 30-0, 36-1*6=30,30,30dB


©absta.pl 2016
wyślij wiadomość

    Strona główna