Informacja- wykład 4

Nasza ocena:

5
Pobrań: 140
Wyświetleń: 980
Komentarze: 0
Notatek.pl

Pobierz ten dokument za darmo

Podgląd dokumentu
Informacja- wykład 4 - strona 1 Informacja- wykład 4 - strona 2 Informacja- wykład 4 - strona 3

Fragment notatki:

29.03.2011
Wykład 4
Informacja - co to jest, jakie są pojęcia równoważne, kategoria ekonomiczna?
Informacja - jest wiele definicji, informacja kojarzy się z informatyką, nie jest to nauka pierwotna w stosunku do informacji, jest czynnikiem (i to jest wtórne),
Podejście w rozumieniu cybernetyki (cybernetyka skonstruowała systemowe podejście) - praktyczna definicja informacji - każdy czynnik, dzięki któremu każdy podmiot może zwiększyć swoją wiedzę o otoczeniu.
Ile informacji zawartych jest w wiadomości  nie jest obiektywne, zależy od kontekstu.
3 definicja - pochodząca z teorii informacji (ujęcie statystyczne). Zależność pomiędzy parametrami linii dla potrzeb przesyłu. Miara ilości informacji.
Komunikat - jest kojarzony z treścią przekazywaną przez jakieś medium. Cecha charakterystyczna mediów - w czasie coraz krótszym penetrują społeczeństwa. (Np. radio potrzebowało 80 tal, telewizja 50 lat, media kablowe 20-30 lat, Internet - 10 lat, telefon komórkowy - 5 lat), gospodarka ery informacyjnej skończy się, bo nie będzie tego dynamicznego przyrostu a umiejętność jej wykorzystania zostanie doprowadzona do pewnego poziomu.
Wiadomość - sama treść (jest częścią komunikatu), to nie to samo, co informacja.
Dane - to samo, co wiadomość w sensie formalnym, język sam sugeruje, dane to uporządkowane wiadomości, forma gotowa do analizy.
Informacja to esencja najbardziej ciekawa, taka śmietanka.
Ilość informacji - jak dużo informacji jest niesione za pomocą wiadomości:
Wiadomość jako zmienna losowa (warianty poszczególne z określonymi prawdopodobieństwami)
Zmienna losowa dotyczy konkretnej cechy (Np. zysk firmy) - każdy wariant ma określone prawdopodobieństwo
Jak dużo informacji uzyskam z wiadomości mówiącej o tym ile wyniesie zysk firmy w roku 2011?
Poszczególne warianty wiadomości będą opisywane w sposób binarny. Np. rozpatruje 4 warianty zysku, które koduję w systemie zerojedynkowym
Na jednym bajcie możemy zapisać 28 = 256 informacji
Przeliczanie liczb na system binarny: 170 = 10101010
Możliwości:
Jeśli wszystkie warianty są tak samo prawdopodobne, to nie wiemy nic - najgorsza sytuacja z punktu widzenia ekonomisty
- wzór na ilość informacji
H - entropia - ilość informacji zawartych w wiadomości Bit - jednostka informacji, ilość informacji zawarta w wiadomości mówiącej o wystąpieniu jednego z dwóch równoprawdopodobnych zdarzeń.
W sensie informacyjnym istnieją bity, które mają wartości ułamkowe.
Możemy mieć jakieś pojęcie na dany temat - damy niektórym wariantom większe prawdopodobieństwo.


(…)

… poziom charakteryzujący się brakiem ryzyka.
12.04.2011
Wykład 5
Teoria informacji - dla jej potrzeb wiadomość została sprowadzona do zmiennej losowej.
Wiadomość musi dotyczyć konkretnej cechy statystycznej - parametr może się zrealizować na różnych poziomach z określonymi prawdopodobieństwami  I poziom formalizacji wiadomości
Entropia - formalna miara ilości informacji dostarczanych w wiadomości.
Dwa wzory na entropie:
Gdy prawdopodobieństwa wszystkich wariantów są jednakowo prawdopodobne, Np. rzut monetą, rzut kostką - stan najbardziej krytyczny, dysponujemy najmniejszym, możliwym zasobem wiedzy  sytuacja najgorsza, a do obliczeń najprostsza
Gdy prawdopodobieństwa wszystkich wariantów nie są jednakowo prawdopodobne.
Jeżeli chcę wiedzieć więcej muszę uzyskać wiadomość, w której będzie informacja…
… w firmie, kolejnego dnia każą nam kolejne zrobić i co dzienne to samo - wiadomość jest redundantna, nie w całości dostarcza nowej informacji
Redundancja może być celowa, aby pewne rzeczy sprawdzić i skontrolować
Dobrze ułożony test psychologiczny jest redundantny
Szum informacyjny, - jeśli informacja przechodzi przez kanał informacyjny, to może wystąpić zakłócenie, które może zafałszować informację.
Rok…
... zobacz całą notatkę

Komentarze użytkowników (0)

Zaloguj się, aby dodać komentarz