Informacja - kategoria ekonomiczna

Nasza ocena:

5
Pobrań: 329
Wyświetleń: 1533
Komentarze: 0
Notatek.pl

Pobierz ten dokument za darmo

Podgląd dokumentu
Informacja - kategoria ekonomiczna - strona 1 Informacja - kategoria ekonomiczna - strona 2 Informacja - kategoria ekonomiczna - strona 3

Fragment notatki:

Informacja - kategoria ekonomiczna
Pojęcia wprowadzające
Komunikat - przekaz (mówiony, pisany, radiowy itd), który może przenosić wiadomości
Wiadomość - treść przekazywana przez komunikat (mająca charakter relacji pomiędzy nadawcą i odbiorcą)
Różne komunikaty mogą przekazywać tą samą wiadomość, np. komunikat: „papież” przekazuje tę samą wiadomość co „biskup Rzymu” czy „głowa kościoła rzymsko - katolickiego”. Wszystkie one identyfikują dla odbiorcy komunikatu tę samą osobę.
Ten sam komunikat może przekazywać różne wiadomości w zależności różnych uwarunkowań. Np. komunikat „zakwitły kasztany” dla postronnego odbiorcy jest naturalną cechą pory majowej, dla konspiratora zaś może być umownym hasłem informującym o spotkaniu z agentem.
Ogólną własnością komunikatów przekazujących wiadomości jest posiadanie pewnej ilości informacji
uogólniając:
„Komunikatem nazywamy odpowiednio zakodowaną wiadomość, zawierającą pewną ilość informacji”
Dane - taka postać wiadomości, którą można zapisać i/lub przetworzyć z pomocą sprzętu komputerowego, a także - surowe, nie podane obróbce analitycznej liczby i fakty dotyczące zjawisk lub wydarzeń. Informacja Termin „informacja” ma charakter interdyscyplinarny. Wywodząc się bezpośrednio z teorii informacji, będącej obszarem szczególnego zainteresowania takich dyscyplin naukowych jak: matematyka , cybernetyka, informatyka czy też elektronika, znajduje swoje miejsce w szeregu innych obszarów nauki, także tych o typowo humanistycznym charakterze.
Pojęcie informacji jest jednym z najtrudniej definiowanych pojęć naukowych. Mimo że każdy intuicyjnie zdaje sobie sprawę z tego, co to jest informacja, to jed­nak jej zdefiniowanie napotyka wiele problemów.
Nie istnieje jedna uznana definicja informacji. N. Winer wprowadzając pojęcie informacji stwierdza, że „... Jest ona jak gdyby nazwą treści pochodzącą ze świata zewnętrznego w miarę jak do niego przystosujemy swoje zmysły...”. K. Krzakiewicz przez informację rozumie „...przekazywaną przez nadawcę do odbiorcy pewną treść będącą opisem, poleceniem, nakazem, zakazem lub poleceniem.”
R. Aschby uważa, że „...informacja to przekazywanie różnorodności”. W. Głuszkow określa informację „...jako wszelkie wiadomości o procesach i stanach dowolnej natury, które mogą być odbierane przez organy zmysłowe człowieka lub przyrodę..”.
A.Mazurkiewicz, (cytat za: W.M.Turski, Propedeutyka informatyki, PWN, Warszawa 1985) „Informacją nazywamy wielkość abstrakcyjną, która może być przechowywana w pewnych obiektach, przesyłana między pewnymi obiektami, przetwarzana w pewnych obiektach i stosowana do sterowania pewnymi obiektami, przy czym przez obiekty rozumie się organizmy żywe, urządzenia techniczne oraz systemy takich obiektów.”


(…)

… zasileniowe) lub też informacyjnym. Proporcja pomiędzy tymi dwoma kategoriami przepływów zależy głównie od charakteru przedsiębiorstwa (produkcyjne, usługowe) oraz od stopnia skomplikowania działalności (handel detaliczny, usługi bankowe).
źródło: Praca zbiorowa pod redakcją Adama Nowickiego, Podstawy informatyki dla ekonomistów, Wydawnictwo Naukowe PWN, Warszawa 1995, s.16
W przypadku przedsiębiorstwa…
… pojęciem entropii jako miary nieokreśloności, uwzględniającej prawdopodobieństwo pojawienia się tych lub innych zdarzeń. Przyjąć można, że do zapisu informacji stosuje się kodowanie binarne, którego klasyczną reprezentacją jest ciąg zero - jedynkowy. Słowem binarnym określić można ciąg zer i jedynek o długości N. Ilość informacji jaka może zostać zapisana w słowie kodowym jest proporcjonalna do N, co oznacza, że informacja jest wielkością ekstensywną. Można założyć zatem, że długość słowa binarnego jest miarą ilości informacji H. Ilość różnych słów binarnych o długości N znaków opisuje zależność liczba słów = 2N ≡ N = log2(liczba słów) Jeżeli uznać, że prawdopodobieństwo wystąpienia każdego słowa kodowego jest takie samo, wówczas wynosi ono:
p = 1 / liczba słów ≡ liczba słów = 1 / p Na podstawie powyższych uzyskuje się zależność:
N = log2(liczba słów) = log2(1/p) = -log2(p) Uwzględniając wcześniejszy postulat traktowania długości słowa kodowego jako ilości informacji stwierdzić można, że miara ilości informacji zawartej w wiadomości wyraża się wzorem:
Zależność określa ilość informacji jaką niesie komunikat, którego wszystkie możliwe warianty są jednakowo prawdopodobne. Jednostkę informacji nazywa…
…% zawiera się 0.152 bitów. Własność ta jest wykorzystywana w niektórych algorytmach kompresji, takich jak kodowanie arytmetyczne. Symbol bitu to b. Wyższe jednostki to: bajt (byte, symbol: B) - pierwotnie ilość bitów przetwarzana jednocześnie przez komputer. Współcześnie, właściwie już od późnych lat 50-tych, używa się wyłącznie do oznaczenia 8 bitów (czyli oktetu). kilobajt (kilobyte, symbol kB) - 210…
… gdy wariantów tych jest mniej, wówczas ilość niezbędnych bitów jest nieco mniejsza (ułamkowa), a tym samym nie realizowalna technicznie. W przypadku zastosowania najmniejszej możliwej ilości bitów do zakodowania wariantów tego komunikatu mamy do czynienia ze zjawiskiem redundancji (patrz dalej).
W praktyce niezmiernie rzadko mamy do czynienia z sytuacjami, w których wszystkie możliwe warianty komunikatu…
... zobacz całą notatkę



Komentarze użytkowników (0)

Zaloguj się, aby dodać komentarz