Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
TOMAN.doc
Скачиваний:
4
Добавлен:
17.12.2018
Размер:
308.22 Кб
Скачать

10 Přílohy teorie informace

INFORMACE JAKO POJEM

Samostatný výraz INFORMACE

  • pochází z lat. informatio, resp. infromare = dáti, formovat, tvořit

  • zaznamenán poprvé v roce 1274 ve významu souboru aktů, které vedou k prokázání důkazů trestného činu a k odhalení jeho pachatelů

Informační kancelář = podávala důvěrná sdělení o finančním stavu jednotlivých obchodníků

Informace = je zpráva o tom, že nastal určitý jev z množiny možných jevů a tím se u nás (u příjemce) snižuje (nebo zcela odstraňuje) neznalost o tomto jevu

ZÁKLADNÍ POJMY

ZPRÁVA = ucelená myšlenka vyjadřující stav nějakého objektu a jeho chování v minulosti, přítomnosti nebo v budoucnosti

př. zápis porady, dopis, fotografie v novinách, telefonní vzkaz

ZNAKY = jsou takové symboly, kterým přiřazujeme konkrétní grafické znázornění: písmena, číslice, ikony aj…

ABECEDA = tvoří soubor všech dohodnutých znaků

DATA = jsou odrazem jevů, procesů a vlastností, existujících a probíhajících v části reálného světa, kterou odrážejí

  • jsou abstraktními pojmy

  • pro jejich sběr, přenos, zpracování a distribuci musíme mít k dispozici fyzický prostředek, který slouží jako nosič těchto dat (př. papír, film, disketa…)

  • odraz jevů je zaznamenán na nosiče prostřednictvím signálu

SIGNÁL = je nositelem zprávy

  • obecně v komunikaci je signál materiální jev, kterým působí vysílatel signálu na objekt (jiný fyzikální, biologický, sociální a strojový systém)

Na každou informaci můžeme aplikovat tři různé úrovně pohledu v odpovídajícím uspořádání, interpretaci a využití znaků:

  1. Úroveň syntaxe

    • zabývá se vnitřní strukturou zprávy, složené ze znaků dané abecedy

    • zkoumá uspořádání vztahů mezi znaky

  1. Úroveň sématiky

    • zajímá se o vztah znaku k objektu, procesu nebo jevu, který tento znak odráží, nezávisle na příjemci

  1. Úroveň pragmatiky

    • zkoumá vztah informace k příjemci, její využití a praktický dopad na daný systém

    • nejdůležitější úroveň

ZÁKLADY TEORIE INFORMACE

  • 50. léta = použití výrazu informace ve významu zpráva, údaj sdělení, poučení

  • s rozvojem přenosu signálů, teorie telekomunikace, kybernetiky a počítačů se vyčlenily samostatné obory = jedním z nich TEORIE INFORMACE

  • u zrodu: Shannon, Bell, Ashby, Wiener, Kolmogorov, Gabor, Szilard, Brillouin

  • nejprve vědci vycházeli z potřeb sdělovací techniky (přenést max. zpráv v co nejkratším čase a co nejbezpečněji)

  • další oblast – zajištění potřebných informací pro řízení strojů

První pokusy o kvantifikaci z roku 1924 = Küpfmüller vyjádřil obsah zprávy rovnicí

k=B T

k… kvantum informace

T… doba trvání zprávy převedené na signály

B… šíře frekvenčního pásma přenášených signálů

Claude Shannon

  • zdokonalil v roce 1949 míru vyjádření informace

  • za míru informace považuje entropii

  • Entropie = míra neurčitosti v nějaké zprávě o daném systému

  • tato míra neurčitosti se po příjmu zprávy odstraňuje, tím se vyjádří míra získané informace

  • při růstu informace klesá entropie a naopak

Shannon vyšel z následující myšlenky:

  • Máme-li dvě možnosti a dozvíme-li se, že jedna platí, získáme nejmenší množství informace. Máme-li jen jednu možnost, nepotřebujeme se rozhodovat.

  • toto nejmenší množství informace – volbu ze dvou možností nazval Shannon bitem

BIT = Binary digiT (dvojkové číslo)

  • množství informace se měří v bitech

Bit = výraz

  1. pro dvojkovou číslici (v informační technologii)

  2. v teorii informace počet bitů určuje, kolikrát se musí člověk rozhodovat, než dojde ke správnému a jedinému výsledku

  • zavedl do teorie informace pravděpodobnost výskytu

  • pro výpočty používá entropii

  • Shannonův vzorec (informační hodnota)

n

H = - ∑ pi log2 pi [bit/znak]

i=1

INFROMAČNÍ HODNOTA

  • její vyjádření je velmi obtížné

  • původní teorie se opíraly o sdělovací techniku

  • se zavedením pravděpodobnosti se pomocí Shannonova vzorce kvantifikuje hodnota různých entit systému př. znaku abecedy

  • ve skutečnosti neexistuje rovnoměrný výskyt všech znaků abecedy

  • čím se znak vyskytuje častěji, tím má menší informační hodnotu

  • „vzácnější“ znak obsahuje vyšší informační hodnotu

  • některé informační hodnoty:

    • číslice v dvojkové soustavě 1 (bit/znak)

    • číslice v desítkové soustavě 3,32 (bit/znak)

    • karta z balíků mariášových karet 5 (bit/znak)

    • symbol české abecedy 5, 39 (bit/znak)

PŘÍLOHA II.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]