- •Informatika pro koncového uživatele
- •1 Koncový uživatel a informační gramotnost
- •2 Informační systém
- •3 Informační a komunikační technologie
- •Vývojové prostředí ide
- •4 Osobní informatika
- •5 Databáze
- •6 Aplikační software (asw)
- •Podle odvětví (branžová řešení)
- •Podle velikosti podniku
- •7 Internet a sociální sítě
- •Internet
- •8 EGovernment
- •Vybrané e-projetky
- •Informační politika civilní části resortu spravedlnosti:
- •9 Bezpečnost informací V informačních systémech
- •Iuridicum remedium- (IuRe) http://www.Iure.Cz/onas.Html
- •10 Přílohy teorie informace
- •Úroveň syntaxe
- •Úroveň sématiky
- •Úroveň pragmatiky
- •Platební a identifikační karty
- •Virtuální karta
- •Základní termíny z informatiky příloha VII
10 Přílohy teorie informace
INFORMACE JAKO POJEM
Samostatný výraz INFORMACE
-
pochází z lat. informatio, resp. infromare = dáti, formovat, tvořit
-
zaznamenán poprvé v roce 1274 ve významu souboru aktů, které vedou k prokázání důkazů trestného činu a k odhalení jeho pachatelů
Informační kancelář = podávala důvěrná sdělení o finančním stavu jednotlivých obchodníků
Informace = je zpráva o tom, že nastal určitý jev z množiny možných jevů a tím se u nás (u příjemce) snižuje (nebo zcela odstraňuje) neznalost o tomto jevu
ZÁKLADNÍ POJMY
ZPRÁVA = ucelená myšlenka vyjadřující stav nějakého objektu a jeho chování v minulosti, přítomnosti nebo v budoucnosti
př. zápis porady, dopis, fotografie v novinách, telefonní vzkaz
ZNAKY = jsou takové symboly, kterým přiřazujeme konkrétní grafické znázornění: písmena, číslice, ikony aj…
ABECEDA = tvoří soubor všech dohodnutých znaků
DATA = jsou odrazem jevů, procesů a vlastností, existujících a probíhajících v části reálného světa, kterou odrážejí
-
jsou abstraktními pojmy
-
pro jejich sběr, přenos, zpracování a distribuci musíme mít k dispozici fyzický prostředek, který slouží jako nosič těchto dat (př. papír, film, disketa…)
-
odraz jevů je zaznamenán na nosiče prostřednictvím signálu
SIGNÁL = je nositelem zprávy
-
obecně v komunikaci je signál materiální jev, kterým působí vysílatel signálu na objekt (jiný fyzikální, biologický, sociální a strojový systém)
Na každou informaci můžeme aplikovat tři různé úrovně pohledu v odpovídajícím uspořádání, interpretaci a využití znaků:
-
Úroveň syntaxe
-
zabývá se vnitřní strukturou zprávy, složené ze znaků dané abecedy
-
zkoumá uspořádání vztahů mezi znaky
-
Úroveň sématiky
-
zajímá se o vztah znaku k objektu, procesu nebo jevu, který tento znak odráží, nezávisle na příjemci
-
Úroveň pragmatiky
-
zkoumá vztah informace k příjemci, její využití a praktický dopad na daný systém
-
nejdůležitější úroveň
ZÁKLADY TEORIE INFORMACE
-
50. léta = použití výrazu informace ve významu zpráva, údaj sdělení, poučení
-
s rozvojem přenosu signálů, teorie telekomunikace, kybernetiky a počítačů se vyčlenily samostatné obory = jedním z nich TEORIE INFORMACE
-
u zrodu: Shannon, Bell, Ashby, Wiener, Kolmogorov, Gabor, Szilard, Brillouin
-
nejprve vědci vycházeli z potřeb sdělovací techniky (přenést max. zpráv v co nejkratším čase a co nejbezpečněji)
-
další oblast – zajištění potřebných informací pro řízení strojů
První pokusy o kvantifikaci z roku 1924 = Küpfmüller vyjádřil obsah zprávy rovnicí
k=B T
k… kvantum informace
T… doba trvání zprávy převedené na signály
B… šíře frekvenčního pásma přenášených signálů
Claude Shannon
-
zdokonalil v roce 1949 míru vyjádření informace
-
za míru informace považuje entropii
-
Entropie = míra neurčitosti v nějaké zprávě o daném systému
-
tato míra neurčitosti se po příjmu zprávy odstraňuje, tím se vyjádří míra získané informace
-
při růstu informace klesá entropie a naopak
Shannon vyšel z následující myšlenky:
-
Máme-li dvě možnosti a dozvíme-li se, že jedna platí, získáme nejmenší množství informace. Máme-li jen jednu možnost, nepotřebujeme se rozhodovat.
-
toto nejmenší množství informace – volbu ze dvou možností nazval Shannon bitem
BIT = Binary digiT (dvojkové číslo)
-
množství informace se měří v bitech
Bit = výraz
-
pro dvojkovou číslici (v informační technologii)
-
v teorii informace počet bitů určuje, kolikrát se musí člověk rozhodovat, než dojde ke správnému a jedinému výsledku
-
zavedl do teorie informace pravděpodobnost výskytu
-
pro výpočty používá entropii
-
Shannonův vzorec (informační hodnota)
n
H = - ∑ pi log2 pi [bit/znak]
i=1
INFROMAČNÍ HODNOTA
-
její vyjádření je velmi obtížné
-
původní teorie se opíraly o sdělovací techniku
-
se zavedením pravděpodobnosti se pomocí Shannonova vzorce kvantifikuje hodnota různých entit systému př. znaku abecedy
-
ve skutečnosti neexistuje rovnoměrný výskyt všech znaků abecedy
-
čím se znak vyskytuje častěji, tím má menší informační hodnotu
-
„vzácnější“ znak obsahuje vyšší informační hodnotu
-
některé informační hodnoty:
-
číslice v dvojkové soustavě 1 (bit/znak)
-
číslice v desítkové soustavě 3,32 (bit/znak)
-
karta z balíků mariášových karet 5 (bit/znak)
-
symbol české abecedy 5, 39 (bit/znak)
-
PŘÍLOHA II.