Treść książki

Przejdź do opcji czytnikaPrzejdź do nawigacjiPrzejdź do informacjiPrzejdź do stopki
2.Ogólnepojęciacybernetyczneiinformatyczne
informacjatozinterpretowanenapodstawieposiadanejwiedzy,uporządkowane
dane,
wiedzatorelacje,fakty,założenia,heurystykaimodeleotrzymanewwyniku
analizydanych.
Wprzypadkudanychistotnejest,jakiegopacjentatedanedotyczą,jakazmiennajest
branapoduwagę(wzrost,waga,ciśnieniekrwi),jakąwartośćprzyjmujetazmienna
iwjakimmomenciewykonanopomiar.
Przykłademinterpretacjidanych,awięcinformacji,możebyćstwierdzenie,że
pacjent,któregociśnieniekrwiwynosi200/120mmHg,cierpinanadciśnienie.Wiedza
tonp.relacje,fakty,założeniaimodelematematycznedotyczącechorobynadci-
śnieniowej.
Ustalenieścisłychgranicpomiędzydanymi,informacjąiwiedząjesttrudne.Element,
którywjednymprzypadkumożebyćtraktowanyjakodane,winnymmożebyćtraktowany
jakoinformacjabądźwiedza.
Zjakimidanymimamydoczynieniawkomputerach?Mogątobyćdanenastępujących
typów:
-liczbycałkowite(np.wiekpacjentawlatach),
-liczbyrzeczywiste(np.ciśnieniekrwi,temperatura,wskaźnikhemoglobiny),
-kody(np.kodchorobywedługokreślonegosystemuklasyfikacjiikodowania),
-danetekstowe(np.tekstopisującydolegliwościwhistoriichorobypacjenta).
Danecharakteryzująsiętakimiatrybutami,jakkompletnośćidokładność.Zbierając
dane,powinniśmyzawszedokładaćstarań,bybyłyonekompletne.Pewnątrudność
sprawiaocena,czybrakdanychwdokumentacjimedycznejjestzwiązanyzniemożliwością
ichuzyskania,czyteżoznaczaon,żeniewystępująodchyleniaodnormy.
Dane,któreuzyskujemyjakowynikpomiaru,zawszeobarczonebłędami.Rozróż-
niamydwarodzajebłędów:systematyczneiprzypadkowe.Błądsystematycznymożebyć
związanyzkalibracjąprzyrządupomiarowego(np.przesunięciezera),abłędyprzypadkowe
zwielomaczynnikamitakimi,jak:temperaturaotoczenia,wilgotnośćitd.Zpowodu
błędówprzypadkowychmierzącsamąwielkośćkilkakrotnie,nigdynieotrzymamy
takiegosamegowynikupomiaru.
Zatrzymajmysiędłużejnadpojęcieminformacji.Pojęcietomożnawyjaśnićza
pomocądefinicjiopartejnanegacji:informacjajesttym,coniejestanienergią,
animasą.Pojęcietomożnatakżedefiniowaćwinnysposób,podkreślającróżne
aspektyinformacji.
Pierwszadefinicja,którejautoremjesttwórcateoriiinformacjiClaudeShannon,ma
charaktermatematycznyimówi,żeilośćinformacjijestujemnąwartościąlogarytmuprzy
podstawie2prawdopodobieństwazajściapewnegozdarzenia,np.zdarzeniaA:
I=log
2
p(A)
1
=−log
2
p(A),
(2.1)
8
gdzie0#p(A)#1.Trzebazwrócićuwagęnazwiązekilościinformacjiiprawdopodo-
bieństwa.Imzdarzeniejestmniejprawdopodobne,tymwięcejniesieinformacji.