Serwis Edukacyjny
w I-LO w Tarnowie
obrazek

Materiały dla uczniów liceum

  Wyjście       Spis treści       Wstecz       Dalej  

Autor artykułu: mgr Jerzy Wałaszek
Zmodyfikowano 28.01.2024

©2024 mgr Jerzy Wałaszek
I LO w Tarnowie

Matura - programowanie w C++

Istota informatyki

SPIS TREŚCI

Czym zajmuje się informatyka?

Powyższy obrazek przedstawia piramidy w Egipcie, dzieło tytanicznej pracy tysięcy ludzi w dawnych czasach. Do badania takich zabytków stworzyliśmy specjalną naukę: archeologię. Jaki to ma związek z informatyką? Zobaczmy. Zapytajmy ucznia, czym zajmuje się informatyka. Najczęściej dostaniemy odpowiedź, że jest to "nauka o komputerze" lub "nauka o obsłudze komputera". Pomyślmy teraz. Czy komputery odkryliśmy w piramidach? Gdyby tak było, to pewnie powstałaby jakaś archeologia komputerowa, która by badała to odkrycie tak samo, jak bada się egipskie piramidy.

Tymczasem komputery nie pojawiły się wśród nas nagle, musiały wystąpić sprzyjające warunki do ich rozwoju. Komputer jest dziełem rozumu człowieka, są ludzie doskonale wiedzący, jak on działa, Nie jest to żadną tajemnicą i nie ma potrzeby badania, czym on jest - wystarczy spytać odpowiedniego inżyniera. Również obsługa komputera nie jest wiedzą tajemną - wystarczy przeczytać instrukcję.

Czym zatem zajmuje się informatyka? Najogólniej mówiąc zajmuje się informacją (stąd jej nazwa) oraz sposobami jej przetwarzania. I tutaj informatyka może określić inżynierom konstruującym komputery, jakie cechy powinien taki komputer posiadać, aby dobrze spełniał swoje zadanie przy przetwarzaniu informacji. Może również określać sposoby efektywnego wykorzystywania istniejących komputerów przy przetwarzaniu informacji.

Posługujemy się terminem "przetwarzanie informacji" (ang. data processing). Co to jest? Nie wnikając w naukowe definicje, jest to po prostu przekształcanie jednych informacji w inne za pomocą określonych metod. Na przykład wykonujemy dodawanie 2 + 4 = 6. Informacją wejściową są tu liczby 2 i 4 oraz to, iż należy je dodać. Wykonujemy nad tymi liczbami dodawanie, czyli przekształcamy je w wynik 6. Liczba 6 jest informacją wyjściową otrzymaną z przetworzenia informacji wejściowych 2 + 4.

Zapamiętajmy, iż informatyka zajmuje się sposobami zbierania, przechowywania, przetwarzania, przesyłania i prezentacji informacji za pomocą komputerów oraz współpracujących z nimi urządzeń. Komputer jest narzędziem informatyki, podobnie jak pędzel jest narzędziem malarza, lecz malarstwo nie zajmuje się przecież budową pędzli, sztalug, ram, płócien, składem farb, itp...


Na początek:  podrozdziału   strony 

Rozwój komputerów

Bodźcem do opracowania maszyn liczących była konieczność wykonywania obliczeń w różnych dziedzinach nauki i techniki. Dawniej robiono to ręcznie, lecz liczenie w ten sposób zawsze stanowiło zmorę naukowców i inżynierów. Dodatkowo narażone było na różnego rodzaju błędy, bo, jak wiadomo, ludzie się mylą. Dlatego pojawiły się pierwsze mechaniczne maszyny liczące. Np. znany fizyk Błażej Pascal wymyślił arytmometr mechaniczny, który potrafił dodawać i odejmować (właściwie potrafił tylko dodawać, odejmowanie realizowane było przez dodanie tzw. uzupełnienia do podstawy 10), tzw. pascalinę:


Mechaniczny arytmometr Pascala – Pascalina

Pascal zbudował tę maszynę z miłości do swojego ojca, który musiał wykonywać mnóstwo rachunków przy zbieraniu podatków.


Wraz z rozwojem techniki maszyny liczące stawały się coraz bardziej zaawansowane. Majstersztykiem mechanicznym jest bez wątpienia maszyna analityczna, zaprojektowana przez Charlesa Babbage'a w 1834 roku.


Fragment maszyny analitycznej Charlesa Babbage'a

Niestety, Babbage'owi nie udało się jej zbudować w całości z braku funduszy, lecz pozostawił po sobie plany, które pozytywnie zweryfikowano i okazało się, że gdyby maszyna analityczna rzeczywiście powstała w 1834, to w erę komputerów ludzkość weszłaby o 100 lat wcześniej!


Pierwszy komputer mechaniczny, który działał na tej samej zasadzie co dzisiejsze komputery, zbudował w 1936 roku niemiecki inżynier Konrad Zuse, który jest współcześnie uznawany za ojca komputerów. Komputer nosił nazwę Z1 i pracował w systemie dwójkowym jak współczesne komputery.


Rekonstrukcja komputera Z1 wykonana przez Konrada Zuse przy współpracy z firmą Siemens AG

Przeznaczeniem komputera Z1 było odciążenie inżynierów od wykonywania żmudnych rachunków przy projektowaniu różnych konstrukcji. Więcej na ten temat znajdziesz w naszym serwisie w dwóch artykułach:

Życie i Praca Konrada Zuse
Dziedzictwo Konrada Zuse

Wybucha II Wojna Światowa. Nazistowskie Niemcy używają do szyfrowania komunikatów specjalnych maszyn szyfrujących Enigma oraz Ultra. Do łamania ich szyfrów w Anglii w tajnym ośrodku w Bletchley Park zostają zbudowane komputery elektroniczne na lampach elektronowych. Noszą nazwę Colossus i są tak tajne, że świat dowiedział się o nich dopiero w latach 90-tych ubiegłego wieku. Komputery zostały całkowicie zniszczone po zakończeniu działań wojennych.


Replika komputera Colossus w Bletchley Park w Anglii

Więcej na ten temat znajdziesz w artykule:

Komputery Colossus

Historia komputerów przyspiesza. W Ameryce w 1943 roku zostaje zbudowany komputer elektronowy ENIAC (od angielskiej nazwy Electronic Numerical Integrator And Computer  – Elektroniczny, Numeryczny Integrator i Komputer).


ENIAC (1945)

Oficjalnym celem budowy komputera ENIAC były obliczenia artyleryjskie, jednak wiadomo, że wykorzystywano go również do obliczeń przy projekcie bomby wodorowej. ENIAC niesłusznie jest uznawany za pierwszy komputer elektronowy, ponieważ przed nim były komputery Colossus, lecz z powodu utajnienia świat dowiedział się o nich dopiero w latach 90-tych XX wieku.


Kolejne komputery zbliżają się do tego, co znamy.


UNIVAC (1950)


IBM 360 (1970)


IBM XT (1980)


LAPTOP (2013)

Więcej na ten temat znajdziesz w artykule:

Historia komputerów

Na początek:  podrozdziału   strony 

Czym jest informacja?

Wiemy już, że informatyka zajmuje się informacją. Ale czym jest ta informacja? Okazuje się, że bardzo trudno ją zdefiniować – a tak naprawdę nie istnieje jednolita definicja informacji. Dlaczego? Otóż definicja sama w sobie jest informacją, a nie możemy definiować nowego obiektu nim samym.

Poszukaj w sieci słynnego zdania: "Koń, jaki jest, każdy widzi."

Czy informacja może być czymś materialnym? Jeśli tak, to jaki ma kolor, ile waży, jaka jest w dotyku. Tego typu pytania nie mają większego sensu (a może czasem mają?).

Jedna z koncepcji informacji mówi, że jest ona wytworem umysłu. Aby dostrzec informację, musi istnieć pewien umysł, który ją dostrzeże. Czyli przypomina ona bardziej ducha, rzecz niematerialną, pojęcie abstrakcyjne niż coś ze świata materialnego. Jeśli jednak chcemy informację przetwarzać przy pomocy komputerów, to musimy jej nadać rzeczywistą, materialną postać.

W życiu codziennym posługujemy się informacją. Jak to robimy? Wykorzystujemy różne środki pośrednie: mowę, pismo, znaki, gesty, wyraz twarzy. A czym są te środki? To są symbole, którym przypisujemy odpowiednie znaczenie. Weźmy przykładowo mowę. Mowa to zbiór określonych dźwięków, które wydajemy za pomocą ust. Z dźwięków tych budujemy słowa, zdania, opowiadania, wiersze. Słowom nadajemy odpowiednie znaczenia. Słowa są używane w określony przez gramatykę sposób. Dzięki temu możemy przekazać pożądaną informację. Zwróć uwagę, że bez odpowiedniej umowy słowa same w sobie nie stanowią bezpośredniej informacji (Co to jest paciatucha? To to samo co laluga, a czym jest laluga wie każde dziecko... a ty?). Należy wiedzieć, jak zawartą w słowach informację odczytać, czyli należy znać język, do którego te słowa należą. Podobnie jest z pismem. Pismo to zbiór znaków, kresek, kropek, z których powstają litery używane do zapisywania dźwięków mowy (są alfabety, gdzie zapisywane jest od razu całe słowo jako pojęcie i kształt znaku nie wiąże się bezpośrednio z jego wymową – np. w językach azjatyckich). Aby odczytać pismo znów musimy znać sposób interpretacji znaków.

Zauważmy pewną prawidłowość: do wymiany informacji stosuje się różne symbole, lecz informacja nie jest w nich dana z góry, należy ją interpretować. Ta sama informacja może być reprezentowana przez różne symbole, np. słowa oznaczające przyjaciel w kilku językach:

friend (angielski)
Freund (niemiecki)
amigo (hiszpański)
barat (węgierski)
朋友 (chiński, przybliżona wymowa: pengyoou)

Również ten sam symbol może reprezentować różną informację:

blok (blok mieszkalny)
blok (blok chałwy, blok skalny)
blok (krążek z liną)
blok (zablokowanie ciosu)

Symbol, jest sygnałem, który przenosi, transportuje informację:

Co z tego wynika? Symbole są uniwersalnym środkiem reprezentowania informacji, pod warunkiem, że nadamy im odpowiednie znaczenia. Symbole mogą przyjmować najprzeróżniejsze formy, tutaj inwencja ludzka nie zna granic. Mogą to być dźwięki mowy, znaki pisma, gesty (istnieje język migowy dla głuchoniemych), sygnały elektryczne, radiowe, laserowe, pola magnetyczne, wgłębienia na dyskach optycznych, tajne znaki dla wtajemniczonych (np. stosowane w czasie wojny), itp.

Jeśli chcemy przetwarzać informację za pomocą maszyn, to musimy dla niej wybrać wygodne symbole. Nie mogą być skomplikowane (jak mowa czy pismo), ponieważ skomplikowany symbol wymaga równie skomplikowanej maszyny do jego przetwarzania, a skomplikowane maszyny są drogie, trudne w budowie i bardziej zawodne.

Początkowo maszyny wykorzystywano tylko do obliczeń, dlatego przetwarzanymi symbolami były cyfry. Komputer ENIAC pracował na liczbach w systemie dziesiętnym. Oczywiście cyfry musiały być przetworzone na sygnały elektryczne o różnym napięciu. Ten sposób przetwarzania danych się nie przyjął, ponieważ układy dziesiętne są zbyt skomplikowane i zawodne (w sygnale, który posiada 10 różnych poziomów napięcia, zakłócenie łatwo może zmienić wartość cyfry). Przyjętym powszechnie do przetwarzania informacji stał się najprostszy sygnał dwustanowy, czyli bit. Prosty sygnał może być przetwarzany przez proste układy, a to przekłada się bezpośrednio na mniejsze koszty konstrukcji i użytkowania takich układów.

Co oznacza pojęcie sygnał dwustanowy?  Jest to dowolny sygnał (symbol), który może występować tylko w jednym z dwóch różnych stanów. Na przykład światło sygnalizacji świetlnej na przejściu ulicznym dla pieszych:

Sygnalizacja używa sygnałów świetlnych (dodatkowo często światła posiadają maski pokazujące oczekiwaną czynność pieszego, dla tych, którzy źle widzą kolory). Sygnalizacja posiada dwa różne sygnały: kolor czerwony i kolor zielony (pomijamy sytuację, gdy sygnalizacja jest wyłączona lub uszkodzona). Taki sygnał jest bitem.

W informatyce stany bitów oznaczamy zwyczajowo cyframi 0 i 1. W elektronice często stosuje się oznaczenia H (stan wysoki – ang. high) i L (stan niski – ang. low). Dlaczego tak? Otóż w układach elektronicznych bity są przedstawiane za pomocą napięć lub prądów elektrycznych. Niska wartość napięcia (L) oznacza bit 0, wysoka wartość napięcia (H) oznacza bit 1. Wykorzystuje się tutaj fakt, że informacja może być reprezentowana przez różne symbole.

Na przykład możemy się umówić, iż światło zielone sygnalizacji to stan 1, a światło czerwone to stan 0:

I otrzymujemy sygnał bitowy.


Na początek:  podrozdziału   strony 

Zastosowania bitów

Bit jest najprostszym symbolem, który może występować tylko w dwóch różnych postaciach. Pokażemy teraz, jak ten prosty symbol można wykorzystać w praktyce do kodowania różnych informacji.

Jeden bit daje nam dwa symbole: 0 i 1. Są to jakby słowa pewnego języka. Mając słowa, można nadawać im różne znaczenia w zależności od potrzeb.


Czujka ruchu

Wchodząc do różnych pomieszczeń, na pewno zauważyłeś pod sufitem tzw. czujniki ruchu (ang. motion sensors). Zadaniem tych urządzeń jest ochrona obiektu przed nocnym włamaniem. Czujnik ruchu oświetla korytarz wiązkami światła podczerwonego, którego nasze oczy nie widzą (sowy podobno to potrafią). Wiązki te padają na ściany oraz inne elementy korytarza i, odbijając się od nich, wracają z powrotem do czujki. Jeśli odbierane przez czujkę światło ulegnie jakiemuś zaburzeniu (np. gdy ktoś przetnie drogę jednemu z promieni), to czujka wysyła odpowiedni sygnał do układu alarmowego, który albo wszczyna alarm akustyczny, albo dzwoni do ochrony. Język czujki jest językiem bitowym:

0 – stan nieaktywny lub brak ruchu
1 – wykryto ruch

Język ten tworzą sygnały bitowe, które czujka przekazuje do swojego układu zabezpieczającego budynek. Bity są przekazywane w postaci prądu przewodami elektrycznymi. To jedno z nieskończonej liczby zastosowań pojedynczego bitu.

Jeden bit nie daje nam zbyt dużych możliwości kodowania informacji. Aby zakodować więcej różnych danych, łączymy bity w grupy (tak samo litery łączymy w grupy, otrzymując wyrazy). Dwa bity dają nam już 4 różne słowa:

00 – słowo pierwsze
01 – słowo drugie
10 – słowo trzecie
11 – słowo czwarte

Za pomocą dwóch bitów można zatem przesyłać cztery różne informacje. Zwróć uwagę na to, jak utworzyliśmy te cztery słówka binarne. Otóż do stanów 0 i 1 ostatniego bitu dodaliśmy nowy bit o stanie 0, a następnie znów do stanów 0 i 1 ostatniego bitu dodaliśmy nowy bit o stanie 1:

0 + 0 = 00
0 + 1 = 01
1 + 0 = 10
1 + 1 = 11

Jeśli powtórzymy ten schemat, dodając do dwóch bitów trzeci, to otrzymamy osiem słówek bitowych:

0 + 00 = 000 – słowo pierwsze
0 + 01 = 001 – słowo drugie
0 + 10 = 010 – słowo trzecie
0 + 11 = 011 – słowo czwarte

1 + 00 = 100 – słowo piąte
1 + 01 = 101 – słowo szóste
1 + 10 = 110 – słowo siódme
1 + 11 = 111 – słowo ósme

Dodając każdy kolejny bit, zwiększamy dwukrotnie liczbę słówek: wszystkie poprzednie słówka z nowym bitem o stanie 0 i wszystkie poprzednie słówka z nowym bitem o stanie 1. Otrzymujemy następujący ciąg geometryczny:

1
bit
 → 
    2
słówka
2
bity
 → 
    4
słówka
3
bity
 → 
    8
słówek
4
bity
 → 
   16
słówek
5
bitów
 → 
   32
słówka
6
bitów
 → 
   64
słówka
7
bitów
 → 
  128
słówek
8
bitów
 → 
  256
słówek
...
 
 
...
 
16
bitów
 → 
65536
słówek
...
 
 
...
 
32
bity
 → 
4 mld
słówek
...
 
 
...
 
n 
bitów 
 → 
2n słówek 

Co z tego wynika? Dla każdej skończonej liczby informacji zawsze możemy utworzyć wystarczającą dla nich liczbę słówek bitowych. Czyli, pomimo swej prostoty, bity pozwalają kodować dowolną, skończoną liczbę informacji. I tutaj właśnie tkwi ich potęga. Poniżej podajemy dwa typowe zastosowania bitów.

Kodowanie grafiki i filmów

Obraz cyfrowy jest zbudowany z siatki punktów, które nazywamy pikselami (ang. pixel = picture element). Są to niepodzielne fragmenty obrazu o jednolitym kolorze. Załóżmy, że mamy następujący obrazek:

obrazek

Aby zobaczyć strukturę tworzących go pikseli, powiększmy go:

Piksele przyjmują tutaj tylko dwa kolory: czarny i biały. Dwa kolory możemy zakodować przy pomocy jednego bitu. Umawiamy się, że bit 0 będzie oznaczał kolor tła, czyli kolor biały, a bit 1 będzie oznaczał kolor tuszu, czyli czarny – w ten sposób określamy znaczenie słów 0 i 1 w języku grafiki tego obrazka. Jeśli każdy piksel obrazka zastąpimy kodującym go bitem, to otrzymamy następujący wynik:

Tabela kodów kolorów:

   
  0
 
  1
00000000000000000000010000000100
00000000000000000000000000001000
00000000000000000000001000010000
00000000000000000100000000100000
00000000000011111000000000010101
00000000000100000110001110000000
00000000001000000001110000000000
00000000001000000000000000010000
00000000001000000000010010001000
00000001111111000000100000000100
00000001111111000001000010000000
00000001111111000000000000000000
00000111111111110000000010000000
00011111111111111100000000000000
00011111111111111100000000000000
00111111111111111110000000000000
00111111111111111110000000000000
01111011111111111111000000000000
01110111111111111111000000000000
01110111111111111111000000000000
01100111111111111111000000000000
01100111111111111111000000000000
01110111111111111111000000000000
01111011111111111111000000000000
00111011111111111110000000000000
00111100111111111110000000000000
00011111111111111100000000000000
00011111111111111100000000000000
00000111111111110000000000000000
00000001111111000000000000000000

Obrazek stał się mało czytelny dla człowieka, lecz bity są znakomicie czytelne dla komputerów. Te 0 i 1 zostaną przekształcone na odpowiednie sygnały elektryczne i układy komputera będą mogły je przechować, przetworzyć lub przesłać przez sieć informatyczną nawet na drugi koniec świata. Jeśli odbiorca będzie znał znaczenie poszczególnych bitów (będzie rozumiał język grafiki tego obrazka), to bez problemów odtworzy sobie jego treść.

Oczywiście piksele mogą przybierać więcej niż 2 kolory. W takim przypadku rośnie liczba informacji i należy zwiększyć ilość bitów kodujących kolor piksela. Oto ten sam obrazek z 4 kolorami pikseli:

obrazek

Tabela kodów kolorów:

   
  00
 
  01
 
  10
 
  11

Po zakodowaniu otrzymujemy (każde dwa bity to jeden piksel):

0000000000000000000000000000000000000000001000000000000000100000
0000000000000000000000000000000000000000000000000000000010000000
0000000000000000000000000000000000000000000010000000001000000000
0000000000000000000000000000000000100000000000000000100000000000
0000000000000000000000001111111111000000000000000000001000100010
0000000000000000000000110000000000111100000011101000000000000000
0000000000000000000011000000000000000011111100000000000000000000
0000000000000000000011000000000000000000000000000000001000000000
0000000000000000000011000000000000000000001000001000000010000000
0000000000000001010101010101000000000000100000000000000000100000
0000000000000001010101010101000000000010000000001000000000000000
0000000000000001010101010101000000000000000000000000000000000000
0000000000010101010101010101010100000000000000001000000000000000
0000000101010101010101010101010101010000000000000000000000000000
0000000101010101010101010101010101010000000000000000000000000000
0000010101010101010101010101010101010100000000000000000000000000
0000010101010101010101010101010101010100000000000000000000000000
0001010101110101010101010101010101010101000000000000000000000000
0001010111010101010101010101010101010101000000000000000000000000
0001010111010101010101010101010101010101000000000000000000000000
0001011111010101010101010101010101010101000000000000000000000000
0001011111010101010101010101010101010101000000000000000000000000
0001010111010101010101010101010101010101000000000000000000000000
0001010101110101010101010101010101010101000000000000000000000000
0000010101110101010101010101010101010100000000000000000000000000
0000010101011111010101010101010101010100000000000000000000000000
0000000101010101010101010101010101010000000000000000000000000000
0000000101010101010101010101010101010000000000000000000000000000
0000000000010101010101010101010100000000000000000000000000000000
0000000000000001010101010101000000000000000000000000000000000000

Zwiększając liczbę bitów na piksel, otrzymujemy możliwość kodowania coraz większej liczby kolorów. Jeśli przeznaczymy na piksele po 8 bitów, to nasze obrazki będą mogły posiadać do 256 różnych kolorów – popularny w sieci format GIF (ang. Graphics Interchange Format) stosuje właśnie takie rozwiązanie. Grafika GIF najlepiej nadaje się do rysunków, zdjęcia nie wychodzą w niej najlepiej.


Obrazek GIF

Format JPG/JPEG (ang. Joint Photographic Experts Group) pozwala kodować piksele 24 bitami. Daje to gamę 16 milionów kolorów (224 = 16777216), więcej niż potrafi rozróżnić ludzkie oko. Tryb ten nosi nazwę True Color (prawdziwy kolor) i doskonale nadaje się do cyfrowej fotografii.


Obrazek JPG

Film to nic innego jak seria szybko po sobie wyświetlanych obrazków, co daje wrażenie ruchu. Każdy z tych obrazków jest kodowany w opisany powyżej sposób.

Wniosek: bity doskonale nadają się do reprezentowania grafiki oraz filmów.

Kodowanie tekstu

Tekst jest wciąż bardzo ważny dla ludzi i stosujemy go powszechnie. Tekst zbudowany jest ze znaków. Każdy znak potraktujemy jak osobną informację (tak jak w grafice informacją był kolor pikseli). Najpierw określamy zbiór znaków, które będziemy chcieli kodować za pomocą bitów. Na przykład tak:

A Ą B C Ć D E Ę F G H I J K L Ł M N Ń O Ó P Q R S Ś T U V W X Y Z Ż Ź 0 1 2 3 4 5 6 7 8 9 . , : ; + - * / ( ) spacja

Teraz liczymy, ile mamy znaków do zakodowania. Wychodzi 56 znaków. Ile potrzebujemy bitów na każdy znak? Oczywiście 6, ponieważ 26 = 64. Zatem słówka 6 bitowe pokrywają nasze zapotrzebowanie, a nawet mamy mały zapas na przyszłe rozszerzenia.

W następnym kroku musimy każdej literze przypisać unikalne słówko bitowe. Słówko te nazwiemy kodem binarnym znaku (ang. binary character code). Możemy to zrobić tak:

A 000000
F 001000
M 010000
S 011000
Z 100000
5 101000
; 110000
Ą 000001
G 001001
N 010001
Ś 011001
Ż 100001
6 101001
+ 110001
B 000010
H 001010
Ń 010010
T 011010
Ź 100010
7 101010
- 110010
C 000011
I 001011
O 010011
U 011011
0 100011
8 101011
* 110011
Ć 000100
J 001100
Ó 010100
V 011100
1 100100
9 101100
/ 110100
D 000101
K 001101
P 010101
W 011101
2 100101
. 101101
( 110101
E 000110
L 001110
Q 010110
X 011110
3 100110
, 101110
) 110110
Ę 000111
Ł 001111
R 010111
Y 011111
4 100111
: 101111
  110111

Kod 110111 jest kodem spacji, czyli odstępu.

Gdy kody binarne wszystkich znaków będą gotowe, możemy przystąpić do kodowania tekstu. Każdą literkę tekstu zastępujemy odpowiadającym jej kodem binarnym. Na przykład:

JAPONIA JEST PIĘKNYM KRAJEM.

J 001100 A 000000 P 010101 O 010011 N 010001 I 001011 A 000000   110111
J 001100 E 000110 S 011000 T 011010   110111
P 010101 I 001011 Ę 000111 K 001101 N 010001 Y 011111 M 010000   110111
K 001101 R 010111 A 000000 J 001100 E 000110 M 010000 . 101101

001100000000010101010011010001001011000000110111001100000110011000011010110111010101001011000111001101010001011111010000110111001101010111000000001100000110010000101101

Otrzymany ciąg bitów możemy dowolnie przetwarzać na komputerach.

Działanie odwrotne jest również proste. Załóżmy, że otrzymaliśmy ciąg bitów:

000010000111000101000111110111001100011011011010010111010011101101

Ponieważ wiemy, że w naszym systemie każdy znak jest reprezentowany przez 6 bitów, to otrzymany ciąg dzielimy na grupy 6 bitowe:

000010   000111   000101   000111   110111   001100   011011   011010   010111   010011   101101

Dostaliśmy kody bitowe poszczególnych znaków. Zamieniamy je na litery zgodnie z tabelą kodu:

000010 
000111 
000101 
000111 
110111 
001100 
011011 
011010 
010111 
010011 
101101
B Ę D Ę spacja J U T R O .
BĘDĘ JUTRO.

Powyższy kod znakowy jest tylko przykładem szkolnym. W praktyce stosuje się nieco bardziej zaawansowane rozwiązania, np. kod ASCII (ang. American Standard Code for Information Interchange), w którym kod każdego znaku jest 8-mio bitowy. Kod ASCII pozwala kodować 256 różnych znaków. Oczywiście jest to zbyt mało dla kodowania wszystkich używanych przez ludzi liter. Z tego powodu utworzono kod Unicode, gdzie znaki mogą mieć do 32 bitów długości. Kod Unicode powszechnie jest stosowany w Internecie oraz w systemie Windows. Dzięki temu obecne przeglądarki sieciowe potrafią poprawnie wyświetlać tekst praktycznie w każdym języku (pod warunkiem, że masz zainstalowaną odpowiednią czcionkę). Przykład masz poniżej:

正體字/繁體字

Wniosek: bity nadają się do kodowania znaków.

Na następnych lekcjach poznamy sposoby kodowania liczb za pomocą bitów.


Na początek:  podrozdziału   strony 

Zespół Przedmiotowy
Chemii-Fizyki-Informatyki

w I Liceum Ogólnokształcącym
im. Kazimierza Brodzińskiego
w Tarnowie
ul. Piłsudskiego 4
©2024 mgr Jerzy Wałaszek

Materiały tylko do użytku dydaktycznego. Ich kopiowanie i powielanie jest dozwolone
pod warunkiem podania źródła oraz niepobierania za to pieniędzy.

Pytania proszę przesyłać na adres email: i-lo@eduinf.waw.pl

Serwis wykorzystuje pliki cookies. Jeśli nie chcesz ich otrzymywać, zablokuj je w swojej przeglądarce.

Informacje dodatkowe.