Serwis Edukacyjny
w I-LO w Tarnowie
obrazek

Materiały dla uczniów liceum

  Wyjście       Spis treści       Wstecz       Dalej  

Autor artykułu: mgr Mirosław Ilków

©2024 mgr Jerzy Wałaszek
I LO w Tarnowie

obrazek

Materiały dla klasy I

Komputer i informacja

SPIS TREŚCI

KOMPUTER

Na początku wyjaśnimy sobie kilka spraw. Pierwsza z nich dotyczy komputera. Czym jest komputer? Skąd się wziął, jak doszło do jego powstania?

Współczesny komputer może posiadać różny wygląd i przeznaczenie:

obrazek obrazek obrazek
Komputer biurkowy Tablet Smartfon
obrazek obrazek obrazek
TVbox Digispark Konsola do gier
obrazek obrazek obrazek
Drukarka Smart TV Aparat cyfrowy
obrazek obrazek obrazek
Kamera cyfrowa Nawigacja GPS Syntezator

Pomimo różnego wyglądu oraz funkcji, współczesne komputery posiadają wspólne składniki. Do czego służą komputery? Nazwa komputer pochodzi od słowa angielskiego "computer". Jeszcze przed II wojną światową słowo to oznaczało zawód rachmistrza, czyli osoby, która zawodowo wykonywała obliczenia. Pierwsze komputery faktycznie zajmowały się tylko obliczeniami, dlatego przypisano im taką właśnie nazwę.

Ogólniej, komputer jest urządzeniem, które służy do przetwarzania informacji. Co to znaczy przetwarzać informację? Aby odpowiedzieć na to pytanie musimy najpierw wyjaśnić, czym jest informacja. Wbrew pozorom nie jest to wcale takie proste. Od tego, co wybierzemy za informację, zależy budowa całego komputera. Pierwsze komputery pracowały na liczbach. Zatem informacją były tutaj cyfry tworzące liczbę oraz działania, które należało na tych liczbach wykonać. Na przykład, wprowadzamy do komputera dwie liczby 5 i 7 oraz działanie, które ma nad tymi liczbami zostać wykonane "x":

obrazek

Komputer "przetwarza" tę informację i wyprowadza wynik 35, który jest przetworzoną informacją. Zatem "przetwarzanie" informacji polega na odpowiednim przekształcaniu informacji wejściowej w pożądaną informację wyjściową.

Pozostaje jeszcze jeden problem do rozwiązania: jaką postać ma przybierać informacja, którą komputer będzie przetwarzał? Pierwsze maszyny liczące operowały na liczbach. Jako przykład możemy podać sławną maszynę różnicową, zaprojektowaną przez Charlesa Babbage'a w połowie XIX wieku:

obrazek

Maszyny tej nigdy nie ukończył, prototyp zbudowano dopiero w końcu XX wieku.

Jednakże cyfry nie są wygodną postacią informacji, ponieważ wymagają skomplikowanych operacji przy ich przetwarzaniu. Okazało się, że najbardziej właściwą postacią informacji dla komputerów są tzw. bity. Słowo bit wymyślił informatyk amerykański John Turkey w latach 40-tych XX wieku. Jest to połączenie dwóch słów angielskich:

binary + digit

binarna                    cyfra

Czym jest bit? Jest to ogólnie taka informacja, która może przybierać tylko 2 różne postacie. Na przykład:

obrazek

W informatyce do zapisu bitów używa się dwóch cyfr 0 i 1. Tak można się bawić na papierze. Jeśli chcemy przetwarzać bity za pomocą maszyny, to musimy im nadać taką postać, która będzie łatwa do przetworzenia w tej maszynie (komputerze). Tutaj istnieje praktycznie nieskończona liczba możliwości. Bity mogą być reprezentowane za pomocą prądu elektrycznego, napięcia elektrycznego, wiązki światła, fali akustycznej, fali elektromagnetycznej itp. We współczesnych komputerach bity są reprezentowane za pomocą napięć elektrycznych, ponieważ komputery są urządzeniami elektrycznymi. Ale nie zawsze tak było. Pierwszy komputer przetwarzający bity skonstruował niemiecki inżynier Konrad Zuse w roku 1936. Był to komputer mechaniczny:

obrazek

Konrad Zuse za zrekonstruowanym komputerem mechanicznym Z1


Na początek:  podrozdziału   strony 

INFORMACJA

Dlaczego do przetwarzania na komputerach wybrano informację w postaci bitów? Powodów było kilka. Bit jest prosty, przyjmuje tylko dwie różne postacie, zatem układy przetwarzające bity mogą być dużo prostsze od układów, które np. przetwarzają 10 różnych cyfr. Prostszy układ oznacza układ tańszy, zawierający mniej elementów, a zatem szybszy i mniej zawodny. Pierwszy komputer elektroniczny ENIAC zbudowany w USA zawierał 18 tysięcy lam elektronowych i przetwarzał cyfry. Psuł się średnio co 4 godziny.

obrazek
Komputer ENIAC z roku 1945

Postęp w konstrukcji komputerów był bardzo szybki wraz z rozwojem elektroniki. W roku 1951 powstał komercyjny komputer UNIVAC przetwarzający bity.

obrazek
Komputer UNIVAC z roku 1951

Wyjaśnijmy teraz, jak za pomocą bitów można przetwarzać informację. Ludzie do przekazywania informacji wykorzystują język w postaci mówionej lub jako pismo. Język zawiera słowa oraz reguły gramatyczne, które określają sposób używania tych słów, łączenia ich w zdania, odmiany, itp. Ważne jest to, iż sowo same w sobie nie reprezentuje żadnej informacji. Kiedyś, w zamierzchłej przeszłości nasi przodkowie wypracowali znaczenia słów, które zmieniały się z upływem czasu, aż powstał język. Przypisywanie informacji słowom staje się oczywiste, gdy uczymy się obcego języka. Musimy wtedy poznać, co dane słowo oznacza i jak należy go używać z innymi słowami. Gdyby słowa przenosiły informację same w sobie, nie musielibyśmy się tego uczyć, niestety, tak dobrze nie ma - inny język, inne słowa lub inne znaczenia tych samych słów. Na przykład w języku rosyjskim lustro, to żyrandol, a zapomnieć znaczy zapamiętać.

Co z tego wynika. Przyjmij, że słowa są jakby pojemnikami, w których umieszczamy informację, gdy nadajemy słowu znaczenie. Następnie taki pojemnik przekazujemy innej osobie i jeśli ta osoba zna znaczenie słowa (czyli zawartość pojemnika), to odbierze przekazaną informację. U nas odbywa się to automatycznie, mówimy, że rozumiemy słowa.

Ciekawe w tym jest to, iż słowa można rozszerzyć na dowolne symbole, np. na bity. Jeśli nadamy im znaczenia, to otrzymamy język bitowy, w którym będziemy mogli przekazywać informację. Załóżmy, że posiadasz latarkę z dwoma filtrami: czerwonym i zielonym:

obrazek

Latarki tego typu posiadają dwa suwaki, które nasuwają na żarówkę filtr odpowiedniego koloru, latarka może zatem świecić na czerwono, zielono lub na biało (bez filtrów). Załóżmy, że z kolegą mieszkającym w bloku naprzeciwko umówiliście się, że będziecie sobie przekazywać informację błyskami latarek o tym, czy w domu są rodzice (światło czerwone), czy ich nie ma (światło zielone). Światło białe pomijamy. Ponieważ mamy tutaj tylko dwie różne postacie światła, możemy mówić o bicie informacji:

Bit Znaczenie
Światło czerwone Rodzice w domu, z imprezy nici
Światło zielone Rodziców nie ma, impreza!!!

Powstał w ten sposób prymitywny język, niemniej użyteczny w pewnych sytuacjach. Język ten składa się z dwóch słów i jest utworzony na podstawie jednego bitu. Wiele czujników stosuje takie jednobitowe języki. Np. czujnik przeciwpożarowy w razie wzrostu temperatury w chronionym pomieszczeniu zwiera styki i w połączonym z tym czujnikiem obwodzie elektrycznym zaczyna płynąć prąd (lub przestaje płynąć, jeśli styki są rozwierane - ta wersja jest nawet lepsza pod względem bezpieczeństwa). Prąd w obwodzie włącza alarm. Znów mamy do czynienia z bitem informacyjnym, ponieważ sygnał ma dwie postacie:

Bit Znaczenie
Brak prądu w obwodzie Nie ma pożaru
Jest prąd w obwodzie Wykryto pożar. ALARM!!!

Podobnie działa czujnik ruchu, czujnik zamknięcia drzwi, czujnik zmierzchowy włączający oświetlenie nocne, itp.

Zwróć uwagę na jedną rzecz - bit nie posiada określonego znaczenia, dopóki je mu nie przypiszemy. Oznacza to, iż my określamy znaczenie bitu. Dzięki temu bit jest uniwersalnym nośnikiem informacji.

Jeden bit ma dwa różne stany, zatem można w nim zdefiniować dwie informacje, po jednej dla każdego stanu. Umówmy się teraz, że bity będziemy zapisywać za pomocą cyfr 0 i 1. W rzeczywistości 0 i 1 są reprezentowane w najprzeróżniejszy sposób.

Zapiszmy:

1 bit2 informacje

0 → jedna informacja

1 → druga informacja

Co zrobić, jeśli mamy więcej informacji? Musimy zdobyć więcej słówek - nasz ludzki język nie składa się przecież z dwóch słów. Jak to zrobić z bitami? Odpowiedź jest prosta: należy połączyć bity ze sobą i potraktować je jak nową całość (w języku ludzkim tak powstają nowe wyrazy, przez łączenie ze sobą dźwięków spółgłosek i samogłosek).

Jeśli połączymy dwa bity, to otrzymamy 4 różne słówka bitowe:

00 → jedna informacja

01 → druga informacja

10 → trzecia informacja

11 → czwarta informacja

2 bity4 informacje

Jak widzisz, liczba słówek wzrosła dwukrotnie, możemy zatem operować dwa razy większą liczbą informacji, czyli czterema. Teraz nasz język może być bardziej precyzyjny. Na przykład umawiasz się z kolegą, iż przekazujesz latarką z czerwonym i zielonym światłem dwa bity za pomocą dwóch błysków, które należy potraktować wspólnie. Informacje mogą być następujące:

2 bity Informacja
Pierwszy błysk Drugi błysk
czerwony czerwony W domu są oboje rodzice
czerwony zielony W domu jest ojciec, nie ma matki
zielony czerwony W domu jest matka, nie ma ojca
zielony zielony W domu nie ma rodziców, impreza!!!

Jeśli dodasz następny bit, to liczba słówek znów wzrośnie 2 razy (dlaczego?) i otrzymasz 8 słów bitowych, które możesz wykorzystać do zakodowania 8 różnych informacji:

000 → jedna informacja

001 → druga informacja

010 → trzecia informacja

011 → czwarta informacja

100 → piąta informacja

101 → szósta informacja

110 → siódma informacja

111 → ósma informacja

3 bity8 informacji

Im więcej bitów użyjesz w swoich słowach bitowych, tym więcej tych słów otrzymasz:

Liczba bitów Liczba informacji
1 2
2 4
3 8
4 16
5 32
6 64
7 128
8 256
16 65536
32 4294967296
64 18446744073709551616
n 2n

Liczba słówek przyrasta wykładniczo wraz ze wzrostem bitów. Co to oznacza? Otóż zawsze możemy z bitów utworzyć tyle słówek bitowych, ile jest nam potrzebne.

Zobaczmy teraz na prostych przykładach, jak można wykorzystać bity do kodowania różnych informacji.


Kodowanie grafiki i filmów

Obraz cyfrowy jest zbudowany z siatki punktów, które nazywamy pikselami (ang. pixel = picture element). Są to niepodzielne fragmenty obrazu o jednolitym kolorze. Wyobraźmy sobie, że mamy następujący obrazek:

obrazek

Aby zobaczyć strukturę tworzących go pikseli, powiększmy go:

obrazek

Tabela kodów kolorów:

      0
    1

Piksele przyjmują tutaj tylko dwa kolory: czarny i biały. Dwa kolory możemy zakodować przy pomocy jednego bitu (patrz: tabelka w poprzednim podrozdziale). Umawiamy się, że bit 0 będzie oznaczał kolor tła, czyli kolor biały, a bit 1 będzie oznaczał kolor tuszu, czyli czarny – w ten sposób określamy znaczenie słów 0 i 1 w języku grafiki tego obrazka. Jeśli każdy piksel obrazka zastąpimy kodującym go bitem, to otrzymamy następujący wynik:

00000000000000000000010000000100
00000000000000000000000000001000
00000000000000000000001000010000
00000000000000000100000000100000
00000000000011111000000000010101
00000000000100000110001110000000
00000000001000000001110000000000
00000000001000000000000000010000
00000000001000000000010010001000
00000001111111000000100000000100
00000001111111000001000010000000
00000001111111000000000000000000
00000111111111110000000010000000
00011111111111111100000000000000
00011111111111111100000000000000
00111111111111111110000000000000
00111111111111111110000000000000
01111011111111111111000000000000
01110111111111111111000000000000
01110111111111111111000000000000
01100111111111111111000000000000
01100111111111111111000000000000
01110111111111111111000000000000
01111011111111111111000000000000
00111011111111111110000000000000
00111100111111111110000000000000
00011111111111111100000000000000
00011111111111111100000000000000
00000111111111110000000000000000
00000001111111000000000000000000

Obrazek stał się mało czytelny dla człowieka, lecz bity są znakomicie czytelne dla komputerów. Te 0 i 1 zostaną przekształcone na odpowiednie sygnały elektryczne i układy komputera będą mogły je przechować, przetworzyć lub przesłać przez sieć informatyczną nawet na drugi koniec świata. Jeśli odbiorca będzie znał znaczenie poszczególnych bitów (będzie rozumiał język grafiki tego obrazka), to bez problemów odtworzy sobie treść.

Oczywiście piksele mogą przybierać więcej niż 2 kolory. W takim przypadku rośnie liczba informacji i należy zwiększyć ilość bitów kodujących kolor piksela. Oto ten sam obrazek z 4 kolorami pikseli:

obrazek

obrazek

Tabela kodów kolorów:

      00
    01
    10
    11

Po zakodowaniu otrzymujemy (każde dwa bity to jeden piksel):

0000000000000000000000000000000000000000001000000000000000100000
0000000000000000000000000000000000000000000000000000000010000000
0000000000000000000000000000000000000000000010000000001000000000
0000000000000000000000000000000000100000000000000000100000000000
0000000000000000000000001111111111000000000000000000001000100010
0000000000000000000000110000000000111100000011101000000000000000
0000000000000000000011000000000000000011111100000000000000000000
0000000000000000000011000000000000000000000000000000001000000000
0000000000000000000011000000000000000000001000001000000010000000
0000000000000001010101010101000000000000100000000000000000100000
0000000000000001010101010101000000000010000000001000000000000000
0000000000000001010101010101000000000000000000000000000000000000
0000000000010101010101010101010100000000000000001000000000000000
0000000101010101010101010101010101010000000000000000000000000000
0000000101010101010101010101010101010000000000000000000000000000
0000010101010101010101010101010101010100000000000000000000000000
0000010101010101010101010101010101010100000000000000000000000000
0001010101110101010101010101010101010101000000000000000000000000
0001010111010101010101010101010101010101000000000000000000000000
0001010111010101010101010101010101010101000000000000000000000000
0001011111010101010101010101010101010101000000000000000000000000
0001011111010101010101010101010101010101000000000000000000000000
0001010111010101010101010101010101010101000000000000000000000000
0001010101110101010101010101010101010101000000000000000000000000
0000010101110101010101010101010101010100000000000000000000000000
0000010101011111010101010101010101010100000000000000000000000000
0000000101010101010101010101010101010000000000000000000000000000
0000000101010101010101010101010101010000000000000000000000000000
0000000000010101010101010101010100000000000000000000000000000000
0000000000000001010101010101000000000000000000000000000000000000

Zwiększając liczbę bitów na piksel, otrzymujemy możliwość kodowania coraz większej liczby kolorów. Jeśli przeznaczymy na piksele po 8 bitów, to nasze obrazki będą mogły posiadać do 28 = 256 różnych kolorów – popularny w sieci format GIF (ang. Graphics Interchange Format) stosuje właśnie takie rozwiązanie. Grafika GIF najlepiej nadaje się do rysunków, zdjęcia nie wychodzą w niej najlepiej.

obrazek
Obrazek GIF

Format JPG/JPEG (ang. Joint Photographic Experts Group) pozwala kodować piksele 24 bitami. Daje to gamę 224 = 16 milionów kolorów, więcej niż potrafi rozróżnić ludzkie oko. Tryb ten nosi nazwę True Color (prawdziwy kolor) i doskonale nadaje się do cyfrowej fotografii.

obrazek
Obrazek JPG

Film to nic innego jak seria szybko po sobie wyświetlanych obrazków, co daje wrażenie ruchu. Każdy z tych obrazków jest kodowany w opisany powyżej sposób.

obrazek
Animowany GIF

Wniosek: bity doskonale nadają się do reprezentowania grafiki oraz filmów.


Kodowanie tekstu

Tekst jest wciąż bardzo ważny dla ludzi i stosujemy go powszechnie. Tekst zbudowany jest ze znaków. Każdy znak potraktujemy jak osobną informację. Najpierw określamy zbiór znaków, które będziemy chcieli kodować za pomocą bitów. Na przykład tak:

A Ą B C Ć D E Ę F G H I J K L Ł M N Ń O Ó P Q R S Ś T U V W X Y Z Ż Ź 0 1 2 3 4 5 6 7 8 9 . , : ; + - * / ( ) spacja

Teraz liczymy, ile mamy znaków do zakodowania. Wychodzi 56 znaki. Ile potrzebujemy bitów na każdy znak? Oczywiście 6, ponieważ 26 = 64. Zatem słówka 6-bitowe pokrywają zapotrzebowanie, a nawet mamy mały zapas na przyszłe rozszerzenia.

W następnym kroku musimy każdej z liter przypisać unikalne słówko bitowe. Będziemy je nazywali kodem binarnym znaku (ang. binary character code). Możemy to zrobić tak:

A 000000
F 001000
M 010000
S 011000
Z 100000
5 101000
; 110000
Ą 000001
G 001001
N 010001
Ś 011001
Ż 100001
6 101001
+ 110001
B 000010
H 001010
Ń 010010
T 011010
Ź 100010
7 101010
- 110010
C 000011
I 001011
O 010011
U 011011
0 100011
8 101011
* 110011
Ć 000100
J 001100
Ó 010100
V 011100
1 100100
9 101100
/ 110100
D 000101
K 001101
P 010101
W 011101
2 100101
. 101101
( 110101
E 000110
L 001110
Q 010110
X 011110
3 100110
, 101110
) 110110
Ę 000111
Ł 001111
R 010111
Y 011111
4 100111
: 101111
  110111

Gdy kody binarne wszystkich znaków będą gotowe, możemy przystąpić do kodowania tekstu. Każdą literkę tekstu zastępujemy odpowiadającym jej kodem binarnym. Na przykład:

JAPONIA JEST PIĘKNYM KRAJEM.

J 001100 A 000000 P 010101 O 010011 N 010001 I 001011 A 000000   110111
J 001100 E 000110 S 011000 T 011010   110111
P 010101 I 001011 Ę 000111 K 001101 N 010001 Y 011111 M 010000   110111
K 001101 R 010111 A 000000 J 001100 E 000110 M 010000 . 101101

001100000000010101010011010001001011000000110111001100000110011000011010110111010101001011000111001101010001011111010000110111001101010111000000001100000110010000101101

Otrzymany ciąg bitów możemy dowolnie przetwarzać na komputerach.

Działanie odwrotne jest również proste. Załóżmy, że otrzymaliśmy ciąg bitów:

000010000111000101000111110111001100011011011010010111010011101101

Ponieważ wiemy, że w naszym systemie każdy znak jest reprezentowany przez 6 bitów, to otrzymany ciąg dzielimy na grupy 6 bitowe:

000010 000111 000101 000111 110111 001100 011011 011010 010111 010011 101101

Dostaliśmy kody bitowe poszczególnych znaków. Zamieniamy je na litery zgodnie z tabelą kodu:

000010 000111 000101 000111 110111 001100 011011 011010 010111 010011 101101
B Ę D Ę spacja J U T R O .

BĘDĘ JUTRO.

Powyższy kod znakowy jest tylko przykładem szkolnym. W praktyce stosuje się nieco bardziej zaawansowane rozwiązania, np. kod ASCII (ang. American Standard Code for Information Interchange), w którym kod każdego znaku jest 8-mio bitowy. Kod ASCII pozwala kodować 256 różnych znaków. Oczywiście jest to zbyt mało dla kodowania wszystkich używanych przez ludzi liter. Z tego powodu utworzono kod Unicode, gdzie znaki mogą mieć do 32 bitów długości. Kod Unicode powszechnie jest stosowany w Internecie oraz w systemie Windows. Dzięki temu obecne przeglądarki sieciowe potrafią poprawnie wyświetlać tekst praktycznie w każdym języku (pod warunkiem, że masz zainstalowaną odpowiednią czcionkę).

正體字/繁體字

Wniosek: bity nadają się do kodowania znaków.


Kodowanie liczb

Teraz pokażemy sposób przedstawiania liczb naturalnych za pomocą bitów. Wyobraźmy sobie, iż żyjemy w takim dziwnym kraju (no, może tak bardzo tego nie musimy sobie wyobrażać, wystarczy się rozglądnąć), w którym wszystkie monety mają nominały równe potęgom liczby 2:

Nominał Potęga 2
1 20
2 21
4 22
8 23
16 24
32 25
64 26
... ...

Załóżmy, iż w tym dziwnym kraju wyszło zarządzenie, które głosi, iż wszystkie kwoty należy wypłacać najmniejszą możliwą liczbą monet. Za nieprzestrzeganie tego zarządzenia rząd nałożył olbrzymią karę 264. Cóż, nikt tyle pieniążków nie miał, zatem wszyscy rozpoczęli skrupulatne odmierzanie sum pieniężnych.

Z sumami będącymi potęgami liczby 2 nie ma problemu - wystarczy jedna moneta o właściwym nominale. Pozostałe sumy wyliczamy następująco:

Trzeba wypłacić 157. Aby monet było jak najmniej, każda o właściwym nominale powinna wystąpić co najwyżej raz. Ano zobaczmy:

Pierwszą monetą może być 128 (256 byłoby za duże, a 64 musielibyśmy użyć dwukrotnie). Zatem płacimy 128. Pozostaje wciąż:

157 - 128 = 29

Najbliższą monetą będzie 16. Płacimy 16. Pozostaje:

29 - 16 = 13

Teraz płacimy 8. Pozostaje:

13 - 8 = 5

Płacimy 4. Pozostaje:

5 - 4 = 1

I na koniec wypłacamy 1. Podsumujmy:

157 = 128 + 16 + 8 + 4 + 1

No dobrze, powiesz. Co to ma jednak wspólnego z bitami? A ma. Zwróć uwagę, iż przy wypłacie sumy podejmujemy dla poszczególnych nominałów monet jedną z decyzji:

Wypłacić daną monetę  - 1
Nie wypłacać monety  - 0

A to są przecież nasze kochane bity. Ułóżmy monety kolejno z prawa na lewo od najmniejszej do największej. Otrzymamy następujący ciąg nominałów:

Nominał ... 1024 512 256 128 64 32 16 8 4 2 1
Potęga 2 ... 210 29 28 27 26 25 24 23 22 21 20

Teraz pod tak wypisanymi nominałami zapisujemy dla danej sumy pieniężnej wypłaconą liczbę monet danego nominału:

Nominał ... 1024 512 256 128 64 32 16 8 4 2 1
Potęga 2 ... 210 29 28 27 26 25 24 23 22 21 20
157 =   0 0 0 1 0 0 1 1 1 0 1

Ponieważ dana moneta może wystąpić co najwyżej raz, to pod nominałami zapisujemy tylko cyfry 0 lub 1. Jeśli cyfry potraktujemy teraz jako bity, otrzymamy zapis binarny danej liczby dziesiętnej:

157(10) = ...00010011101(2)

W zapisie tym bit o stanie 1 ma wartość odpowiadającej mu potęgi liczby 2. Bit o stanie 0 ma wartość 0. Aby obliczyć wartość całej liczby binarnej wystarczy zatem zsumować wartości bitów o stanie 1.

Oto inny przykład:

W dziwnym kraju na czeku bankier wypisał sumę pieniężną zaznaczając liczbę monet o kolejnych nominałach, które należy wypłacić klientowi banku. Zrobił to tak:

1011101101

Jaką sumę należy wypłacić? My już wiemy. Skoro poszczególne cyfry oznaczają liczbę monet o danym nominale, zapisujemy to tak:

Nominał 512 256 128 64 32 16 8 4 2 1
Potęga 2 29 28 27 26 25 24 23 22 21 20
SUMA = 1 0 1 1 1 0 1 1 0 1

Teraz sumujemy nominały wypłaconych monet i otrzymujemy:

512 + 128 + 64 + 32 + 8 + 4 + 1 = 749

Proste? Jeśli nie, to przeczytaj to kolejny raz, aż zrozumiesz.

Formalnie rzecz biorąc, jeśli mamy n bitową liczbę binarną:

bn-1 bn-2 ... b2 b1 b0, gdzie bi = 0 lub 1, dla i = 0,1,2,...,n-1

to jej wartość dziesiętną obliczamy zgodnie z poniższym wzorem:

wartość = bn-12n-1 + bn-22n-2 + ... + b222 + b121 + b020

Wniosek: bity nadają się do kodowania liczb. 


Na początek:  podrozdziału   strony 

PODSUMOWANIE


Na początek:  podrozdziału   strony 

Materiały uzupełniające


Na początek:  podrozdziału   strony 

Zespół Przedmiotowy
Chemii-Fizyki-Informatyki

w I Liceum Ogólnokształcącym
im. Kazimierza Brodzińskiego
w Tarnowie
ul. Piłsudskiego 4
©2024 mgr Jerzy Wałaszek

Materiały tylko do użytku dydaktycznego. Ich kopiowanie i powielanie jest dozwolone pod warunkiem podania źródła oraz niepobierania za to pieniędzy.
Pytania proszę przesyłać na adres email: i-lo@eduinf.waw.pl
Serwis wykorzystuje pliki cookies. Jeśli nie chcesz ich otrzymywać, zablokuj je w swojej przeglądarce.

Informacje dodatkowe.