|
Serwis Edukacyjny Nauczycieli w I-LO w Tarnowie
|
Autor artykułu: mgr Jerzy Wałaszek |
©2026 mgr Jerzy Wałaszek
|
| SPIS TREŚCI |
Pojęcie bitu
Przesyłanie bitów
|
Na potrzeby tego rozdziału przyjmijmy, iż informacja jest pojęciem pierwotnym, którego nie będziemy definiowali. Ma to pewien sens, ponieważ każdy z nas posiada swoje własne rozumienie tego terminu. Zastanówmy się natomiast, jak można reprezentować, czyli przedstawiać informację.
Zatem słowa, pismo, gesty, znaki, wszystko to może służyć do reprezentowania informacji. Elementy te będziemy ogólnie nazywali symbolami. Z kolei zbiór takich symboli nazwiemy danymi - czyli dane, to symbole, które mogą reprezentować informację. Aby wydobyć informację z danych, musimy wiedzieć, w jaki sposób informacja została z tymi danymi skojarzona, powiązana. Nie jest to wcale oczywiste. Jeśli masz wątpliwości, to proponuję taki prosty eksperyment:

Czy rozumiesz o czym mówią ludzie w tej audycji? A jeśli nie, to z jakiego powodu? Oczywiście odpowiesz - bo nie znam tego języka, co w tym dziwnego. Masz rację. Nie znasz języka i nie rozumiesz. Ale przecież odbierasz dane - czyli słowa. Gdyby dane były równoważne informacji, to odczytanie jej z tych danych nikomu nie sprawiałoby żadnej trudności i nie musiałbyś uczyć się w szkole języków obcych (wszystkie języki byłyby nasze). Niestety tak nie jest. Zatem wniosek może być tylko jeden. Same dane nie są jeszcze informacją. Musimy jeszcze znać sposób przypisania danych do określonych informacji - w przypadku języka oznacza to konieczność poznania znaczenia słówek oraz gramatyki, inaczej będziesz miał poważne kłopoty ze zrozumieniem przekazu.
Daną informację można reprezentować za pomocą różnych symboli. Przykładowo pojęcie PRZYJACIEL w różnych językach to różne słówka:
| friend | – | angielski |
| Freund | – | niemiecki |
| amigo | – | hiszpański |
| ami | – | francuski |
| barát | – | węgierski |
| mellon | – | elficki z powieści Władca Pierścieni Tolkiena (czarodziej Gandalf wypowiada to słowo, aby otworzyć magiczne wejście do kopalń Morii). |
| c'khrng | – | dźwięk wydawany na widok przyjaciela przez żabopodobne stwory, żyjące w bagnistych kraterach na czwartym księżycu ósmej planety systemu Syriusza. Ich krewniacy Lekhomonty w tej samej sytuacji wysyłają błysk promieni gamma. |
Symbole są różne, lecz znaczenie takie samo (lub prawie takie samo). Istnieją oczywiście kontrprzykłady – ten sam symbol oznacza różne informacje, np. słowa wieloznaczne:
zamek (w drzwiach, w kurtce lub duży dom dla rycerza)
dziób (ptaka, samolotu, okrętu)
blok (budynek z mieszkaniami,
krążek z liną, zablokowanie ciosu w karate)
Jednakże w większości przypadków nie dochodzi do zamieszania, ponieważ właściwe znaczenie słowa wybieramy w zależności od sytuacji, w której jest ono używane. Jeśli mówimy o zamykaniu zamka na klucz, to oczywiście mamy na myśli zamek w drzwiach, a nie miejsce noclegowe dla rycerzy (chociaż te zamki też pewnie można było zamykać na klucze). Taka jednoznaczna sytuacja nazywa się kontekstem użycia danych.
Co z tego dla nas wynika? Otóż jeśli chcemy wyrażać informację w jakiejś czytelnej dla innych formie, to:
| DANE + INTERPRETACJA + KONTEKST → INFORMACJA |
Jeśli powyższe trzy punkty spełnimy, otrzymamy system reprezentacji określonych informacji za pomocą wybranych symboli – danych. Gdy to już wiemy i rozumiemy, możemy przejść do pojęcia bitu.

Postawmy się w roli pioniera komputerów. Mamy przed sobą bardzo poważne zadanie – budowę komputera, czyli maszyny liczącej, która będzie przetwarzała informację. Zanim zaczniemy montować to ogromniaste urządzenie z tysięcy podzespołów i setek kilometrów kabli, musimy określić zbiór symboli, które maszyna ma przetwarzać. Innymi słowy musimy określić zbiór danych dla maszyny oraz sposoby ich interpretacji.
Jakie symbole wybrać? Mowę? Za trudna i jak ją zapisywać wewnątrz maszyny! Pismo? Też trudne. Gesty lepiej zapomnieć. Ideałem byłby symbole najprostsze z możliwych. Dla takich symboli może znaleźlibyśmy jakieś w miarę proste sposoby ich realizacji w naszym komputerze za pomocą odpowiednich obwodów elektronicznych. Co to mogłoby być?
I w tym miejscu ktoś kiedyś dostał olśnienia – najprostszym symbolem byłby taki symbol, który mógłby występować tylko w dwóch rozróżnialnych postaciach, w dwóch formach, najlepiej przeciwnych. Dlaczego akurat w dwóch a nie w trzech. Bo dwie postacie są prostsze od trzech, jasne?!
W
układzie elektronicznym taki symbol mógłby być przedstawiany przez np. dwa
różne napięcia
elektryczne – pierwsza postać symbolu to napięcie powiedzmy
W tym momencie powinieneś zapytać – no dobrze, ale po co mi to wszystko jest potrzebne?
Cały czas chodzi nam o przedstawianie informacji przy pomocy jak najprostszych symboli. Znaleźliśmy proste dane – symbole dwustanowe. Musimy teraz pokazać, iż takie symbole będą dobrze nadawały się do naszego celu, czyli pozwolą kojarzyć z nimi dowolną ilość informacji.
Aby ułatwić sobie życie, oznaczmy stany naszego symbolu cyframi 1
(stan wysoki – np. napięcie 5 V, prąd płynie, jest światło, itp.) oraz 0 ( stan niski – np. napięcie 0 V, brak prądu, brak
światła, itp.). Dlaczego akurat wybraliśmy cyfry
| Zbiór danych = {0, 1} |
Dwóm symbolom można przypisać dwa różne znaczenia, dwie informacje. Jakie? Takie, które potrzebne są nam w danym zastosowaniu. Dla przykładu wyobraźmy sobie, iż nasz system komputerowy zbiera dane od czujników pożarowych, umieszczonych w różnych punktach budynku. Czujnik pożarowy reaguje na wzrost temperatury lub dym. Jeśli temperatura osiągnie krytyczną wartość lub pojawi się dym w otaczającym czujnik powietrzu, wewnątrz zostają zwarte dwa przewody i zaczynie płynąć prąd elektryczny. Brak prądu (stan niski 0) oznacza zatem normalną temperaturę w chronionym pomieszczeniu. Pojawienie się prądu (stan wysoki 1) informuje nas o wysokiej temperaturze, czyli o wybuchu pożaru.

W tym kontekście stany 0 i 1 mają oczywiste znaczenie:
| 0 – wszystko jest w porządku, 1 – pożar |
W innym kontekście symbole
Symbol, który może występować w jednym z dwóch stanów
(form, postaci), nazwano bitem. Twórcą tej nazwy
był amerykański statystyk John Turkey, który ją wymyślił
w trakcie drugiego śniadania (najprawdopodobniej po wypiciu
dokładnie dwóch łyków kawy z niewielkim dodatkiem mleka, co jednakże nie miało
wpływu na dalsze losy bitów) na jednej z konferencji naukowych w zimie
roku 1943. W owym czasie istniały już komputery wykorzystujące opisane przez nas
powyżej symbole dwustanowe do wykonywania różnych obliczeń. Informatycy
oznaczali je cyframi
| bit = binary digit |
W późniejszym okresie John wyjawił, iż rozważał jeszcze dwie inne kombinacje literek:
| bigit
=
binary digit binit = binary digit |
Jak dzisiaj już wiemy, przyjęła się tylko pierwsza forma. Określenie bit w charakterze symbolu dwustanowego, przeznaczonego do symbolicznego reprezentowania informacji pojawiło się po raz pierwszy w 1948 roku w pracach wybitnego informatyka, Claude Shannona, twórcy teorii informacji.
Zapamiętaj:Bit jest symbolem
występującym tylko w dwóch różnych stanach, które w informatyce
najczęściej oznaczamy cyframi dwójkowymi |
Jednemu bitowi możemy przypisać maksymalnie dwie różne informacje – jedną dla stanu 1 oraz drugą dla stanu 0. Co jednak mamy zrobić, jeśli w pewnym kontekście musimy operować większą ilością informacji? Cóż, musimy potraktować bity jako literki i tworzyć z nich słowa – zupełnie tak samo jak w naszym ojczystym języku. Zbadajmy tę możliwość.
Słowo 1 bitowe0 – pierwsza informacja Słowo 2 bitowe:00 – pierwsza informacja Słowo 3 bitowe:000 – pierwsza informacja |
Nowe kombinacje słówek binarnych otrzymujemy z poprzednich kombinacji
dołączając do nich raz bit o stanie 0, a następnie jeszcze raz dołączając
bit o stanie 1. W efekcie ilość kombinacji zawsze podwaja się.
|
Widzimy wyraźnie, iż dodanie kolejnego bitu do słówka binarnego zwiększa dwukrotnie ilość możliwych kombinacji stanów bitów tworzących to słowo. Większa ilość kombinacji przekłada się na większą ilość informacji, które można bezpośrednio przypisać utworzonym słówkom binarnym. Ponieważ ilość kombinacji podwaja się przy każdym dodanym bicie, otrzymujemy proste zależności:
| 1 bit | → | 2 informacje | → | 21 informacji |
| 2 bity | → | 4 informacje | → | 22 informacji |
| 3 bity | → | 8 informacji | → | 23 informacji |
| 4 bity | → | 16 informacji | → | 24 informacji |
| ... | ... | ... | ||
| n bitów | → | ... | → | 2n informacji |
Co z tego wynika? Otóż dla każdej skończonej ilości informacji x zawsze możemy dobrać takie n, aby
| dla x > 1: n ≥ log2 x ; n ∈ N |
Przykład:
Załóżmy, iż w pewnym systemie informatycznym musimy przetwarzać
(posługiwać się) 1000 różnych informacji. Przetwarzane informacje
będziemy w tym systemie przedstawiać
Odpowiedź:
Dla słówek 10 bitowych liczba wszystkich możliwych kombinacji
wynosi
Zapamiętaj:Słówka Aby przyjąć x kombinacji,
słówka binarne muszą składać się z |
Teraz możemy odpowiedzieć na postawione na początku rozdziału pytania:
![]() |
Zespół Przedmiotowy Chemii-Fizyki-Informatyki w I Liceum Ogólnokształcącym im. Kazimierza Brodzińskiego w Tarnowie ul. Piłsudskiego 4 ©2026 mgr Jerzy Wałaszek |
Materiały tylko do użytku dydaktycznego. Ich kopiowanie i powielanie jest dozwolone pod warunkiem podania źródła oraz niepobierania za to pieniędzy.
Pytania proszę przesyłać na adres email:
Serwis wykorzystuje pliki cookies. Jeśli nie chcesz ich otrzymywać, zablokuj je w swojej przeglądarce.
Informacje dodatkowe.