Bajt to jednostka przechowywania i przetwarzania danych cyfrowych. W systemach obliczeniowych jeden bajt jest równy ośmiu bitom. W rezultacie przyjmuje jedną z 256 wartości. Aby oznaczyć słowo zawierające 8 bitów, istnieje pojęcie „oktetu”.
Instrukcje
Krok 1
Angielskie słowo byte pochodzi od wyrażenia binarnego, które oznacza „termin binarny”. Po raz pierwszy pojęcie „bajta” zostało użyte w 1956 roku podczas projektowania komputera IBM 7030. Początkowo jeden bajt był równy 6 bitom, ale później jego rozmiar został rozszerzony do 8 bitów.
Krok 2
Niektóre komputery zbudowane w latach 50. i 60. używały znaków 6-bitowych. Komputery produkowane przez Burroughs Computer Corporation używały 9-bitowego bajtu.
Krok 3
IDM System / 360 jako pierwszy zastosował adresowanie bajtowe. Jego przewaga nad adresowaniem całego słowa maszynowego polega na tym, że łatwiej jest przetwarzać informacje tekstowe. Ten system również używał bajtów składających się z 8 bitów.
Krok 4
W latach 70. 8-bitowy rozmiar stał się de facto standardem.
Krok 5
Użycie wielu prefiksów, które umożliwiają tworzenie jednostek pochodnych, nie jest wykonywane w zwykły sposób dla bajtu. Po pierwsze, nie stosuje się zdrobniałych przedrostków, a po drugie, przedrostki dla powiększenia są wielokrotnościami 1024 (nie 1000). Jeden kilobajt to 1024 bajty, jeden megabajt to 1024 kilobajty (1048576 bajtów) itd.
Krok 6
Międzynarodowa Komisja Elektrotechniczna (IEC) zatwierdziła przedrostki binarne dla bajtów w 1999 roku, ponieważ użycie standardowych miejsc dziesiętnych jest nieprawidłowe. Nazwa prefiksu binarnego jest tworzona przez zastąpienie ostatniej sylaby w prefiksie dziesiętnym przez „bi”. Te. 1024 bajty - 1 kibibajt, 1024 kibibajty - 1 mebibajt itd.
Krok 7
W rosyjskim GOST 8.417-2002, zwanym „Jednostkami ilości”, do oznaczenia bajtu używana jest cyrylica wielka litera „B”. Wskazuje się również, że stosowanie przedrostków dziesiętnych do tworzenia jednostek pochodnych jest szeroko stosowane, ale jest niepoprawne.