Co To Jest Gigabajt

Co To Jest Gigabajt
Co To Jest Gigabajt

Wideo: Co To Jest Gigabajt

Wideo: Co To Jest Gigabajt
Wideo: Bit? Bajt? Gibibajt? O jednostkach w Twoim PC 2024, Może
Anonim

Kiedy rozwój cywilizacji osiągnął punkt przetwarzania danych komputerowych, powstało całkiem sporo nowych terminów i pojęć. W szczególności konieczne stało się niejako oznaczenie jednostek informacji przechowywanych na urządzeniach pamięci masowej i przesyłanych przez sieci. Wraz z pojawieniem się komputerów osobistych, odtwarzaczy i telefonów komórkowych, wiele wysoce wyspecjalizowanych terminów stało się powszechnie znanych.

Co to jest gigabajt
Co to jest gigabajt

Najmniejsza możliwa jednostka informacyjna składa się z dwóch wartości – „tak” lub „nie”, 0 lub 1. Od 1948 roku jednostka ta nosi nazwę „bit”. W przetwarzaniu komputerowym wszelkie informacje są dzielone na bity - liczby, tekst, kolor, dźwięk, położenie przestrzenne itp. Procesor przetwarza każdą jednostkę danych sekwencyjnie, ale wstawienie bitów powoduje, że kolejka jest zbyt długa, a tym samym ogranicza wydajność. Dlatego współczesne procesory pracują z grupami jednostek informacyjnych składających się z 8 bitów - ta grupa nazywa się „bajtami” i jest uważana za minimalną jednostkę przetwarzania danych komputerowych. Pogrupowane w bajty informacje są przechowywane na dyskach lub w pamięci wirtualnej, a także przesyłane przez połączenia sieciowe.

W metrycznym systemie jednostek SI przyjętym dzisiaj w większości krajów ustalone są zasady, zgodnie z którymi skalowane są dowolne jednostki miary. Aby wyznaczyć wartość, która jest tysiąc razy wyższa niż ta, która jest akceptowana w tym systemie, do jego nazwy dodawany jest przedrostek „kilo”. Na przykład 1000 gramów = 1 kilogram, 1000 bajtów = 1 kilobajt. Istnieją te same przedrostki dla innych tysiąckrotnie zwiększonych jednostek - milionowi przypisywany jest przedrostek "mega" (1 000 000 bajtów = 1000 kilobajtów = 1 megabajt), a miliard - "giga". Dlatego 1 gigabajt odpowiada miliardowi minimalnych jednostek informacji - bajtów.

Jednak ze względu na fakt, że informacja komputerowa ma charakter binarny (tak/nie, 0/1), informatycy na swoje wewnętrzne potrzeby od samego pojawienia się procesorów używają nie dziesiętnego systemu liczbowego, jak w SI, ale binarnego. Z tego powodu często pojawia się zamieszanie z dokładną definicją gigabajtów - w systemie binarnym jednostka ta odpowiada nie 10⁹ (1 miliard), ale 2³⁰ (1 073 741 824). Najczęściej ta rozbieżność występuje przy zakupie różnych urządzeń pamięci masowej (dysków twardych, pendrive'ów, odtwarzaczy itp.) - producenci wskazują swoją pojemność w interpretacji gigabajtów, co pokazuje produkt w bardziej korzystnym świetle.

Zalecana: