313 Shares 3340 views

Jednostki informacji

Jednostka jest obecna w każdej dziedzinie działalności człowieka jako konwencjonalny odpowiednik środka niczym. Objętość, długość i masa – najczęściej z już istniejących. Na różnych kontynentach, w różnych językach, niezależnie od religii, używamy oznacza taki sam pomiar. Dla człowieka jest to wygodne, dostępne i zrozumiałe, że nie wymaga żadnych działań, które mają być przekształcone, co często prowadzi do błędów.

Wraz z pojawieniem się komputera w życiu człowieka, istnieje również potrzeba, aby utworzyć jedną jednostkę informacji ilościowej. Tak, tak, że jest postrzegana i chiński i amerykański, a każdy inny komputer na świecie. Wszyscy programiści z całego świata mogli używać go jako wspólnego języka. Więc było trochę logarytmu binarnego.

BIT – jednostka informacji równa informacji o liczbie i przy założeniu jedynie dwie wartości „on” i „off” (przedstawiona jako 1 i 0). Do komputera w celu zakodowania alfabetu angielskiego, sześć bitów jest wystarczające, ale dla realizacji bardziej złożonego procesu programowania będzie wymagało większej objętości jednostek informacji, które zostały zapożyczone z łacińskiego matematyki prefiks. Bity w komputerze – jest impuls elektryczny jest zasilany ze stanowiska dowodzenia do organu wykonawczego i wzajemnym wpływem impulsu wykonanej pracy. Rozkazy 0 i 1 są w różnych zakresach. Wszystko to dzieje się tak dużą prędkością porównywalną do przekazywania informacji pomiędzy mózgiem i zakończeń nerwowych w ciele ludzkim.

Wszystkie języki programowania są przypisane do kodu binarnego. Zdjęcia przeniesione do postaci elektronicznej, gier i dowolnego programu, kierownictwo produkcji zmechanizowanego – używają wspólnych jednostek informacyjnych – bit.

Gromadzenie w bitach łańcuchowych impulsy tworząc nowe informacje jednostkę pomiaru: bajtach, kilobajtach kilobitów, megabitów megabajtach gigabajtów, terabajtów, PB i tak dalej.

Bajt wyniesie osiem bitów i ma drugie imię – oktet jak w historii komputerowej istnieją rozwiązania jako 6-bitowych bajtów i 32-bit, ale to tylko oprogramowanie z niektórych firm w poprawie jednostki informacyjnej, która nie dała owocne rezultaty. Ale głównym jest osiem-bitowy bajt, tzw nazwa zwyczajowa „oktet”.

Aby ułatwić obsługę informacji, liczbę jednostek informacji zakodowanych w specjalnie zatwierdzonego typu tabela Unicod i inne rodzaje kodowania przy użyciu systemu operacyjnego Windows lub inne. Każda z tabel jest używany zgodnie z jego przeznaczeniem. Na czarno-biały obraz przy użyciu 8-bitowego systemu binarnego, a dla koloru jest już 24-bit. Aby napisać tekst w dowolnym języku świata do korzystania z 16-bitowej UNICOD wystarczy.

W tej chwili przeciętny użytkownik jest dostępny tasam duża jednostka informacji jako terabajta – to 1024 gigabajtów, które stanowią, z kolei, 1024 gigabajtów. Jeśli pomnożyć przez 1024, otrzymamy liczbę megabajtów, które tworzą jeden terabajt. Jeśli takie proste mnożenie kontynuowane aż do początkowej jednostki, a następnie skręcić na pierwszym dniu, w dowolny kalkulator nie pasuje. Będzie to liczba kodów binarnych, które są potrzebne do wypełnienia tej objętości.

W rzeczywistości, wielu producentów komponentów wykorzystywanych w wydaniu dosłownym znaczeniu przedrostków kilo, mega i giga. Prowadzi to do znacznych błędów i zawoalowanej oszustwa. Oznacza to, że dysk twardy jest 1 terabajt fizycznie można zapisać łącznie 950 megabajtów danych. społeczność komputerowa od dawna oferuje sposób, aby tego uniknąć.

Przedrostki kilo, mega, a więc pozostają na swoich zwykłych czynników. Kilo – tysiąc, mega – milion. Dla sprzętu komputerowego, aby właściwie wykorzystać mnożnik nie jest 1000 i 1024. Nazwa on też wymyślił – KIBI. Oznacza to, że poprawne przedrostki i mnożniki są: kibi-, mibi- i poza nią.