442 Shares 8177 views

Pierwsza generacja komputerów: punktem wyjścia

W języku angielskim, „komputerem” oznacza słowo „komputer”. To z myślą o wykonywaniu skomplikowanych obliczeń, pierwsze komputery zostały stworzone.

Historia komputera, jak może się wydawać, ma swoje korzenie w starożytności. Oczywiście, pierwsze narzędzia obliczeniowe nie iść do dowolnego porównaniu z nowoczesnym, ale jest z nimi, i rozpoczął tworzenie technologii komputerowej. Pierwszym narzędziem, które pomaga ludziom myśleć, były dobrze znane przez wszystkich kont.

Starożytne liczydło jest drewniany talerz, posypane piaskiem. W Rosji, jak ważnym narzędziem do prostych obliczeń i obliczeń wykorzystywane kości rozkłada się pali. Jednakże, ponieważ istnienie Rosji zajmie o wiele więcej stuleci zanim zbliżyć się do stworzenia komputera.

Pierwsza generacja komputerów związanych z nazwiskami Johna von Neumanna, Claude Shannon i Alana Turinga – doktryna bezpośrednie znaczenie dla rozwoju technologii komputerowej. Większość z pierwszych komputerów powstały w okresie od 1945 do 1954 roku jako eksperyment w celu zbadania niektórych stanowisk teoretycznych. W tym samym czasie otrzymuje nowy rozwój, bezpośrednio związane z technologią informacyjną, nauka – cybernetyka. Aż do lat 60-tych 20 wieku pod implikowanych cybernetyki, nauki związane z rozwojem technologii komputerowych, w tym jego najbardziej obiecującym kierunku – robotyki i sztucznej inteligencji wynalazku. Pierwsza generacja komputerów został stworzony w oparciu o prace rur próżniowych (podobnych do tych stosowanych w starszych telewizorów, komputerów), w połowie 20 wieku, osiągnął ogromne rozmiary, oddzielny pokój potrzebne do ich pomieścić.

Ewolucja komputera obejmuje pięć podstawowych etapów. Dlaczego to jest bardziej prawdopodobne, aby uznać to okres pierwszej generacji komputerów? Nie bierzemy pod uwagę obliczeniowej wynalazek naszych starożytnych przodków, ponieważ są one w rzeczywistości, nie mają związku z pojawieniem się technologii komputerowej. Stworzenie pierwszych komputerów, który jest prototypem nowoczesnego komputera, ma zasadnicze znaczenie dla takiej nauki, jako nauki, jako całości.

Etapy rozwoju komputera:

  • 1945-1954, miasto – utworzenie pierwszego komputera opartego na rozwoju struktur technologii komputerowej przez Johna von Neumanna – pierwsza generacja komputerów;
  • 1955-1964, miasto – utworzenie drugiej generacji komputerów opartych na tranzystorach, realizując je w pierwszym systemem operacyjnym, rozwój języków programowania: COBOL Algol, Fortran, z pojawieniem się komputerów do sprzedaży;
  • 1965-1974, miasto – wynalezienie mikroprocesorów, początek wykorzystania pamięci półprzewodnikowej (RAM) w komputerze, początek produkcji na dużą skalę komputerów.

Natomiast od 1975 do 1985 to okres spokoju w rozwoju elektrofiltrów komputerów.

Od 1985 roku rozpoczął się okres czwartej generacji komputerów, poprawę technologii komputerowej poprzez zwiększenie jego zdolności i zmniejszyć wielkość, dostępność i masową produkcję komputerów.

Piąta generacja komputerów pod względem japońskich naukowców sugeruje poprawę istniejących modeli komputerów i stworzenie technologii komputerowej, zdolność rozumienia poleceń użytkownika do jego poziomu myślenia. Niezależnie od tego, kto wykonuje gigantyczne plany zagranicznych wynalazców lub nie, pierwsza generacja komputerów odegrała bardzo ważną rolę w rozwoju technologii informacyjnych w przyszłości. Pierwsze komputery, zajmując ogromne tereny i prezentuje nam z prawdziwym potworem, i tak, jest prototypem całej naszej zwykłym PC. Bez ich istnienia, wynalezieniem laptopów, netbooków, tabletów itp byłoby niemożliwe.