Piotr Zając - Specjalista IT

Krótka historia informatyki

Naprawdę krótka historia informatyki
Odkąd pamięć sięga ludzie próbowali automatyzować liczenie. Zatem początki informatyki teoretycznej sięgają powstania pierwszych algorytmów (czyli procedur przetwarzania informacji), zaś informatyki praktycznej powstania pierwszych urządzeń wspomagających obliczenia. Już 3000 lat p.n.e. ludy sumeryjskie wykorzystywały do obliczeń gliniane tabliczki z wyżłobionymi rowkami do których wkładano kamyki, a około 2600 p.n.e. Chińczycy skonstruowali abakus, czyli drewnianą tabliczkę podzieloną na kolumny.


Chiński abacus

Pierwszy znany algorytm wymyślił wielki grecki matematyk i filozof Euklides. Chodzi o algorytm znajdowania największego wspólnego dzielnika dwóch liczb naturalnych, znany nam doskonale z lekcji matematyki. Samo słowo algorytm pochodzi od nazwiska matematyka arabskiego, który żył wieleset lat później. Muhammad ibn Musa al-Chorezmi, stworzył kilka dzieł matematycznych, w których opisał dużą ilość reguł (dodawania, odejmowania, mnożenia i dzielenia liczb dziesiętnych).

Na początku XVII wieku John Neper (1550-1617) opublikował dzieło o logarytmach i opisał przyrząd wspomagający mnożenie za pomocą logarytmów. Przyrząd ten zwany był sztabkami Nepera. Idea działania była prosta, acz rewolucyjna. Mnożenie sprowadzono do serii dodawań. Pomysł ten jest wykorzystywany jest zresztą w dzisiejszych komputerach.

Za twórcę pierwszej mechanicznej maszyny liczącej uznaje się Wilhelma Schickarda (1592-1635).


Maszyna Schickarda

W 1642 roku Blaise Pascal (1623-1662), buduje sumator arytmetyczny. Pascal zbudował około 50 egzemplarzy tego typu maszyn. Za ich pomocą liczono głównie pieniądze, odległości i powierzchnie. Z punktu widzenia techniki były to jeśli nie pierwsze komputery to pierwszego maszyny liczące czyli kalkulatory.


Sumator Pascala

Kolejny milowy krok wykonał wielki matematyk Gottfried Wilhelm Leibniz (1646-1716), który opracował podstawy systemu dwójkowego. System ten jest obecnie podstawowym systemem do reprezentacji informacji w komputerach.

Na początku XIX wieku angielski matematyk Charles Babbage (1791-1871) konstruuje tak zwaną maszynę różnicową, do rozwiązywania określonych równań matematycznych. Babbage jest obecnie uważamy za najwybitniejszego twórcę maszyn liczących, żyjącego w epoce przedkomputerowej. Kolejnym jego dziełem jest model i próba realizacji maszyny analitycznej.


Maszyna różnicowa Babbage’a (rekonstrukcja)


Maszyna analityczna Babbage’a (rekonstrukcja)

Maszyna ta składała się z magazynu (odpowiednik pamięci), młyna (odpowiednik procesora) i mechanizmu sterującego (jednostka sterująca). Pamięć służyła do przechowywania danych i wyników operacji. Młyn wykonywał proste operacje arytmetyczne. Działaniem całego urządzenia kierował programowany mechanizm sterujący. Programowania miało odbywać się za pomocą kart perforowanych. Tego typu katy używane były do sterowania krosen. Niestety nigdy nie skonstruowano kompletnej i działającej maszyny analitycznej. Jednak dzięki dokładnym opisom Ada Augusta hrabina Lovelace, opracowała pierwsze programy dla tej maszyny, stając się dzięki temu pierwszą programistką na świecie. Jej imieniem nazwano jeden z najbardziej uniwersalnych i zaawansowanych języków programowania czyli język ADA.

W roku 1887 Herman Hollerith (1860-1929) zbudował w Baltimore maszynę liczącą, której zadaniem było znormalizowanie danych o umieralności ludności USA. Maszyna automatycznie odczytywała, porządkowała i grupowała dane według określonych kryteriów. Do wprowadzania danych do maszyny służyły specjalne karty perforowane. Występowanie danej cechy oznaczone było otworem wykonanym w odpowiednim miejscu karty. Maszyna pozwoliło 8-krotnie przyspieszyć prace obliczeniowe związane ze spisem powszechnym w roku 1890. Upojony odniesionym sukcesem w 1896 Hollerith założył przedsiębiorstwo Tabulating Machine Company, które w 1917 przekształciło się w International Business Machine, czyli dzisiejszą firmę IBM. Karty perforowane przez wiele dziesięcioleci stały się uniwersalnym nośnikiem informacji: danych do obliczeń, programów i wyników.


Maszyna Holleritha

W 1936 roku w Niemczech, Konrad Zuse tworzy maszynę liczącą Z1. W następnych latach powstają jej udoskonalone wersje – Z2 i Z3 oraz Z4. Maszyny te przeznaczone były oczywiście dla potrzeb militarnych. Obliczenia wykonywane były na liczbach zapisanych w systemie dwójkowym w tak zwanej reprezentacji zmiennoprzecinkowej. Sterowanie maszyną realizował program zapisany na taśmie perforowanej. W maszynach tych nie było części mechanicznych, były natomiast przekaźniki elektromagnetyczne. Ostatni model maszyny Zusego, Z4 działał aż do końca lat pięćdziesiątych.


Maszyna Zuse’go Z3

W 1944 roku IBM buduję pierwszy kalkulator elektromechaniczny. Programowanie kalkulatora polegało na odpowiednim łączeniu przewodami gniazd w tablicy sterującej. Dane wprowadzane były za pomocą dziurkowanych kart, wyniki wyprowadzano na taśmę perforowaną lub drukowano za pomocą elektrycznych maszyn do pisania. Ów kalkulator, o nazwie MARK I, liczył sobie 17 metrów długości i 3 metry wysokości, był więc całkiem spory. Do jego budowy użyto prawie 18000 lamp elektronowych. Obsługiwało go aż 10 osób. Kalkulator potrafił w ciągu 2 sekund dodać 7 liczb, a dzielenie zajmowało mu aż 11 sekund. Częstotliwość taktowania wynosiła 100 kHz. Mimo pozornie powolnego działania zastępował on pracę 100 rachmistrzów wyposażonych w klasyczne arytmometry.


Mark I

Wreszcie w 1942 naukowcy amerykańscy budują pierwsze urządzenie zasługujące na nazwę komputera. Jest to ENIAC (ang. Electronic Numerical Integrator And Computer). Jest to pierwsza maszyna w której użyto wyłącznie elementy elektroniczne (lampy elektronowe). Jest to pierwsza maszyna w której zastosowano wyłącznie elementy elektroniczne (lampy elektronowe). Mimo, że w 1976 roku okazało się, że wcześniej w Anglii powstały maszyny Colos I i Colos II, ENIAC-a uznaje się dzisiaj za pierwszy komputer. ENIAC-a programowało się ręcznie poprzez ustawianie przełączników i wymianę specjalnych tablic programowych. Jego długość wynosiła 15 metrów, a szerokość 9. Maluch ten ważył 30 ton i składał się z około 18000 lamp elektronowych. Ciekawostką był fakt, że liczby zapamiętywane były w układzie dziesiętnym, a nie dwójkowym jak to odbywa się dziś. ENIAC potrafił wykonać 5000 dodawań oraz od 50 do 360 dzieleń na sekundę. ENIAC był urządzeniem bardzo awaryjnym, a jego programowanie było bardzo uciążliwe.


ENIAC – pierwszy komputer

W 1946 roku John von Neumann zaproponował architekturę, według której są budowane komputery do dnia dzisiejszego. Została ona nazwana architekturą von neumannowską. W pamięci komputera przechowywane miały być zarówno dane podlegające danych przetwarzaniu, jak i program, który te dane miał przetwarzać. Dzięki temu porzucono wreszcie programowanie sprzętowe (przełączanie kabli, czy zworek) i zastąpiono je programowaniem wewnętrznym, poprzez umieszczenie w pamięci maszyny programu sterującego przetwarzaniem danych. Architektura von neumannowska wyróżniała następujące elementy składowe: pamięć złożoną z elementów przyjmujących stany 0 i 1, arytmometr wykonujący działania arytmetyczno-logiczne oraz jednostkę sterującą. Wszystkim sterował program umieszczany w pamięci. Stanowiło to całkowity przełom w stosunku do wcześniejszych koncepcji, w których program był zapisywany na kartach perforowanych i bezpośrednio z nich odczytywany i uruchamiany. W maszynie von neumannowskiej program i dane znajdowały się w pamięci fizycznej, a program mógł modyfikować zawartość pamięci i samego siebie. Program był ciągiem instrukcji pobieranych i rozpoznawanych przez jednostkę sterującą w takt zegara. Praca maszyny oparta była na modelu maszyny Turinga, Neumann znał jej schemat teoretyczny. W 1949 roku w oparciu o tę architekturę powstaje komputer EDSAC.

Pierwszą maszyną cyfrową, która była przeznaczona do zastosowań cywilnych był komputer UNIVAC. Program na nim uruchomiony przewidział zwycięstwo Eisenhowera w wyborach prezydenckich w 1952 roku.


Komputer UNIVAC

Milowym krokiem w rozwoju komputerów było powstanie komputerów osobistych. Pierwszym komputerem osobistym był Altair wyprodukowany w 1975 roku przez firmę MITS. Altair posiadał 8-bitowy procesor Intel 8080 i 256 bajtów pamięci (tak, tak, bajtów), nie miał ani klawiatury, ani monitora, ani jakiegokolwiek napędu. Znany nam wszystkim Bill Gates napisał dla niego język BASIC (ang. Beginner’s All Purpose Symbolic Instruction Code). Altair zyskał ogromną popularność i był prekursorem całej serii komputerów ośmiobitowych. Praktycznie wszystkie komputery ośmiobitowe działały pod kontrolą systemu operacyjnego nazywanego CP/M (ang. Control Program/Monitor lub Control Program for Microcomputer), wyprodukowanego przez firmę Digital Research. Jednak absolutnym przełomem w historii komputerów, którego konsekwencje widoczne są po dziś dzień było powstanie w 1980 roku komputera IMB PC (ang. Personal Computer), czyli popularnie mówiąc dzisiejszego peceta. Warto jednak pamiętać, że wcześniej, przed powstaniem IBM PC powstał inny komputer domowy. Był to Apple I, który był prekursorem tak dziś popularnych, choć głównie w USA jabłuszek. Komputery Apple, które zmieniły nazwę na Macintosh jako pierwsze posiadały interfejs graficzny. Miały też inną architekturę. Jakkolwiek pecety dominują dziś na światowym rynku komputerów, macintoshe przewyższają je niezawodnością pracy i wygodą obsługi.


Pierwszy komputer domowy – Altair 8800

Najważniejsze daty w historii komputerów:

1945 – powstaje komputer ENIAC
1947 – wynalezienie tranzystora
1958 – wynalezienie układu scalonego
1964 – powstaje superkomputer IBM S/360, zwany do dziś Mainframe
1964 – powstaje graficzny interfejs użytkowy i mysz
1971 – powstaje procesor INTEL 4004, zawierający 2.3 tys. tranzystorów, taktowany zegarem 740 kHz
1972 – powstaje procesor INTEL 8008 (3.5 tys. tranzystorów)
1974 – powstaje procesor INTEL 8080 (4.8 tys. tranzystorów)
1975 – powstaje komputer Altair 8800
1976 – powstaje procesor Zilog Z80
1976 – powstają procesory INTEL 8086 i 8088
1977 – powstaje komputer Apple II
1979 – powstaje procesor Motorola 68000
1981 – powstaje komputer IBM PC (procesor Intel 8088, 64 kB RAM)
1982 – powstaje procesor INTEL 80286 (134 tys. tranzystorów)
1983 – powstaje komputer PC XT (procesor INTEL 8086)
1984 – powstaje komputer PC AT (procesor INTEL 80286)
1985 – powstaje procesor INTEL 80386 (275 tys. tranzystorów)
1989 – powstaje procesor INTEL 80486 (1.18 mln tranzystorów)
1992 – powstaje procesor Power PC (2,8 mln tranzystorów), montowany w komputerach Macintosh
1993 – powstaje procesor INTEL Pentium (3.1 mln tranzystorów)
1995 – powstaje procesor INTEL Pentium Pro (5.5 mln tranzystorów)
1996 – powstaje procesor INTEL Pentium MMX
1997 – powstaje procesor INTEL Pentium II (7.5 mln tranzystorów)
1999 – powstaje procesor INTEL Pentium III (9.9 mln tranzystorów)
2000 – powstaje procesor INTEL Pentium IV
2001 – powstają procesory INTEL Xeon i INTEL Itanium
2003 – powstaje procesor INTEL Centrino
2006 – powstaje procesor INTEL Pentium Dual Core
2006 – powstają procesory INTEL Core2 Extreme i INTEL Xeon
2006 – powstaje procesor INTEL Atom
źródło http://www.moskat.pl

Ostatnie wpisy