Okładka

[Strona Główna]

Internet jako przedmiot filozofii kultury

[Poprzedni rozdział] ­><­ [Spis treści] ­><­ [Następny rozdział]

Część I. Krótka historia Internetu

Od abaków do superkomputerów

Wstęp

Tygodnik Time corocznie dokonywał wyboru Człowieka Roku. W roku 1983 zamiast tego przyznał tytuł w kategorii Maszyna Roku - zaszczyt ten przypadł w udziale komputerowi IBM PC. Trudno chyba o bardziej spektakularny wyraz uznania dla komputerów i roli, jaką odgrywają w naszym życiu. A przecież teraz komputery stały się bardziej wszędobylskie niż kiedykolwiek wcześniej. Na naszej planecie istnieje więcej mikroprocesorów, niż ludzi. Przy komputerach pracujemy i spędzamy czas wolny. Łączą nas one z innymi ludźmi i łączą się ze sobą wzajemnie, tworząc sieć oplatającą cały świat. Częścią tej właśnie sieci jest Internet, dlatego też nie sposób mówić o rozwoju Sieci, nie mówiąc przy tym o rozwoju samej komputeryzacji. A ta zatacza coraz szersze kręgi. Wszak komputery to nie tylko pudełka z monitorami stojące w wielu mieszkaniach i miejscach pracy. Ukryte komputery znaleźć można obecnie w samochodach, pralkach, kuchenkach mikrofalowych i w wielu innych urządzeniach używanych każdego dnia przez niezliczone rzesze ludzi. Komputery absorbują nasz czas i zajmują przestrzeń wokół nas. Zajmują też nasze myśli.

Mówiąc o świecie i o ludziach coraz częściej posługujemy się analogiami i metaforami, które płyną wprost ze świata komputerów. Na psychikę człowieka patrzymy jak na komputer przetwarzający informacje. Co za tym idzie, na świat patrzymy jak na zbiór danych do przetworzenia. W komputerach budujemy sztuczne przestrzenie, wypełnione sztucznym życiem, sztucznymi świadomościami - symulacjami rzeczy prawdziwych. Komputery wraz ze swą dominacją nieodwracalnie przeobraziły nasz świat. Mieszkańcom rozwiniętych części naszej planety zdaje się, że życie bez komputerów byłoby niemożliwe. Wystarczy wspomnieć niedawną panikę związaną z tzw. problemem roku 2000, by uświadomić sobie jak wiele zależy od komputerów i z jak wielką katastrofą mielibyśmy do czynienia, gdyby nagle przestały one działać.

Obecność komputerów w tak wielu sferach naszego życia nie mogła pozostać bez wpływu na kształt świata, w którym żyjemy. Komputeryzacja w dużym stopniu zadecydowała o tym, jak działamy, jak rozwiązujemy problemy, jak poszukujemy odpowiedzi czy jak porozumiewamy się. To one stały się równocześnie inspiracją i narzędziem, które pozwoliło zrodzić się sieciom globalnym, takim jak Internet. Dlatego też właściwym zdaje się krótkie omówienie historii komputerów, by przekonać się o tym, jak ich rozwój współgrał z pewnymi zmianami kulturowymi. Tymi zmianami, które uczyniły współczesny świat takim, jakim on jest.

Skromne początki

Na początku były liczby. Liczby rosły, a ludzie chcieli na nich wykonywać coraz bardziej złożone działania. Liczenie stawało się trudniejsze. Umysł ludzki potrzebował wsparcia, zatem stworzono odpowiednie narzędzia. Pierwsze z nich dziś uznalibyśmy za prymitywne, ale nawet tysiącmilowa podróż zaczyna się od pierwszego kroku. W przypadku rozwoju maszyn liczących tym pierwszym krokiem były abaki oraz liczydła. Abaki były pokrytymi rowkami tablicami, na których rozkładano kamyki. Interpretując ich rozkład i przemieszczając je można było dokonywać dość złożonych obliczeń. Wymagało to jednak sporych umiejętności i praktyki. Dla człowieka przyzwyczajonego do kalkulatora, wykonywanie obliczeń przy użyciu abaków czy liczydeł, byłoby raczej trudne i żmudne, ale w swoim czasie była to znacząca pomoc.

Abaki i liczydła były w powszechnym użyciu dość długo. Dopiero wiek XVII przyniósł kolejny znaczący krok w tej dziedzinie. Skonstruowano pierwsze maszyny liczące. Dokonali tego niezależnie od siebie Blaise Pascal oraz Wilhelm Schickard. Wykorzystując kółka zębate, przekładnie i inne mechaniczne rozwiązania, skonstruowano urządzenia, które potrafiły wykonywać złożone obliczenia. Udoskonalanie mechanizmów liczących zajmowało głowy wielu późniejszych wynalazców, którzy jednak raczej poprawiali stosowane już rozwiązania, nie wprowadzając istotnych, zmian. Warto spośród nich wymienić jednego, Samuela Morlanda, który już pod koniec XVII wieku skonstruował pierwszy ręczny kalkulator mechaniczny, co czyni go pionierem miniaturyzacji w dziedzinie konstrukcji liczących.

Przełomowy krok, na drodze od maszyn liczących do komputerów, uczyniono dopiero w XIX wieku. Charles Babbage, angielski matematyk, a zarazem twórca idei uniwersalnej maszyny liczącej, zaprojektował urządzenie, które nazwał maszyną różnicową, przeznaczone do obliczania wartości funkcji matematycznych. Podobno miało być ono wykorzystane przede wszystkim do obliczania średnich długości życia. W 1822 roku Babbage nawet podjął pewne starania zmierzające ku skonstruowaniu tej maszyny, jednak porzucił ten projekt dla swej kolejnej idei - maszyny analitycznej. Ta miała być bardziej uniwersalna niż jej różnicowa poprzedniczka. Co jednak ważniejsze, wykorzystywała wiele rozwiązań obecnych we współczesnych komputerach cyfrowych (np. wejście i wyjście, pamięć, działanie sekwencyjne). Można ją było programować, przy użyciu kart dziurkowanych, tak by wykonywała określone obliczenia. Także ten projekt nigdy nie został zrealizowany, prawdopodobnie ze względu na trudności techniczne, niemożliwe do przezwyciężenia na ówczesnym poziomie rozwoju. Projekt zakładał zbudowanie mechanizmu składającego się z około 50 tysięcy ruchomych, precyzyjnie wykonanych i dopasowanych do siebie części - to nawet dziś nie byłoby łatwe.[3]

Inną ważną spuścizną po XIX wieku były prace Georga Boola. Ten genialny samouk nie tylko stworzył podwaliny logiki matematycznej, ale też skonstruował system (tzw. algebrę boolowską), na której opiera się konstrukcja cyfrowych [4] komputerów. Dwuwartościowa algebra boolowska dała się wygodnie zaimplementować w elektronicznych układach logicznych, w których wartości 0 lub 1 reprezentowane są przez wyższe lub niższe napięcia.

Koniec wieku XIX przyniósł spektakularny pokaz możliwości maszyn liczących. W 1890 roku dokonano spisu ludności przy użyciu zaprojektowanych przez Hermana Holleritha sorterów, sterowanych przez karty perforowane. Te maszyny tabulacyjne stały się pierwszymi urządzeniami do przetwarzania danych, wykorzystanymi na tak dużą skalę.

Przyspieszenie XX-wieczne

W XX wieku zmiany nabrały tempa. W pierwszej połowie wieku kilku jeszcze ludzi przyczyniło się do rozwoju teorii potrzebnych do skonstruowania komputerów. Dwóch z nich zasługuje na naszą szczególną uwagę. Pierwszym był matematyk i logik angielski Alan Mathison Turing. Jego największą zasługą było opisanie uniwersalnej maszyny obliczeniowej, która mogłaby, działając zgodnie z odpowiednim algorytmem, rozwiązać każdy policzalny problem. Maszyna Turinga była tylko abstrakcyjnym modelem. Dzięki temu modelowi jednak możliwe było opisanie wielu problemów, charakterystycznych dla ery komputerów (np. problem policzalności).

Turing był także jednym z prekursorów rozważań dotyczących sztucznych inteligencji. Opisał procedurę, znaną dziś jako test Turinga, pozwalającą określić, w którym momencie maszynę można uznać za Sztuczną Inteligencję. W teście tym badacz miał rozmawiać równocześnie z człowiekiem i komputerem. Powiedzieć, że maszyna osiągnęła poziom ludzkiej inteligencji moglibyśmy w momencie, gdy badacz ów w dowolnie długim czasie nie byłby w stanie rozpoznać, który z jego rozmówców jest maszyną.

Drugim ważnym teoretykiem technologii komputerowych był Johan von Neumann - genialny matematyk pochodzący z Węgier. Zajmował się wieloma matematycznymi problemami, jednak znany jest przede wszystkim jako twórca teorii gier oraz ojciec komputerów. Dla amerykańskiej armii zaprojektował komputer zdolny do obliczania trajektorii pocisków balistycznych (MANIAC-1). Co ważniejsze jednak, von Neumann jest autorem ogólnego schematu, opisującego wewnętrzną strukturę komputera. Większość budowanych dotychczas komputerów zbudowanych jest tak, jak komputer von Neumanna.[5]

Idee i projekty były już gotowe. Pozostało komputer zbudować. Dokonali tego John William Mauchly oraz John Presper Eckert. W roku 1946 w Filadelfii uruchomiono elektroniczną maszynę cyfrową, nazwaną ENIAC (Electronic Numerical Integrator and Computer). Ich twór ważył 30 ton, zajmował 72 m2 (składało się nań między innymi 18000 lamp elektronowych, 6000 komutatorów, 10000 kondensatorów, 50000 oporników) i pożerał 140 kWh. Przyznać trzeba, że był to rzeczywiście wielki początek. ENIAC służył dobrze do 1955 roku, kiedy to trafił na złomowisko.[6]

Ale nie tylko Amerykanie pracowali na skonstruowaniem komputera i wiele wskazuje na to, że tym razem zostali wyprzedzeni. Prawdopodobnie pierwszy komputer skonstruowany został w Niemczech przez Konrada Zuse. W 1938 roku skonstruował maszynę liczącą Z1 pracującą w oparciu o binarny system liczenia, sterowaną przy użyciu dziurkowanego papieru, posiadającą pamięć itd. Ale to kolejna jego konstrukcja - Z3 - uznawana jest za pierwszy zadowalająco działający komputer. Dziś Z3 znajduje się w muzeum w Monachium.

Nie wdając się w szczegóły dotyczące konstrukcji i stopniowych ulepszeń, wspomnimy tylko, że Z3 i ENIAC były pierwszymi komputerami cyfrowymi, programowalnymi i zdolnymi do sekwencyjnego rozwiązywania problemów. Te dwie maszyny uznać można za pierwsze pokolenie komputerów.

Rzut oka na generacje

Komputery pierwszej generacji budowano przy wykorzystaniu lamp elektronowych. Nie było to doskonałe rozwiązanie i - nawet jak na owe czasy - nie mogło być uznane za w pełni zadowalające. O problemach, związanych z wykorzystaniem w konstrukcji komputera lamp, świadczyć może choćby to, że każda lampa, z której zbudowany był ENIAC, musiała być wymieniania średnio co 2 dni [7]. Jednak dopiero na początku lat sześćdziesiątych możliwe stało się wyeliminowanie z instalacji komputerowej lamp - wynaleziono tranzystory. Komputery wykorzystujące tranzystory nazywa się dziś komputerami drugiej generacji. Trzecia generacja komputerów narodziła się pod koniec lat sześćdziesiątych wraz ze skonstruowaniem układów scalonych. Dzięki tej technologii, na niewielkiej przestrzeni można było pomieścić wielokrotnie więcej układów logicznych. Moc obliczeniowa komputerów rosła. Kolejnym krokiem było skonstruowanie mikroprocesorów, czyli pomieszczenie w pojedynczym układzie scalonym kompletnej centralnej jednostki przetwarzania (central processing unit, CPU). Komputerów czwartej generacji, opartych na mikroprocesorach, używamy po dziś dzień. Trwają też prace nad rozwinięciem komputerów pracujących w oparciu o przetwarzanie równoległe, mające stanowić piątą generację komputerów.

Należy tu zaznaczyć, że komputery kolejnych generacji komputerów były mniejsze, efektywniejsze i tańsze od swoich poprzedników. Pracę wykonywaną przez ogromnego ENIAC-a już w roku 1982 wykonywać mógł mikrokomputer [8] swobodnie mieszczący się w szufladzie biurka. To otworzyło drogę do szybkiego rozpowszechnienia się komputerów. Zwłaszcza, że nie tylko ich zakup był tańszy, lecz także używanie wygodniejsze.

O komunikowaniu się człowieka z komputerem

Na początku lat sześćdziesiątych z komputerem można było komunikować się przy użyciu raczej niewygodnych metod. Użytkownicy komputerów mieli do dyspozycji karty perforowane, kod maszynowy [9] lub języki niskiego poziomu [10]. W takiej sytuacji zdecydowanie nie każdy miał możliwość pracy z komputerem - niezbędna była spora, specjalistyczna wiedza. Dopiero pod koniec lat sześćdziesiątych powstały pierwsze języki wyższego poziomu [11] znacząco ułatwiające pisanie programów. W sferze komunikacji człowieka z komputerem był to prawdziwy przełom. Dzięki językom wyższego poziomu, programista mógł skupić się przede wszystkim na zadaniu, które spełniać miał program. Języki niższego rzędu, zorientowane maszynowo, różniły się w zależności od modelu komputera, zatem programista musiał mieć na uwadze przede wszystkim sprzęt. Zorientowane problemowo języki wyższego rzędu były bardziej niezależne od platformy sprzętowej [12].

Kolejnym istotnym udogodnieniem było wprowadzenie systemów operacyjnych. Pierwsze komputery wykonywały właściwie tylko jedno zadanie, do którego zostały w danej chwili zaprogramowane. By komputer zajął się czymś innym, konieczne było programowanie go od nowa. Systemy operacyjne znacznie to ułatwiły - stały się tłem, na którym działać mogą dalsze programy. Przejęły one zadanie komunikowania się z użytkownikiem, a także zarządzania plikami i programami. Dzięki nim praca z komputerem stała się dużo łatwiejsza. Droga do powszechnie używanych obecnie graficznych środowisk komputerowych była jednak wciąż daleka.

System operacyjny mógł mieć wiele różnych twarzy. W dziedzinie interfejsów użytkownika [13] również dokonał się niemały postęp. Od wprowadzania danych przy użyciu dziurkowanych kart, poprzez klawiaturę i linię poleceń, doszliśmy do interfejsów graficznych. Te ostatnie, w których dane reprezentowane są graficznie, w formie ikon, polecenia zaś wydaje się korzystając z rozwijalnych menu, zyskały ostatnio sporą popularność. Są dość wygodne i (jakoby) łatwe, wręcz intuicyjne w obsłudze. Prace nad udoskonalaniem interfejsów użytkownika naturalnie są nadal prowadzone. Być może kolejnym krokiem będzie wytworzenie wirtualnej rzeczywistości, w której dane będą miały nie tylko formę graficzną, ale i pewną formę przestrzenną.

Wszystkie te wynalazki miały na uwadze ułatwienie człowiekowi komunikowania się z komputerem. Obecnie doszliśmy do punktu, w którym komputery są już w powszechnym użyciu. Nadal nie każdy sobie z nimi radzi, lecz z dobrodziejstw komputeryzacji korzystają nie tylko specjaliści komputerowi, lecz także całe mnóstwo ludzi, dla których komputer jest po prostu narzędziem. Nie muszą oni znać tajników budowy komputera, nie muszą też mieć żadnego pojęcia o językach programowania. To właśnie dzięki temu komputery mogły zrobić masową karierę i stać się tak wszechobecne.

Podsumowanie

Rozwój technologii komputerowych jest wyjątkowo szybki, a przy tym wciąż nie widać jego końca. Wraz z rozkwitem technik komputerowych prawdopodobnie będzie rosło znaczenie komputerów w naszym życiu. Są one coraz wydajniejsze i coraz wygodniejsze w użyciu. Są przy tym bardzo uniwersalnymi urządzeniami, które można zaprojektować do wykonywania wielu różnorodnych zadań - mogą wykonywać skomplikowane obliczenia, spełniać rolę maszyn do pisania, odtwarzać muzykę i filmy, a także służyć do ich tworzenia i przetwarzania, itd. Trudno się dziwić, że stały się tak popularne, niemal wszechobecne. Jednak niezwykła użyteczność komputerów to tylko jedna strona medalu.

Światowa panika, którą mieliśmy okazję obserwować z okazji tzw. problemu roku 2000, daje dużo do myślenia. Ludzkość nagle została zmuszona do tego, by zastanowić się nad tym, jak bardzo uzależniliśmy się już od komputerów. Wielu ludzi uświadomiło sobie z zaskoczeniem nagłą wszechobecność komputerów, które weszły w nasze życie bardzo cicho. Jednak teraz nie możemy już sobie pozwolić na ignorowanie ich. Czterdzieści lat temu ludzkość obawiała się wojny nuklearnej, która mogła zniszczyć życie na Ziemi. Dziś stoimy w przedsionku kolejnego etapu, gdzie lęk budzą wojny elektroniczne, toczone wewnątrz sieci komputerowych. Ich konsekwencje mogą okazać się dla ludzkości równie koszmarne.

Naturalnie nie ma sensu rozpaczanie, nawoływanie do powrotu do natury czy pozbycia się komputerów. Ważne jest jednak by dostrzec to, że narzędzie, jakim jest komputer, otwiera przed nami całkiem nowe możliwości, ale też i zagrożenia. Internet to tylko jeden z przykładów zastosowania technik komputerowych. Przykład bardzo znamienny, gdyż w nim jak na dłoni widać tak korzyści, jak i zagrożenia wynikające z masowej komputeryzacji. Bo wpływ komputerów jest wielki. Znajdują one obecnie zastosowanie w wielu sferach naszego życia. Między innymi komunikacja międzyludzka została w dużym stopniu zawłaszczona przez urządzenia cyfrowe. W kolejnym rozdziale przyjrzymy się zatem temu, jak rozwijały się technologie służące komunikacji społecznej.



[Poprzedni rozdział] ­><­ [Spis treści] ­><­ [Następny rozdział]

Słowa napisał: Marcin Sieńko
Data ostatniej aktualizacji: 17. 11. 2003