Rozdział I. Historia Internetu



Pobieranie 55.07 Kb.
Data02.05.2016
Rozmiar55.07 Kb.

Rozdział I.

Historia Internetu.

I. Historia Internetu.

1. Co to jest Internet i kto nim włada.

Internet – czasem nazywany w skrócie „net” (ang. sieć) – jest największą siecią komputerową. A co to jest sieć? Sieć komputerowa to wiele komputerów jakoś tam połączonych ze sobą. W gruncie rzeczy można ją porównać do sieci stacji telewizyjnych, które dzielą się najnowszym odcinkiem kreskówki o Simpsonach.


Ale nie zapędzajmy się z tą antologią zbyt daleko. W sieciach telewizyjnych ta sama informacja jest przesyłana jednocześnie do wszystkich stacji; w sieciach komputerowych wiadomość ma zwykle pojedynczego odbiorcę. Co więcej, sieci komputerowe są zawsze dwukierunkowe, tzn. gdy komputer A przesyła komunikat do komputera B, komputer B może wysyłać odpowiedź do A.

Niektóre sieci składają się z centralnego komputera i wielu stacji z nim połączonych (przykładem jest komputer centralny rezerwacji miejsc lotniczych, powiązany z tysiącem terminali na lotniskach i w biurach podróży). Inne, a do nich należy Internet, są bardziej rozproszone i pozwalają na swobodne przesyłanie komunikatów pomiędzy dowolnymi maszynami w sieci. Im większa sieć tym więcej ma do zaoferowania.

W gruncie rzeczy Internet nie jest pojedynczą siecią komputerową – jest raczej siecią sieci, swobodnie wymieniających informacje między sobą. Owe sieci to zarówno wielkie i poważne systemy znanych firm, takich jak AT&T, DEC lub HP, jak i małe nieoficjalne sieci. Sieci akademickie już od dawna należą do Internetu, a ostatnio podłącza się do niego wiele szkół średnich, gimnazjalnych i podstawowych. W sierpniu 1994 roku Internet składał się z 20 000 sieci, łączących ponad 3 miliony komputerów na wszystkich kontynentach. Co miesiąc do Internetu przyłącza się 1 000 nowych sieci i 100 000 nowych komputerów.

Można wyobrażać sobie Internet jako całość złożoną z dwóch podstawowych składników. Są to: ludzie, którzy z niego korzystają i informacje, które są w nim przechowywane.

Będąc użytkownikami Internetu, mamy dostęp do wielu zasobów (oprogramowania, encyklopedii, magazynów itd.), które zostały umieszczone tam przez innych użytkowników, My również możemy opublikować w sieci swoje własne materiały (programy, dokumenty itp.) i umożliwić w ten sposób korzystanie z nich innym. Oczywiście istnieją inne sposoby zdobywania programów czy publicznego wyrażenia swoich myśli, jednak komputer stał się znacznie lepszym medium umożliwiającym natychmiastową wymianę informacji z ludźmi znajdującymi się na drugim końcu świata. Internet znacznie ułatwia współpracę, utrzymywanie kontaktów z bliskimi lub wspólną rozrywkę. Wiele osób, które nigdy nie piszą listów, bez problemu akceptuje pisanie e – maili czy wideokonferencje z przyjaciółmi i rodziną. Komputer znosi bariery pomiędzy poszczególnymi użytkownikami komputerów – i to nie tylko bariery stworzone przez różne systemy operacyjne, tradycyjne usługi sieciowe i sprzęt, ale także bariery czasu i przestrzeni. Bariera pomiędzy różnymi typai komputerów jest chyba jedną z ważniejszych, którą znosi Internet. Większość sieci komputerowych jest zamknięta: kupujesz kilka podobnych komputerów i specjalne oprogramowanie, które umożliwia im komunikację. W przeszłości wszystkie komputery musiały mieć podobne parametry, a już z pewnością we wszystkich musiało być zainstalowane to samo oprogramowanie. Można było na przykład kupić sto komputerów PC i zainstalować na nich pakiet sieciowy Novell Netware. Jednak te komputery nie mogły komunikować się z komputerami, w których nie zainstalowano oprogramowania firmy Novell.

Internet to zupełnie inna sprawa. Komunikacja w tej sieci opiera się na standardowych protokołach, a nie na poszczególnych programach. Protokoły dla Internetu są to zestawy standardów, które umożliwiają komputerom porozumiewanie się, nawet jeśli zainstalowano w nich oprogramowanie pochodzące od różnych producentów. Żadna firma, nawet Microsoft, nie może powiedzieć: „Nie możesz podłączyć się do Internety, ponieważ nie kupiłeś naszego programu”. PC z systemem operacyjnym Windows może przeglądać strony internetowe z Macintosha, komputera pracującego w systemie Unix czy nawet starej maszyny IBM mainframe. Na komputerach tych działają różne programy, różne systemy, nie wszystkie wyprodukowane przez Microsoft, ale za to wszystkie używające tych samych protokołów obsługiwanych przez różne pakiety komunikacyjne, również pochodzących od różnych producentów. Innymi słowy – wszystkie komputery mówią wspólnym językiem. Jak w życiu – Nigeryjczyk porozumie się z Rosjaninem, jeśli obaj znają język angielski.

Najistotniejsze protokoły w Internecie nazywane są TCP (Transmission Control Protocol) i IP (Internet Protocol). Te protokoły „zlepiają” lokalne sieci komputerowe. Z kolei protokół HTP (Hypertext Transfer Protocol) „przenosi” strony internetowe pomiędzy serwerem sieciowym a przeglądarką zainstalowaną w naszych komputerach. Kolejny protokół PPP (Point – to – Point Protocol) umożliwia dostęp do sieci prywatnym użytkownikom.
Kto jest „właścicielem” Internetu?

Nikt nie jest „właścicielem” Internetu. Nawet dostawca usług internetowych, opłacany przez nas, nie jest właścicielem Internetu. Jego funkcja dostawcy przypomina rolę odźwiernego – pozwala nam wejść i wyjść. Dostawca nie jest jednak właścicielem drogi, której używamy, aby się tam dostać.

Nasze lokalne przedsiębiorstwo telekomunikacyjne jest właścicielem linii telefonicznej, która służy nam do łączenia się z Internetem. Linie takie prowadzą do kilku szybkich łącz, składających się na tzw. sieć podstawową. Łącza podstawowe są własnością różnych firm łącznościowych lub są przez nie wydzierżawiane.

Internet jest po prostu zbyt wielki, aby mógł być własnością jednaej osoby lub korporacji. Jeżeli należysz do firmy będącej właścicielem sprzętu lub jesteś użytkownikiem udostępniającym stronę w sieci Web, jesteś tym samym częściowym właścicielem Internetu.

Kilka lat temu powszechnie używano określenia „autostrada informacyjna”. Autostrada ta stanowi szkielet Internetu, ponieważ służy do przekazywania ogromnej masy danych na duże odległości, za pomocą kabli optycznych przecinających różne kraje świata. Ta podstawowa sieć jest własnością kilku przedsiębiorstw i jest przez nie konserwowana.

Chociaż nie istniej żadne centrum sprawujące kontrolę nad Internetem, jest pewna instytucja, której zadanie to nadzorowanie ewolucji sieci i planowanie jej przyszłości. Internet Engineering Task Force – ITEF – jest ochotniczą organizacją składającą się z „projektantów sieci, operatorów, dostawców i naukowców zainteresowanych rozwojem Internetu i troszczących się o bezawaryjną pracę sieci”. Prawie każda firma, która zarabia na Internecie (lub zamierza w przyszłości czerpać z niego zyski), wysyła swoich przedstawicieli na konferencje IETF, na których omawia się bieżące problemy, uzgadnia standardy i próbuje się standardów, które umożliwiałyby współpracę wszystkim komputerom i programom, bez względu na producenta.

Paradoksalnie, stabilność i potencjał rozwojowy sieci opiera się na założeniu, że sieci są zawodne. Wszyscy słyszeliśmy trzaski wyładowań atmosferycznych w słuchawce telefonicznej i oglądaliśmy ważne wydarzenia sportowe przerywane przez zkłócenia w pracy satelitów. Założenie, że sieć jest z natury rzeczy zawodna, lecz nigdy nie może przestać działać, ma ważne konsekwencje. Gdyby oznaczało to tylko tyle, że drobne zakłócenia na łączach nie wpływają na jakość transmisji, nie byłoby to wcale takie interesujące. Jednak nawet uszkodzenia sieci na większą skalę nie są w stanie przeszkodzić jej użytkownikom. Takie uszkodzenia mają miejsce co chwila – jeśli nie cały czas – duże „kawałki” Internetu są nagle odcinane od reszty. Ktoś gdzieś na budowie przetnie przypadkowo kable telefoniczne przewodzące dane internetowe – ale i tak sieć nie „padnie”. Kolejną konsekwencją jest możliwość wymiany sprzętu i oprogramowania na nowszy w części sieci, bez konieczności zamykania całego ruchu. Kiedy część sieci jest wyłączona, dane znajdą sobie inną drogę, którą mogłyby przepłynąć do celu. Po przyjściu do pracy i włączeniu komputera nigdy nie zobaczymy informacji mówiącej, że wskutek prac konserwacyjnych Internet będzie niedostępny przez najbliższe pół roku. Ciągły rozwój Internetu sprawił, że przetestowano już wszystkie pomysły i rozwiązano wszystkie problemy, które się dotąd pojawiły. Pomimo nieustannych zmian, niezawodność Internetu jako całości jest na znacznie wyższym poziomie niż pięć czy dziesięć lat temu.
Kto opłaca Internet?

Sposób finansowania Internetu przypomina nieco nakładanie się fal pochodzących z wielu źródeł. Obecnie część kosztów subsydiuje National Science Foundation. Użytkownicy opłacają dostawców usług internetowych. Ci z kolei opłacają właścicieli lub dzierżawców sieci, w zamian za podłączenie swoich serwerów.

Chociaż komercjalizacja Internetu jest zjawiskiem stosunkowo nowym, z ogłoszeń pochodzi już znaczna część pieniędzy zasilających Internet. Służą one do wprowadzania lepszego sprzętu i lepszych linii komunikacyjnych. Podobnie jak w przypadku telewizji, opłaty wnoszone przez firmy reklamujące swoje produkty w Internecie powodują zmniejszenie sum, które musieliby wpłacać użytkownicy. Oczywiście, ujemną stroną komercjalizacji Internetu jest to, że w wielu witrynach WWW jesteśmy atakowani przez nieustanne i wszechobecne reklamy.
2. Zarys historyczny Internetu na świecie i w Polsce.

Zdumiewające w Internecie jest to, jak błyskawicznie wtargnął on w nasze życie. Gdy myślimy o historii lotnictwa, przypominamy sobie braci Wright z początku XX wieku. Historia samochodu sięga jeszcze dawniej. W przeciwieństwie do tych przykładów, historia Internetu rozpoczyna się w latach sześćdziesiątych. Dopiero jednak na początku lat dziewięćdziesiątych Internet stał się w drodze ewolucji tym, czym jest dzisiaj.

Na samym początku, Internet został stworzony do przekazywania informacji rządowych i wojskowych na wypadek konfliktu atomowego. Na szczęście, konflikt taki nigdy nie zaistniał. Jednak powstały system informacyjny przerósł najśmielsze wyobrażenia swoich twórców.

W roku 1957 Związek Radziecki umieścił na orbicie Sputnika. Było to niespodzianką dla świata i szokiem dla społeczności naukowców amerykańskich. Prezydent USA, Dwight Eisenhower, w pilnym trybie powołał zespół najtęższych umysłów naukowych w Ameryce. Zespół ten, nadzorowany przez Departament Obrony i nazwany Agencją Zaawansowanych Projektów Badawczych (Advanced Research Projects Agency, ARPA), pracował nad ochroną wojskowego systemu informacyjnego USA przed skutkami konfliktu atomowego.

Sputnik i następująca po nim zimna wojna spowodowały wręcz panikę w kręgu amerykańskich wojskowych. Atak nuklearny na amerykańskie miasta wydał się nagle realny. Jednym z zadań ARPA było utworzenie sieci połączonych komputerów, z których każdy zawierał dane dotyczące bezpieczeństwa i mógł być dostępny dla personelu Departamentu Obrony z wielu różnych miejsc. W przypadku uderzenia nuklearnego sieć mogłaby nadal funkcjonować nawet wtedy, gdyby niektóre komputery zostały uszkodzone.

Niektórzy jednak źródeł Internetu poszukują już w latach czterdziestych XX wieku i wskazują na artykuł autorstwa Vannevar Bush pt. „As We May Think”, który został opublikowany w czasopiśmie „The Atlantic Monthly” w lipcu 1945r. Ich zdaniem, stanowił on jednoznaczny zwiastun mających nastąpić w niedalekiej przyszłości szeroko zakrojonych prac badawczych i wdrożeniowych w zakresie budowy oraz rozwoju rozmaitych sieci komputerowych. Pomijając kwestię zasadności tego poglądu, nie sposób zaprzeczyć, że w artykule tym zakreślona została bardzo śmiała, z perspektywy tamtych lat, wizja efektywnego wykorzystania nowych technologii w procesach komunikowania się. Wizja ta jeszcze dzisiaj kształtuje nasze wyobrażenia o roli komputerów w społeczeństwach XX wieku i ich wpływie na „sposób myślenia” kończącego się stulecia.

Pomimo wielu toczących się sporów na temat początków Internetu, zasadniczo wszyscy zgadzają się, że za przełomowy w jego historii uważać należy rok 1964. w tym roku Paul Baran z firmy RAND publikuje raport, w którym przedstawia ideę zdecentralizowanej technologii sieciowej, umożliwiającej jej działanie nawet w warunkach awarii wielu połączeń i węzłów, w szczególności w warunkach wojennych. Z tą chwilą historia Internetu nabiera wyraźnego przyśpieszenia.

W dniu 25 października 1969 r. połączono pierwsze węzły przyszłej sieci ARPANET na Uniwersytecie Kalifornijskim (UCLA) i w Instytucie Stanforda (SRI). Ta data wyznacza niewątpliwy początek Internetu jako sieci fizycznej. W roku 1971 w ARPANECIE było 15 węzłów, zaś w 1972 roku – o ponad 30 więcej. Łącząc się z ARPANETEM, naukowcy i badacze mogli wspólnie używać swoich zasobów komputerowych.

Jedną z największych zalet projektu ARPANET było opracowanie w 1977 roku wspólnego języka, którego używały komputery podłączone do sieci. Język ten, o nazwie TCP/IP (Transmission Control Protocol/Internet Protocol, co oznacza protokół sterowania transmisją w sieci), stał się znormalizowanym protokołem ARPANETU. Ponieważ wszystkie komputery ARPANETU posługiwały się protokołem sieciowym TCP/IP do porozumiewania się, rodzaje i odmiany poszczególnych węzłów nie miały znaczenia.

Ponieważ posługiwanie się TCP/IP było tak łatwe, coraz więcej komputerów podłączano do ARPANETU. Obok ARPANETU pojawiły się inne, mniejsze sieci. Z kolei wiele spośród tych mniejszych sieci przyłączało się do ARPANETU. Osoby i firmy, które nie stosowały się do ścisłych norm ARPANETU, prowadziły wiele sieci o mniejszych rozmiarach. Zamiast wymieniać tylko ważne informacje dotyczące nadań naukowych i tajemnic wojskowych, wymieniano czasem również i bardziej luźne, konwersacyjne wiadomości.

Węzły sieci były często używane do wymiany pomysłów oraz plotek. Informacje o nowościach i wiadomości osobiste były przekazywane do odbiorców odległych o tysiące kilometrów. ARPANET stał się zarówno miejscem konwersacji naukowej, jak i towarzyskiej. Rozpowszechniły się listy wysyłkowe, będące rodzajem metody rozgłaszania polegającym na tym, że określona wiadomość może być automatycznie rozesłana do wielkiej liczby subskrybentów sieci. Najpopularniejsza lista wysyłkowa, określana jako „SF – LOVERS” (miłośnicy science fiction), zawierała przesyłki dotyczące scince fiction.

W 1981 roku rusza BITNET (Because It’s Time Network), łącząc centra komputerowe na całym świecie.

W 1983 roku protokół TCP/IP staje się obowiązującym standardem i powstaje EARN (European Academic and Research Network) jako europejskie przedłużenie BITNET – u. W tym samym roku wojskowa część ARPANETU wydzieliła się i stała się MILNETEM. Uwolniony od wpływów wojskowych, ARPANET rozwijał się bardzo szybko. Nie istniały ograniczenia dotyczące członkostwa; każdy posiadacz komputera dysponujący linią telefoniczną i prostą wiedzą na temat TCP/IP mógł się do niego podłączyć. Ponieważ jednak komputery znajdowały się głównie w szkołach wyższych i uniwersytetach, najszybszy wzrost nastąpił w sektorze edukacji. Zbiór połączonych komputerów ochrzczono mianem „INTERNETU”. Rok później opublikowano specyfikację Domain Name System (DNS).

W 1988 roku w Stanach Zjednoczonych, organizacja o nazwie NSF (National Science Foundation), uruchomiła szybką sieć NSFNET T1, w1990 roku – NSFNET T3, a w styczniu 1992 roku ogólnoeuropejską sieć szkieletową IP EBONE. Powstaje również CENET (Central and Eastern European Network) – organizacja 19 krajów Europy Wschodniej i Centralnej, będąca forum wymiany doświadczeń na temat rozwoju sieci w tych krajach (1993). Po 25 latach od uruchomienia dwóch pierwszych węzłów sieci ARPANET powstaje organizacja TERENA (Trans European Research and Education Network Association). Szacuje się, że obecnie z usług sieciowych korzysta ponad 195 milionów ludzi.

Internet prawdopodobnie utknąłby w miejscu, gdyby nie rozwój World Wide Web (WWW) wymyślonego przez Tima Bernersa – Lee pracującego w CERN (European Organization for Nuclear Research), europejskim centrum badań molekularnych w Szwajcarii.

Berners – Lee umożliwił komputerom znajdującym się w różnych miejscach wyświetlanie tekstu, który zawierał łącza (linki) do innych plików. U źródeł tego rozwiązania leżał język zwany HTML (Hypertext Markup Language), który dostarcza komputerom bardzo ogólnych wytycznych dotyczących sposobu wyświetlania tekstu. Dzięki HTML możemy określić „To jest tytuł”, a komputer już sam będzie się martwił o dobór czcionki, rozmiar dokumentu, układ tekstu itd. HTML jest dziś znacznie bardziej skomplikowany niż w chwili powstawania, ale wciąż pozostaje wierny swej głównej zasadzie: dokument niesie informację na temat układu tekstu (na przykład co jest nagłówkiem, a co tekstem podstawowym), a nie o sposobie jego wyświetlania. Chodziło o to, by tekst mógł być odczytany na każdym komputerze, bez względu na jego markę i bez względu na to, czy miał wspaniały monitor obsługujący wiele kolorów, czy też był to zwykły terminal. Jednak to, co rozpaliło wyobraźnię, to idea łączy (ang. link – odnośnik). Teraz dokumenty mogły zawierać informację o wzajemnych relacjach, użytkownik mógł przechodzić z jednego dokumentu do drugiego, układać listy ulubionych stron internetowych, a nawet tworzyć proste gry. Internet przestał być bezkresnym morzem z porozrzucanymi wyspami; stał się siecią wzajemnie połączonych serwerów. Berners – Lee wpadł również na pomysł włączenia grafiki do tekstu. Pierwsze przeglądarki internetowe były prostymi programami i potrafiły jedynie wyświetlać tekst (przypominający wyglądem czcionkę tradycyjnych maszyn do pisania). Jednak wkrótce powstały nowe przeglądarki, które korzystały z trybu graficznego i umożliwiały wyświetlenie grafiki.

Pierwsze przeglądarki działały wyłącznie w systemach UNIX. Użytkownicy komputerów PC i Mac nie mieli tego szczęścia. Kolejny przełom w ewolucji Internetu miał miejsce na Uniwersytecie Illinois, gdzie do przeglądarki internetowej dodano możliwość wyświetlenia grafiki. Co ważniejsze, ta przeglądarka – Mosaic – była zgodna z systemami operacyjnymi UNIX, WINDOWS i MACINTOSH. Połączenie intuicyjnej obsługi z ogromnym rynkiem użytkowników komputerów PC przyczyniło się do gwałtownego rozwoju Internetu i doprowadziło go do obecnego stanu. Marc Andreessen, jeden z programistów biorących udział w pracach nad przeglądarką Mosaic, założył firmę, która miała zająć się handlowym aspektem wynalazku. Firma ta to Netscape – tą nazwą zwykło się również określać samą przeglądarkę.

Dwa lata po pojawieniu się Netscape Navigatora Microsoft utworzył podobną przeglądarkę zwaną Internet Explorer (IE). Od tamtej pory obie firmy ostro rywalizują ze sobą, wzbogacając swe produkty o coraz to nowe dodatki – po drodze widzieliśmy już rozmaite rozszerzenia HTML, wtyczki, obsługę multimediów. Obecnie obie przeglądarki oferują podobne możliwości – choć Microsoft próbuje przeforsować raczej dziwaczną koncepcję starając się wmówić, że nie można używać Windows bez Internet Explorera.

Łatwe w obsłudze przeglądarki, rzesze użytkowników PC i Macintosh oraz prawdziwa eksplozja zainteresowania ze strony firm i przedsiębiorstw, które zwietrzyły w tym dobry interes, wpłynęły na znaczne zwiększenie ruchu na „Infostradzie”, jak zwykło się określać Internet. Surfowanie po sieci stało się modne. W końcu zarówno komputery kontrolujące sieć, jak i łączące je linie telefoniczne, stały się przeciążone. Niektórzy twierdzili, że dni Internetu były już policzone – sieć, nad którą nie sprawowano kontroli centralnie, sama nie mogła nadążyć za tempem zmian i musiała paść ofiarą własnego sukcesu. Takie głosy słychać od 1987 roku, ale jak na razie okazują się one tylko krakaniem zawistnych.
Początki polskiego Internetu sięgają roku 1977, kiedy rozpoczęto prace nad programami Komputeryzacji Ministerstwa Nauki i Szkolnictwa Wyższego oraz Komputeryzacji Szkół Wyższych. Są one następnie kontynuowane pod nazwą: Międzyuczelniana Sieć Komputerowa. W 1983 roku uruchomiono połączenie między trzema węzłami: Warszawa, Wrocław, Gliwice (eksploatacja nieciągła), a trzy lata później zainicjowano realizację projektu budowy Krajowej Akademickiej Sieci Komputerowej.

Najpierw w roku 1990 pojawiła się światowa sieć EARN (Bitnet) – łącząca ośrodki akademickie, oparta w większości na komputerach IBM typu mainframe. Główną barierą, którą inicjatorzy przedsięwzięcia musieli pokonać, były obowiązujące wówczas ograniczenia COCOM – u. Walka o dostęp Polski do EARN – u odbywała się nie tylko na drodze politycznej, ale również za pomocą samej sieci – powstawała specjalna lista dyskusyjna, jednocząca działania polskich naukowców pracujących w USA. Początkowo polska gałąź EARN obsługiwana była przez Zespół Koordynujący Naukowych i Akademickich Sieci Komputerowych przy Uniwersytecie Warszawskim, który następnie przekształcił się w NASK – Jednostkę Badawczo Rozwojową w ramach Komitetu Badań Naukowych.

Pierwszy głód świata został więc zaspokojony, ale natychmiast pojawiły się nowe potrzeby – przede wszystkim dostępu do zasobów największej sieci komputerowej, czyli Internetu. W tym samym czasie trwała budowa dużej sieci lokalnej na Wydziale Fizyki Uniwersytetu Warszawskiego, rozpoczęta dzięki projektowi COCOS (Cooperative Computer System Project). Sieć Wydziału Fizyki podłączona została do EARN – u, ale szybko okazało się, że taki dostęp do świata jest niewygodny i ogranica się w praktyce do korzystania z poczty elektronicznej. W tym samym roku Polskę oficjalnie przyjęto do EARN – u i uruchomiono połączenie krajowego węzła PLEARN w Centrum Obliczeniowym Uniwersytetu Warszawskiego z węzłem DKEARN w Kopenhadze co umożliwiło wykorzystanie tych samych łączy do obsługi połączenia z Internetem.

Pod koniec 1991 roku łączność z siecią Internet miały już trzy sieci lokalne w Warszawie (Instytut Fizyki UW, Centrum Astronomiczne PAN, Obserwatorium Astronomiczne UW) oraz pojedyncze węzły w Krakowie, Toruniu i Katowicach.. W 1992 roku oddano do użytku sieć pakietową Telekomunikacji Polskiej S. A. pod nazwą POLPAK. W 1993 decyzją Przewodniczącego Komitetu Badań Naukowych został utworzona Naukowa i Akademicka Sieć Komputerowa (NASK). Zaraz po tym wydarzeniu opiekę nad polską gałęzią Internetu przejął właśnie NASK, który rozpoczął systematyczną rozbudowę podstawowej sieci ogólnopolskiej. Również od 1993 roku istnieje komercyjna domena polskiego Internetu, związana z warszawską firmą ATM (większość jej pracowników stanowią byli studenci lub pracownicy naukowi Wydziału Fizyki UW). Od połowy roku 1993 dostęp do światowych zasobów Internetu mogą mieć wszyscy zainteresowani, bez ograniczeń związanych z pracą w domenie akademickiej, rządowej czy wojskowej. W 1995 roku zaczynają się pojawiać kolejne prywatne firmy, świadczące usługi związane z Internetem, choć jeszcze nie widać zainteresowania naszym rynkiem ze strony dużych firm światowych, takich jak Compuserve czy America Online. W tym samym roku (1995) NASK i POLPAK podpisały umowę o wprowadzeniu usługi Internetu dla abonentów sieci POLPAK. W Polsce z usług sieciowych korzysta obecnie ponad 10 milionów użytkowników.


3. Rozwój Internetu w latach 80 – tych.

Lata osiemdziesiąte przyniosły istotne zmiany w Internecie. Początek lat 80 – tych opracowanie używanego do dziś protokołu TCP/IP (Transmission Control Protocol/Internet Protocol). Wpłynął on nie tylko na polepszenie efektywności działania sieci, ale również umożliwiał przekazywanie danych nawet przez sieci niezgodne z dotychczas używanym standardem w ARPANET – cie. W 1983 roku TCP/IP został oficjalnie uznany za obowiązujący w sieci ARPANET. W tym samym czasie zaczęła coraz częściej pojawiać się nazwa Internet – ze względu na wielość węzłów położonych w różnych krajach.

W roku 1984 powstała sieć National Science Fundation (agencji rządowej zajmującej się badaniami naukowymi). W sieci NSFNET wprowadzono ważne udoskonalenia techniczne, a wśród nich szybsze i potężniejsze superkomputery do przechowywania informacji. Sieć NSFNET była co dwa lata udoskonalana i poszerzana. Ponadto, własne sieci stworzyły departamenty zdrowia i energii oraz NASA.

Agencja NSF zdecydowała się na połączenie pięciu ośrodków superkomputerowych w celu ułatwienia prac badawczych. Chociaż agencja ta próbowała zaangażować w swoje przedsięwzięcie ARPA, jednak pomoc taka okazała się nie możliwa. Wobec tego NSF zbudowała własną sieć posługując się normami opracowanymi przez ARPA. Po zbudowaniu nowej sieci, NSF połączyła szkoły wyższe i uniwersytety w poszczególnych rejonach, a następnie dołączyła każdy z ośrodków regionalnych do sieci superkomputerowej. Wkrótce intensywny przepływ informacji wygenerowany przez wszystkie komputery sprawił, że czas reakcji znacznie się wydłużył.

Natychmiast po stwierdzeniu, że nowa sieć stała się zbyt powolna, NSF zawarła porozumienie z konsorcjum instytucji edukacyjnych w Michigan o nazwie Merit Corporation, mające na celu udoskonalenie systemu. Ponadto Merit Corporation została zaproszona o administrowanie siecią NSFNET. Wkrótce sieć NSF stała się najszybszą i najbardziej niezawodną siecią w ramach Internetu. Firma Merit poprosiła o zgodę na włączenie do Internetu komercyjnej wymiany danych. Po początkowym oporze i wielu deliberacjach, NSF udzieliła takiej zgody.

W roku 1989 wygasło zlecenie dla ARPANET i sieć zanikła. Niewielu to zauważyło. Prawie cała społeczność internetowa przeniosła się do sieci prowadzonej przez NSF.

Lata 80 – te to bardzo szybki rozwój sieci. Do systemu zostały włączone potężne sieci w Europie i Japonii. Cały czas usprawniano komunikację i powiększano przepustowość łącz. Pod koniec dekady liczba podłączonych do sieci komputerów przekroczyła 100 000. już wtedy uznano Internet za światowego gwiazdora. Lata następne dowiodły jednak, że był to dopiero skromny początek.
Internet przeszedł rozwój od wczesnego prototypu przeznaczonego do badań naukowych po globalny system komunikacyjny docierający do wszystkich krajów świata. Jednak rozmiar nie jest tak zaskakujący w porównaniu z szybkością jego rozwoju. Na rysunku 1. 1 widać tempo wzrostu Internetu w postaci wykresu zmiany liczby komputerów podłączonych do globalnej sieci w latach 1981 – 1998.


Na rysunku tym zastosowano skalę liniową, na osi Y podano liczbę komputerów w milionach sztuk. Takie liniowe rozmieszczenie punktów może prowadzić jednak do mylnych wniosków, gdyż drobne szczegóły umykają uwadze. Na wykresie nie widać na przykład szczegółów związanych ze skalą wczesnego wzrostu Internetu, wywołując wrażenie, że Internet rozpoczął swoją ekspansję w okolicach 1990 roku i że cały ten wzrost nastąpił w ciągu ostatnich kilku lat, przy czym największa zmiana dokonała się w 1998 roku.

W rzeczywistości, inaczej niż sugeruje rysunek 1. 1, wzrost nie rozpoczął się w ostatnich latach lat 90 – tych. Lepsze spojrzenie na wczesne tempo rozwoju da nam rysunek 1. 2.





Na rysunku 1. 2. zastosowano skalę logarytmiczną, gdzie pozycja na osi Y jest proporcjonalna do logarytmu odpowiadającej jej liczby. Wartości zaznaczone na tej osi reprezentują kolejne potęgi liczby 10 (pierwsza kreska to 10, druga – 100 itd.).

Wykres na rysunku 1. 2 jest prawie liniowy, co znaczy, że Internet przez wiele lat rozwijał się w sposób wykładniczy, tj. podwajał swój rozmiar co 9 – 12 miesięcy.

Jak widać, w latach 80 – tych, rozwój Internetu był bardzo duży i nagły jak na tamte czasy i sprzęt, którym dysponowano, dlatego już w latach 90 – tych rozwój Internetu musiał być tak ogromny i na taką skalę ponieważ ciągłe nowinki techniczne nie pozwoliłyby na zahamowanie dalszego rozwoju Internetu a na pewno na jego uwstecznienie.



4. Internet dziś.

Obecnie Internet to monstrualny gigant. Porównanie do dżungli jest nieadekwatne dla gąszczu, jaki stanowi sieć. Oplata ona dokładnie cały świat, oferując setki milionów stron utrzymywanych na dziesiątkach milionów serwerów. Stanowi to labirynt, którego jeden człowiek nie jest w stanie ogarnąć. Określenie dokładnej liczby serwerów jest niemożliwe. Po pierwsze nie istnieje jedna, nadrzędna instytucja nadzorująca pracę sieci, po drugie zmiany są tak szybkie, że informacja taka byłaby zdezaktualizowana w ciągu dosłownie kilku sekund. W Polsce od stycznia do maja 1995 roku liczba komputerów włączonych do sieci wzrosła z 14 do 36 tysięcy! Później przyrost był jeszcze szybszy. W chwili obecnej liczba ta przekroczyła już miliony.

To, co dzieje się w sieci, wciąż jeszcze po części jest zabawą. Ciekawi świata internauci zagłębiają się w cyberprzestrzeni sieci w poszukiwaniu ciekawych informacji, oszałamiającej grafiki, filmów czy dźwięków. Rzeczywiście, zabawa jest przednia. Trzeba jednak sobie zdawać sprawę, że Internet to również gigantyczny środek masowego przekazu informacji, zdolny do zdetronizowania wszystkich dotychczasowych. Funkcjonuje bowiem zgodnie z najnowszymi zdobyczami multimedialnymi, a w dodatku ma tę przewagę, że jest interaktywny. Nie jesteśmy więc biernymi odbiorcami, lecz jesteśmy w stanie wpływać na to, co zostaje nam przekazane. Być może w przyszłości Internet zastąpi w ogóle telewizję. Wyobraźmy sobie, że siadamy przed monitorem domowego komputera i jednym kliknięciem myszki wybieramy film, który chcemy obejrzeć. Jest to zupełnie możliwe. Co prawda na razie przepustowość łącz na to nie pozwala, ale jeżeli rozwój sieci utrzyma się na takim poziomie jak obecnie, to będzie można to osiągnąć w bliższej perspektywie niż możemy to sobie wyobrazić. Warunkiem jest jednak stworzenie odpowiednich komercyjnych serwisów.

Poczta elektroniczna to prawdziwe dobrodziejstwo sieci. Wymiana korespondencji jest błyskawiczna. Twój list na antypody dojdzie w kilka sekund! Dodatkowym atutem jest cena stanowiąca ułamek sumy, jaką musielibyśmy zapłacić wysyłając list drogą konwencjonalną. Do niedawna siecią dało się przesłać wyłącznie tekst. Nowe oprogramowanie umożliwia obecnie przesyłanie w zasadzie wszystkiego – od złożonych tekstów w dowolnym formacie, po zdjęcia, filmy i dźwięki.

Internet to przebrane źródło informacji. Za jego pośrednictwem można znaleźć pracę, odszukać wiadomości o charakterze encyklopedycznym, pogrzebać w zasobach Biblioteki Kongresu czy dokonać zakupów. Ta ostatnia forma jest szczególnie dynamicznie rozwijającym się zastosowaniem sieci. Szacuje się, że do roku 2005 około 70 milionów osób będzie robiło zakupy w internetowych supermarketach. Idea jest prosta, a jednocześnie niesłychanie wygodna i efektywna. Nie trzeba się ruszać z domu, aby obejrzeć, sprawdzić cenę i w końcu zamówić wybraną rzecz i zapłacić za pomocą karty kredytowej. Wszystko to robimy siedząc w fotelu. Nie ma znaczenia, czy zamawiamy kwiaty, czy najnowszego mercedesa. Nie tylko oszczędzamy czas, ale i pieniądze. W cenie towaru nie musi być bowiem wkalkulowana marża hurtownika i dealera. Na przykład samochód marki Chrysler zamówiony bezpośrednio u producenta kosztuje o ponad 15 tysięcy dolarów mniej niż w zwykłym salonie samochodowym

Rozmaitość ofert handlowych jest ogromna. Szczególnie popularne są księgarnie. Można odwiedzić stronę księgarni czy wydawnictwa i za pomocą sieci zamówić wybrane książki. W Stanach Zjednoczonych dochodzi już do tego, że można zamówić pizzę (również z Pizza Hut) i bukiet świeżych róż. Brytyjska firma „Sailsburry” zaprezentowała natomiast wirtualny katalog win. Po roku działalności liczba internetowych klientów wyniosła około 200 tysięcy. Dlatego też coraz więcej producentów i sprzedawców przekonuje się, że reklama i promocja internetowa jest skuteczna i wręcz niezbędna. Całkowite obroty sieciowych sklepów w 1998 roku wynosiły miliard dolarów rocznie. W 2005 roku mają one być stukrotnie większe!

Wraz z rozwojem sieci i nowych jej zastosowań pojawiają się jednak niespotykane dotychczas problemy. Po pierwsze to, czym dysponujemy w dziedzinie komunikacji, staje się powoli niewystarczające. Nasz apetyt rośnie. Chcemy przesyłać siecią pliki mierzące wiele megabajtów. Przepustowość łącz staje się powoli zbyt mała. Problem ten szczególnie dotyczy naszego kraju. Piętą Achillesową są oczywiście łącza międzynarodowe. O ile transfer w obrębie Polski jest całkiem znośny, to komunikacja z niektórymi krajami jest po prostu nie do przyjęcia. Co prawda list można przesłać bez większych problemów, jednak już strony bogate w grafikę przesyłane są bardzo długo. Sytuację w ostatnim czasie poprawiło oddanie do użytku nowych łącz satelitarnych ze Stanami Zjednoczonymi. Jednak wciąż w godzinach szczytu tworzą się w sieci „korki”.

Kolejny problem to bezpieczeństwo danych przesyłanych siecią. Trzeba pamiętać, że każda informacja, zanim dotrze do adresata, przechodzi przez dziesiątki, setki, a nawet tysiące serwerów. W każdym z nich może ona być „podglądnięta”. Internet sam w sobie nie oferuje żadnych zabezpieczeń. Dlatego też tak niebezpieczne staje się przesyłanie swoich danych osobistych czy numeru karty kredytowej. Bezpieczeństwo danych jest jak do tej pory największym hamulcem cyberprzestrzennych supermarketów. Trzeba płacić za zakupione towary – najlepiej kartą kredytową – i tu pojawia się problem. Klienci się biją, a sprzedawcy jak dotąd nie oferują alternatywnych form regulowania rachunków. Obawa ta jest najzupełniej uzasadniona. „Specjaliści” z branży potrafią bowiem (znając numer karty kredytowej) ściągnąć pieniądze z cudzego konta – nie jest to wcale takie rzadkie.



Jednak z biegiem czasu i ten problem zostanie rozwiązany. Już teraz wydaje się ogromne sumy (najwięcej w USA) na opracowanie systemu kodowania informacji w taki sposób, by były one zupełnie bezpieczne. Powstają również instytucje zwane wirtualnymi bankami. Otwierając konto w takim banku, możesz płacić za towary zakupione przez sieć bez obawy oszustwa. Oczywiście płacić można tylko tam, gdzie sprzedawca honoruje taką formę. Po prostu tworzą się nowe instrumenty płatnicze – takie trochę inne karty kredytowe. Minie jeszcze sporo czasu zanim staną się one powszechne – jednak rozmach podejmowanych działań pozwala sądzić, że nastąpi to znacznie szybciej niż się spodziewamy.

Aby uzyskać dostęp do sieci na Zachodzie, wystarczy jeden telefon do dostawcy usług internetowych (tak się nazywa firmę umożliwiającą dostęp do Internetu – z angielskiego service provider) i dosłownie w ciągu paru minut możemy już zagłębiać w cyberprzestrzeni. W Polsce pojawiają się jednak bardzo prozaiczne problemy. Po pierwsze musimy mieć telefon. W niektórych częściach kraju założenie telefonu graniczy z cudem. Jakość połączenia jest często tak zła, że co kilka minut połączenie jest przerywane, a możliwa transmisja bardzo wolna. To wszystko hamuje rozwój Internetu w Polsce. Jednak mimo wszystkich barier i trudności polski Internet wyszedł już z fazy raczkowania. Umiejętnie wykorzystywany może być fantastycznym, fascynującym i jednocześnie potężnym narzędziem. Fantastyczne w nim jest to, że nie uznaje granic. Nie ma znaczenia, czy dane dla ciebie są transmitowane z drugiej półkuli, czy z sąsiedniego miasta. Dzięki niemu Ziemia staje się naprawdę globalną wioską.


©absta.pl 2016
wyślij wiadomość

    Strona główna