powrót na stronę główną   informacje-materiały

Krótka historia rozwoju Internetu

Bardzo wiele najnowszych rozwiązań technicznych i technologicznych miało swój początek w dziedzinach, wydawałoby się, z codziennym życiem nie mających zbyt wiele wspólnego. Podbój kosmosu, wszelkie techniki militarne to działy nauki, które w ostatnich kilkudziesięciu latach dostarczyły przeciętnemu człowiekowi niezwykłą ilość przeróżnych rozwiązań wykorzystywanych w prawie każdym aspekcie jego aktywności. Badaniom naukowców wojskowych i zimnej wojnie zawdzięczamy pojawienie się pierwszej sieci komputerowej, która w konsekwencji doprowadziła do powstania Internetu. Stworzona, aby funkcjonować w przypadku nuklearnego ataku, światowa sieć stała się największym osiągnięciem ery informacji.

Wszystko zaczęło się pod koniec lat 50 – tych, gdy Rosjanie wystrzelili na orbitę pierwszy sputnik, a zimna wojna weszła w nową, kosmiczną fazę. Naukowcy amerykańscy zaczęli pracować nad tym, jak w obliczu globalnej konfrontacji zabezpieczyć przesyłanie informacji i kontrolę nad arsenałem nuklearnym. Kolejnym bodźcem do pracy nad nowym systemem umożliwiającym szybkie i bezpieczne przesyłanie danych był w roku 1962 kryzys kubański, kiedy to groźba wojny nuklearnej była realna, jak nigdy dotąd. Powołana pod koniec lat 50 – tych agencja ARPA (Advanced Research Project Agency ) miała za zadanie skonstruować taki właśnie system. Założenie było proste: sieć musi pracować nawet wtedy, gdy zostanie zniszczonych wiele jej węzłów. Stąd konieczne było stworzenie dużej ilości tras, umożliwiających w wypadku przerwania części z nich, dotarcie informacji do celu różnymi drogami. Sama zaś informacja powinna być podzielona na wiele małych kawałków i przesyłana partiami.

Pierwszy projekt zgłoszono w 1964 roku i już pięć lat później stworzono sieć o nazwie Arpanet firmowaną przez Agencję Zaawansowanych Projektów Badawczych Departamentu Obrony Stanów Zjednoczonych (DARPA). Do węzła założonego na Uniwersytecie w Los Angeles przyłączyły się uniwersytety Santa Barbara i Utah oraz Instytut Stanford. Komputery tworzące tę sieć miały 12 KB pamięci operacyjnej. W 1971 roku w sieci były już 23 komputery i 15 węzłów.

Jednak głównym celem było połączenie w sieć komputerów rządowych. Do przesyłania danych w ARPANET zastosowano wówczas po raz pierwszy technikę przełączania pakietów, polegającą na transmisji danych w postaci małych fragmentów (pakietów) zaopatrzonych w adres nadawcy i odbiorcy. Opracowano wtedy protokoły zdalnego przesyłania plików – FTP ( File Transfer Protocol) oraz możliwości logowania się do sieci. Po raz pierwszy pojawiła poczta elektroniczna ( e – mail ), doszły do skutku połączenia międzynarodowe.

Na początku lat 80 – tych w ARPANECIE pracowało już 400 serwerów – na uniwersytetach, w rządzie amerykańskim i w armii Stanów Zjednoczonych. Szacowano, że dostęp do sieci miało 10 tysięcy osób. Kiedy liczba komputerów pracujących w sieci zaczęła gwałtownie rosnąć, ich kontrola stała się wręcz niemożliwa. Stąd też w połowie lat 80 – tych nastąpił podział, który wydzielił sieć militarną ( Milnet ) oraz cywilną ( Internet ). Ogromna, jak na tamte czasy, liczba komputerów połączonych w sieć sprawiła, że zaistniała potrzeba opracowania lepszego protokołu określającego zasady przesyłania pakietów między różnorodnymi sieciami. W ten sposób doszło do zaprojektowania znanego dzisiaj zestawu protokołów TCP/IP (Transport Control Protocol/Internet Protocol). Wówczas również za sprawą Amerykańskiej Fundacji Naukowej (National Science Fundation) powstała nowa sieć szkieletowa szerokiego zasięgu nazwana NSFNET. Termin ARPANET oficjalnie przestał istnieć w 1990 roku i od tego momentu możemy mówić o rozwoju Internetu w jego dzisiejszym rozumieniu.

Na przełomie lat 1990/91 następuje komercjalizacja Internetu. Zostaje wprowadzona usługa www (World Wibe Web), która dzisiaj mylnie kojarzona jest wprost ze światową pajęczyną. W 1992 roku w Stanach Zjednoczonych przeprowadzona zostaje prywatyzacja sieci, co skutkuje pojawieniem się na rynku prywatnych dostawców usług internetowych i wielkiej ilości domowych witryn, do których internauci kierowani są z coraz bardziej rozbudowanych katalogów. Legendarnym już dziś katalogiem rozpoczynającym w tamtych czasach swoją działalność było Yahoo! Po nim powstawały kolejne, bardziej lub mniej udane katalogi i wyszukiwarki.

Terminologia używana w Internecie

W sieci używanych jest bardzo dużo terminów, które dla wielu osób są niezrozumiałe. Jest to już specyficzny język mający ułatwić porozumiewanie się między sobą internautów, ale niestety język, który niewiele ma wspólnego z poprawną polszczyzną. Być może za niedługi czas niektóre słowa z “internetowego żargonu” wejdą na stałe do naszego słownika. Zadziwia tempo, w jakim słownictwo internetowe wnika do naszego życia codziennego, jak szybko zupełnie nowe terminy zostają “wchłonięte” w nasz potoczny język. Najtrudniejsze do zrozumienia są wszelakie skróty, których w sieci jest mnóstwo i których niestety stale przybywa. A że wszystkie są pochodzenia angielskiego, stąd trudności wielu osób w ich zrozumieniu.

Poniżej przedstawiony został wybór najczęściej spotykanych terminów i skrótów związanych bezpośrednio
z Internetem, oferowanymi usługami w sieci oraz ze strukturą i sposobami transferu danych. Z wieloma można spotkać się przy konfiguracji przeglądarki internetowej, konta poczty elektronicznej czy modemu.

  • www ( World Wibe Web ) – pojęcie bardzo często mylnie kojarzone z siecią, oznacza jedną z podstawowych usług oferowanych w Internecie – możliwość przeglądania, przeszukiwania i edycji w sieci stron ( witryn ). Jest to gigantycznych już rozmiarów system hipertekstowy oparty na setkach tysięcy serwerów, gdzie umieszczane są strony www. Dokumenty Web zawierają oprócz tekstu grafikę, dźwięki i czasami sekwencje video. Na stronach www praktycznie zawsze pojawiają się linki – są to odsyłacze do kolejnych witryn związanych lub nie tematycznie z przeglądaną aktualnie przez nas stroną.
  • e – mail ( electronic mail ) – poczta elektroniczna, dająca możliwość przesyłu plików tekstowych, grafiki, dźwięków do dowolnego odbiorcy na świecie posiadającego oczywiście własne konto. Istnieją konta komercyjne – płatne, o dużych rozmiarach ( ok. 30Mb ), wolne od ingerencji operatora sieci ( przynajmniej teoretycznie ) oraz konta darmowe oferowane coraz częściej prywatnym użytkownikom. Ich pojemność jest jak na razie nie tak duża jak kont komercyjnych, ale zdecydowanie w ostatnich miesiącach się powiększa. Wadą tych kont jest czasami ogromna liczba reklam, które potrafią być dołączane do prywatnej korespondencji. Z e –mailem wiąże się również pojęcie załącznika – jest to w zasadzie dowolny plik, który jest “przypięty” do wysyłanej poczty. Załączniki są także ulubionym miejscem umieszczania przez hakerów wirusów. Najsłynniejszy z takich wirusów – wirus “I Love You” spowodował na całym świecie straty szacowane na kilka miliardów dolarów.
  • grupy dyskusyjne ( Usenet ) – organizacja grup dyskusyjnych przebiega dwutorowo: są to strony www, gdzie
    w odpowiednich okienkach możemy wymieniać z kimś swoje uwagi lub tzw. IRC ( Internet Realy Chat), zwany także potocznie “ircekiem”, który jest zbiorem tematycznych kanałów oferujących możliwość “rozmowy” w grupie lub z konkretną osobą w czasie rzeczywistym ( na żywo ). Struktura grup dyskusyjnych opiera się na podziale na grupy tematyczne, gdzie użytkownicy mają możliwość wymiany informacji, zapytań i uwag na ściśle określony temat ( choć nie zawsze jest to przestrzegane ). Obecnie większość dużych katalogów w sieci proponuje bezpośrednie wejście do tzw. otwartych grup dyskusyjnych lub uruchamia o określonej godzinie chat dając możliwość rozmowy z wybraną osobistością ze świata polityki czy sztuki. Chaty tego typu uruchamiają także niektóre urzędy państwowe, a czasami również prywatni użytkownicy sieci na swoich stronach domowych.
  • HTTP (HyperText Transfer Protocol) – skrót oznaczający system protokołów używany do transferu dokumentów hipertekstowych pomiędzy serwerem a każdym komputerem w sieci. Skrót: http:// spotykamy przed każdym adresem internetowym, który domyślnie jest rozpoznawany jako właśnie tego typu dokument.
  • FTP (File Transfer Protocol) – poprzednik systemu HTTP, również protokół zdalnego przesyłania plików, obecnie używany już bardzo rzadko. Jeszcze starszym protokołem był Gopher ( świstak ).
  • HTML (HyperText Markup Language) – język znaczników hipertekstowych lub inaczej: sposób kodowania używany w dokumentach hipertekstowych. Słowo: hipertekst odnosi się do systemu odwoływania się do wzajemnie logicznie powiązanych dokumentów. Znacznik to szczegółowa instrukcja stylistyczna wprowadzona do dokumentu przeznaczonego do opublikowania w systemie www. Język z kolei to jedynie kolekcja jedno-, dwu- lub trzyliterowych kodów i słów używana do określenia stylów formatowania tekstu.

Często HTML bywa kojarzony z hiperłączem, czyli inaczej odsyłaczem lub linkiem, który jest tekstem lub grafiką kierującą nas bezpośrednio do innej strony w Internecie bez względu na jej położenie w sieci.

  • URL (Uniform Resource Locator) – jednolity lokalizator zasobów lub inaczej: lokalizator zasobów w systemie Web, czyli adres serwera i ewentualnie ścieżka dostępu do dokumentu Web na jego dysku. Adres URL ma postać zwykłego adresu www, czasami z doprowadzeniem do podstrony, np. www.radio.com.pl/trojka, gdzie Trójka jest podstroną strony Polskiego Radia. URL zwany jest również adresem domenowym.
  • Adres IP ( Internet Protocol ) – również adres internetowy, ale w postaci czterech 32- bitowych liczb, np. 195.205.159.1, gdzie liczba pierwsza oznacza adres sieci szkieletowej w Polsce, druga – adres np. województwa, trzecia – adres podsieci, a czwarta konkretny komputer. Adres IP wczytywany jest automatycznie przez przeglądarkę jeszcze przed załadowaniem strony. Ilość kombinacji liczb w postaci 32 – bitowej jest ogromna (sięga kilku milionów), ale przez zwiększającą się stale liczbę stron w Internecie są prowadzone prace nad kodem 64 – bitowym, gdzie liczba kombinacji powoli wymyka się spod kontroli.
  • LAN ( Local Area Network ) – sieć lokalna;
  • MAN ( Metropolitan Area Network ) – sieć miejska, metropolitarna;
  • WAN (Wide Area Network) – sieć obejmująca swym zasięgiem większy obszar;

Wyżej zostały wymienione różne rodzaje sieci podzielone ze względu na obszar, jaki obejmują.

  • TCP/IP ( Transmission Control Protocol/Internet Protocol ) – para wzajemnie dopełniających się protokołów sieciowych stanowiących podstawę działania Internetu. To właśnie dzięki TCP/IP różne komputery i systemy operacyjne podłączone do sieci mogą się porozumiewać.
  • DNS ( Domain Name Server ) – serwer nazw przechowujący wykaz adresów komputerów ze swojej domeny, czasami ewentualnie także sąsiednich domen nie mających własnych serwerów nazw. DNS wprowadzany przy konfiguracji Internetu lub konta poczty e – mail na komputerach prywatnych podłączonych do TP SA ma postać:

Podstawowy: 194.204.159.1
Zapasowy: 194.204.152.34

Bez powyższej konfiguracji serwera nazw nasz komputer domowy może być niewidoczny w sieci, zwłaszcza przy otrzymywaniu poczty elektronicznej.

  • Modem ( Modulator/Demodulator ) – urządzenie zewnętrzne lub wewnętrzne przekształcające sygnały cyfrowe na analogowe, niezbędny do nawiązania połączenia z Internetem. Szybkość działania modemu określa się w kilobajtach na sekundę. Obecnie najczęściej instalowane modemy mają szybkość do 56 kbps przy zwykłych łączach dzierżawionych, np. w TP S.A. Inaczej wygląda sytuacja w modemach, które działają przy łączach stałych: nie muszą one przekształcać sygnału, gdyż zarówno na wejściu jak i na wyjściu sygnał jest cyfrowy ( te urządzenia chyba powinny mieć zupełnie inną nazwę ). Takie połączenia to między innymi:
  • ISDN ( Intergrated Services Digital Network ) – cyfrowa sieć z integracją usług, termin pojawił się w połowie lat osiemdziesiątych, jednak dopiero kilka lat temu zyskał na znaczeniu. Cyfrowe łącza ISDN pozwalają na przysyłanie danych, prowadzenie wideokonferecji czy korzystanie z usług głosowych o najwyższej jakości. Największą zaletą tego standardu jest to, że do zestawienia cyfrowych łączy można wykorzystać istniejącą infrastrukturę telekomunikacyjną, czyli zwykłe linie abonenckie. Abonent może korzystać z dwóch cyfrowych kanałów o przepustowości 64 kbps każdy oraz dodatkowego kanału D o przepustowości 16 kbps do funkcji sygnalizacyjnych. Ograniczeniem łączy ISDN jest jedynie odległość od abonenta do centrali: nie może ona przekraczać 5 – 10 kilometrów. Dodatkowym urządzeniem jest także moduł zwany zakończeniem sieciowym (NT). Do niego można za pomocą specjalnych przejściówek podłączyć aż do ośmiu urządzeń. Mogą to być telefony, modemy, faksy, wideotelefony itp. Rodzaj urządzeń rozpoznawany jest automatycznie.
  • HiS (Home Internet Solution) – technologia, która pozwoliła na bardzo szybką transmisję danych, została użyta przez TP S.A. do stworzenia SDI (Szybki Dostęp Do Internetu). Abonenci otrzymują terminal (czyli urządzenie przypominające działaniem opisany wcześniej modem – przypis autora) podłączony do portu szeregowego komputera, który zapewnia transfer asynchroniczny z maksymalną szybkością 115,5 kbps. Możliwa jest również jednoczesna rozmowa telefoniczna, jednak obniża to prędkość transmisji danych do 70 kbps.

Najnowsze technologie wykorzystujące łącza światłowodowe przesyłają dane z prędkościami przekraczającymi 2 Mbps, ale niestety dotyczy to tylko, przynajmniej na razie, bardzo wąskiej grupy odbiorców przede wszystkim ze względu na wysokie koszty samego łącza jak i opłat za połączenia. Najnowszą usługą szerokopasmową w Polsce jest proponowana przez TP S.A. Neostrada bazująca na technologii ADSL (Asymmetric Digital Subsriber Line), czyli asymetryczne cyfrowe łącze abonenckie, pozwalające na przepustowości 2 Mbps w kierunku od centrali do abonenta i 128 kbps w drugą stronę.

  • przeglądarka internetowa – aplikacja służąca do przeglądania stron www; najczęściej używane przeglądarki działające w systemie operacyjnym Windows to Microsoft Internet Explorer i Netscape Navigator ( lub Communicator ) funkcjonujący w polskiej wersji językowej jako Sylaba Komunikator. Oba programy dają możliwość przeglądania stron www, obsługi poczty elektronicznej oraz wszelkich nowych usług dostępnych w sieci. Oprócz oczywistego wydajnego “czytania” kodu HTML obie przeglądarki dają sobie doskonale radę z coraz popularniejszymi apletami w języku Java i skryptami w JavaScript. Internet Explorer radzi sobie również ze skryptami pisanymi w Visual Basic Scrpit. Obie aplikacje są przez producentów udostępniane darmowo, a za wyborem jednej z nich przemawiają raczej indywidualne przyzwyczajenia niż względy praktyczne. Inne przeglądarki oferowane w dość dużych ilościach w Internecie stanowią raczej margines, a i ich jakość odbiega znacznie od wyżej wymienionych, może poza przeglądarką Opera.

Główne usługi oferowane w Internecie

Rozwój Internetu to nie tylko coraz szybsze łącza, zawrotna liczba dostępnych witryn, katalogów, wyszukiwarek, stron domowych. To również mnóstwo innych usług, na których rozwoju bardzo wiele firm stara się po prostu zarobić duże pieniądze. Już nie wystarcza strona w Internecie traktowana jako reklama: na stronie możemy złożyć zamówienie, porozmawiać z pracownikiem firmy, zapłacić za towar czy usługę, albo wydać odpowiednie polecenie przelewu do naszego banku. I wszystko to siedząc przy komputerze w domu. Kamery internetowe pozwolą nam na zorganizowanie wideokonferencji czy rozmowę przez telefon z możliwością kontaktu wzrokowego z naszym rozmówcą.
Jednak dla przeciętnego internauty sieć to przede wszystkim: www, e – mail i grupy dyskusyjne. Teoretycznie te usługi zostały omówione w poprzednim podrozdziale, teraz zostaną przedstawione bardziej od strony praktycznej.

Poczta elektroniczna

Przesyłanie plików na odległość za pomocą komputerów to był jeden z głównych celów jaki przyświecał twórcom pierwszych sieci. I wydaje się, że wymiana informacji przez Internet w postaci korespondencji listowej stała się jedną
z najważniejszych usług oferowanych w sieci. Posiadanie konta poczty elektronicznej to w tej chwili dla wielu osób, a przede wszystkim firm, konieczność. Daje to możliwość bardzo szybkiego, bezpośredniego kontaktu praktycznie z każdą osobą mającą dostęp do komputera.

Strukturę adresu konta e – mail można przedstawić następująco: kto@gdzie. Kto – oznacza tutaj naszą własną, niepowtarzalną nazwę, która jest najczęściej zbitką liter z imienia i nazwiska lub nazwą firmy. Gdzie – to nazwa serwera, na którym zostało założone konto. W adresach używa się tylko małych liter bez polskich znaków, a poszczególne jego człony mogą być rozdzielone kropkami. Posiadanie własnego adresu e – mailowego nie stanowi w tej chwili żadnego problemu. Praktycznie każdy większy portal proponuje darmowe miejsce na swoim serwerze, ułatwiając coraz bardziej sposoby zakładania skrzynki. U większości operatorów wystarczy jedynie wypełnić ankietę składającą się zazwyczaj z kilkunastu pytań i podać proponowaną przez nas nazwę konta. W przypadku, gdy podana nazwa już istnieje zostanie nam zaproponowana inna, zbliżona. Zazwyczaj powinno się ją zaakceptować. Nasza skrzynka musi być zabezpieczona, stąd też musimy podać hasło, które powinno uchronić korespondencję. Hasło może składać się zazwyczaj z ciągu do 32 lub 36 dowolnych znaków. Oprócz opisanego sposobu założenia darmowego konta można również założyć tzw. konto komercyjne, za które co prawda trzeba płacić, ale daje ono
o wiele więcej możliwości. Takie konta zamawia się u wybranych administratorów sieci. O plusach i minusach kont darmowych i komercyjnych można przeczytać w poprzednim podrozdziale.

Najpopularniejszym programem obsługi poczty elektronicznej jest Outlook Express. Jest to darmowa aplikacja udostępniana łącznie z systemem Windows. Zawiera ona skromny edytor tekstowy, podział na elementy (listy) wysłane, odebrane, nadane i usunięte oraz kopie robocze korespondencji, nad którą pracujemy. Edytor tekstu Outlook’a współpracuje doskonale
z MS Word – dokumenty stworzone w Wordzie można wkleić do programu Outlook lub wysłać jako załącznik do poczty. Praca z tym programem jest wręcz intuicyjna, jest oceniany bardzo wysoko również ze względu na bezproblemowe i bezawaryjne działanie.

Strony www

Przeglądanie stron, czyli tzw. surfowanie w sieci to najbardziej popularne zajęcie wśród internautów. Często jest to poszukiwanie konkretnej informacji na stronach www, czasami po prostu poszukiwanie ładnej, ciekawie zrobionej witryny. Zasoby sieci szacowane są obecnie na ponad miliard stron z przyrostem około miliona stron dziennie. Firma BrightPlanet prowadząc badania w tym zakresie podała, że zasoby sieci mogą być nawet 400 – 500 razy potężniejsze. Wprowadzony został termin Deep Web na określenie owego głębokiego Internetu, przeciwnego do tzw. “Internetu powierzchniowego”. Strony
z Deep Web, w odróżnieniu od “powierzchniowych”, charakteryzuje na ogół węższa tematyka, ale zdecydowanie bardziej pogłębiona. Ocenia się, że zawierają prawie 550 miliardów dokumentów, w porównaniu z miliardem dokumentów znajdujących się na powierzchni Sieci. 60 największych witryn “głębokiej Sieci” publikuje razem 750 terabajtów danych, czyli 40 razy więcej niż “powierzchnia” www. Ponad połowa zawartości “głębokiej Sieci” to tematyczne bazy danych, z których 95% gromadzi informacje dostępne publicznie, wolne od opłat czy obowiązkowej rejestracji.

Przy tak ogromnym zagęszczeniu stron i informacji na nich zamieszczonych rzeczą podstawową stają się odpowiednie witryny pomagające w przeszukiwania sieci. Służą temu dostępne dla każdego narzędzia w postaci: wyszukiwarek, katalogów, multiwyszukiwarek, wyszukiwarek specjalistycznych oraz stron ekspertów. Najbardziej dostępne
i posiadające największe zasoby informacji są katalogi i wyszukiwarki. Bardzo często obie funkcje są łączone w jednej witrynie.
Teoretycznie sposób działania wyszukiwarek i katalogów wydaje się bardzo prosty: wyszukiwarki używają zautomatyzowanych programów, zwanych pajączkami ( spiders ), które wędrując po Sieci, odwiedzają kolejne strony i zapamiętują zapisane na nich informacje ( indeksują je ). Sposób, w jaki sporządzony jest indeks stron jest segregowany, filtrowany i uaktualniany, zależy od rodzaju wyszukiwarki.
Katalogi tworzone są w oparciu o pracę człowieka – użytkowników katalogu czy administratora, i dlatego też zawierają dużo mniej zindeksowanych stron, choć są one zdecydowanie lepiej dobrane i posegregowane. Cechą wyróżniającą katalogi jest ścisły podział zasobów na bloki tematyczne, w których można wyróżnić podkategorie, co znacznie ułatwia odnalezienie potrzebnych informacji.

Oto kilka linków do najlepszych wyszukiwarek:
www.google.pl
www.altavista.com.pl
www.onet.pl
www.wp.pl
www.hoga.pl
www.hotbot.com
www.yahoo.com

Bardzo ciekawym narzędziem są multiwyszukiwarki (metasearcher). Ich działanie polega na wyszukiwaniu interesujących nas informacji z użyciem nie jednej, a kilku wyszukiwarek. Dane spływające spod każdego adresu są weryfikowane, porównywane z innymi i, jeżeli się nie powtarzają, podawane są jako wynik poszukiwań. W polskich zasobach sieciowych znajdują się niestety na razie tylko dwie tego typu multiwyszukiwarki: YoYo! i www.emulti.pl . Obie działają bez zarzutu i są wysoko oceniane przez specjalistów jako narzędzia wyszukujące.

Grupy dyskusyjne

Ta usługa, choć uważana przez wielu użytkowników Sieci za jedną z najważniejszych i najciekawszych, jest traktowana raczej po macoszemu. A w końcu to największe otwarte forum dyskusyjne, gdzie można znaleźć interesujące nas informacje i odpowiedzi na czasami bardzo trudne pytania. To również miejsce nawiązywania kontaktów między internautami.

Grupy dyskusyjne podzielone są tematycznie. Przebiega to według tzw. hierarchii grup. Najważniejsze z nich to:

  • alt – hierarchia alternatywna zawierająca grupy tworzone przez użytkowników
  • rec – grupa związana z rekreacją, rozrywką i zainteresowaniami,
  • comp – znaleźć tu można informacje na temat komputerów,
  • sci – rozmowy na tematy naukowe,
  • soc – wymiana poglądów na tematy społeczne, w tym np. religię czy edukację,
  • misc – grupy oferujące różne tematy,
  • news – sprawy związane z Usenetem i funkcjonowaniem grup,
  • listserv – grupy powiązane z listami dyskusyjnymi.

Początki istnienia grup dyskusyjnych sięgają roku 1979, kiedy to Tom Truscott i Jim Ellis opracowali wszystko,
co niezbędne do ich obsługi: serwer, czytnik oraz protokół wymiany informacji. Wtedy powstał pomysł hierarchicznej struktury Usenetu. Wszystkie dyskusje odbywają się w grupach, które tworzą strukturę drzewiastą. Nazewnictwo jest odwrotne niż w przypadku adresów internetowych – ważniejsze człony znajdują się z lewej, a nie z prawej strony.

Informacje wysyłane przez użytkowników są gromadzone na wybranym serwerze, a następnie stopniowo przesyłane na kolejne serwery. Różnice w zawartości poszczególnych serwerów biorą się najczęściej z opóźnień w transferze danych oraz z różnego czasu ich przechowywania. Serwerami grup dyskusyjnych kierują administratorzy, do których należy między innymi czasowe opróżnianie poszczególnych list, sprawdzanie sprawności ich funkcjonowania oraz przeprowadzanie głosowań wśród użytkowników nad nowo powstałymi grupami.

Polski Usenet powstał w 1994 roku za sprawą T. Surmacza z Politechniki Wrocławskiej i M. Jankowskiego
z Uniwersytetu Warszawskiego. Obecnie hierarchią pl zarządza jednoosobowo Tomasz Surmacz.

Główną witryną, na której można znaleźć wszystkie informacje na temat polskich grup dyskusyjnych jest serwis www.usenet.pl, który teoretycznie powinien zarządzać grupami, zakładać nowe i kasować stare lub rzadko używane grupy.

Dyskutować w sieci można nie tylko w grupach już istniejących . Praktycznie każdy użytkownik jest w stanie założyć własną grupę dyskusyjną w hierarchii alt.* , gdzie do utworzenia własnego forum wystarczy wysłać specjalną wiadomość.

Drugą możliwością jest założenie listy dyskusyjnej. Technicznie działa ona inaczej niż grupa, ale może spełniać podobną rolę. Adres listy to zwykłe konto poczty elektronicznej. Wszystkie przesłane tam wiadomości są odbierane przez automat, tzw. listserwer, który przesyła je do osób zapisanych do danej listy. Jeden serwer może obsługiwać wiele list identyfikowanych przez różne konta na tym samym serwerze.

Odmianą grup dyskusyjnych jest IRC (Internet Relay Chat). Oferuje on możliwość prowadzenia rozmów “na żywo”. Treść wypowiedzi każdego użytkownika sieci jest w czasie rzeczywistym widoczna przez wszystkich innych będących aktualnie “rozmówcami” na danym kanale IRC.

Wszystko zaczęło się w 1988 roku w Finlandii. Z miesiąca na miesiąc IRC ogrywał coraz istotniejszą rolę
w transmitowaniu informacji z każdego wydarzenia politycznego lub sportowego o randze światowej. Podczas wojny w Zatoce Perskiej kanały IRC wykorzystywano do analizowania najświeższych wiadomości z frontu otrzymywanych za pośrednictwem tradycyjnych środków masowego przekazu.

IRC, często nazywany po prostu Chatem, jest najbardziej niebezpieczną dla użytkownika formą korzystania
z Internetu. Strony www czy grupy dyskusyjne można przeglądać w zasadzie anonimowo – nasz komputer nie musi być widoczny dla pozostałych internautów. Każde pojawienie się nowego rozmówcy na kanale IRC jest natychmiast komunikowane wszystkim, a co się z tym wiąże – wszyscy mają dostęp do wszystkich komputerów. Chaty są ulubionym miejscem “urzędowania” sieciowych hakerów. Wystarczy chwila nieuwagi i przez wprowadzenie niesprawdzonego komunikatu można doprowadzić do sytuacji, kiedy ktoś przejmie kontrolę nad dowolnym komputerem.

Pomimo niebezpieczeństw kanały IRC stały się w ostatnim czasie jedną z najbardziej popularnych form komunikacji w Internecie. Praktycznie każdy katalog, czasami nawet strony domowe użytkowników, proponuje taką usługę. Są to chaty
z reguły udostępniane bez żadnych ograniczeń całą dobę, czasami tylko przeznaczone są do rozmowy z konkretną osobą.

Komunikatory

Programy do bezpośredniej komunikacji w sieci. Najbardziej znany to oczywiście ICQ, używany przez internautów na całym świecie. Z polskich komunikatorów największym powodzeniem cieszy się Gadu-Gadu oraz Tlen. Oprócz możliwości bezpośredniej komunikacji programy te mogą służyć do wysyłania krótkich wiadomości tekstowych, czyli popularnych sms-ów. Ta funkcja jest też wspomagana przez inne programy służące tylko i wyłącznie temu celowi.
Większość operatorów proponuje jednak wysyłanie sms z tzw. bramek na ich stronach www.

Artur Leszczawski