World Wide Web [ ˌ w ɝ l d wag a ɪ d wag ɛ b ] (dosłownie "web (pająk) Świat", w skrócie www lub internetowej ), w internecie na całym świecie lub tkaniny , to system hipertekstowy publiczność działa na Internet . Sieć umożliwia konsultacje z przeglądarki , strony dostępne na stronie internetowej . Obraz sieci pająka pochodzi z hiperłączy łączących strony internetowe.
Sieć WWW to tylko jedna z aplikacji internetowych, oddzielona od innych aplikacji, takich jak poczta e-mail , wideokonferencje i udostępnianie plików w sieci równorzędnej . Wynaleziony w 1989 - 1990 przez Tim Berners-Lee , a następnie Robert Cailliau , było w internecie, że wykonane z mediów głównego nurtu oddany do Internetu. Od tego czasu sieć często była mylona z Internetem; w szczególności słowo „ sieć” jest często używane w tekstach nietechnicznych, nie wiadomo, czy autor odnosi się do sieci czy do internetu .
Sieć World Wide Web jest nazywana wieloma skrótami nazw i synonimów: WorldWideWeb , World Wide Web , World-wide web , web , WWW , W3 , Web of Spider World , World Wide Web , Canvas . Niektórzy zniknęli. Nazwa pierwotnego projektu „ WorldWideWeb ” po raz pierwszy pojawia się w publikacji z 1990 roku . Słowa zostały szybko rozdzielone w sieci WWW, aby poprawić czytelność. Nazwa World-Wide Web była również używana przez wynalazców sieci, ale nazwa zalecana przez World Wide Web Consortium (W3C) oddziela te trzy słowa bez myślnika. Chociaż słowo „mondial” jest pisane na całym świecie lub na całym świecie w języku angielskim , pisownia World Wide Web i skrót Web są obecnie dobrze ugruntowane. Termin World Wide Web to aliteracja należąca do domeny łamaczy językowych .
Tworząc sieć, Tim Berners-Lee pomyślał także o innych nazwach, takich jak Information Mesh , Mine of Information lub The Information Mine (kopalnia informacji, której akronimem będzie Tim ). Skrót WWW był powszechnie używany jako skrót World Wide Web, zanim przejął on skrót Web . WWW jest często wymawiane jako trzy podwójne V , potrójne podwójne V , vévévé lub wéwéwé (w Belgii ). Pracochłonna wymowa (w języku francuskim , jak w języku angielskim ) na stronach WWW niewątpliwie wytrąca jej spadek w doustnej. Na piśmie litery www są nadal powszechnie używane w adresach internetowych i kilku innych konwencjach technicznych. WWW jest czasem skracane do W3 , co jest skrótem występującym w akronimie W3C od World Wide Web Consortium . W drugiej połowie 1990 , powszechne żart twierdził, że WWW stał na World Wide Wait , wait lub „globalne”, jak sieć Internet był zatkany z rosnącej popularności sieci.
Do pisania "sieci" coraz częściej używa się małych liter . Biuro Québécois de la langue française zaleca korzystanie z literą w swoich komunikatach, ale jednak wyraźnie uznaje ważność początkowej małej litery. We Francji, Commission générale de terminologie, od 1999 r. zalecała stosowanie tłumaczenia „światowa sieć pająka”, a od 2018 r. terminów „sieć” i „sieć światowa”.
Wyrażenie „online” oznacza „podłączony do sieci”, w tym przypadku do internetowej sieci komputerowej . Wyrażenie to nie jest zatem specyficzne dla sieci, ale do Internetu jako całości, występuje również w połączeniu z sieciami telefonicznymi.
Gospodarz jest komputer w Internecie. Każdy host w Internecie jest identyfikowany przez adres IP, który odpowiada zero, jednej lub większej liczbie nazw hostów .
Zasobów z sieci World Wide Web jest podmiotem danych ( tekst , obraz , forum Usenet , skrzynki poczty elektronicznej , itd.) Uzyskano dostęp niezależnie od innych środków. Zasób publicznego dostępu jest swobodnie dostępny z całego Internetu. Gdy zasób jest obecny na hoście użytkownika, mówi się, że jest lokalny; w przeciwieństwie do tego jest zdalny, jeśli jest obecny na innym hoście. Gdy jest podłączony i dostępny w sieci, jest w trybie online. Dostęp do zdalnego zasobu można uzyskać tylko z poszanowaniem protokołu komunikacyjnego . Funkcjonalności każdego protokołu są różne: odbiór, wysyłanie, a nawet ciągła wymiana informacji.
HTTP (od HyperText Transfer Protocol ) to protokół komunikacyjny powszechnie używany do przesyłania zasobów internetowych. HTTPS to wariant z uwierzytelnianiem i szyfrowaniem .
URL (dla Uniform Resource Locator , co dosłownie oznacza „jednolity lokalizator zasobów”) jest ciągiem znaków opisujących lokalizację zasobu. Zwykle zawiera w kolejności: nazwę protokołu, dwukropek (:), dwa ukośniki (//), nazwę hosta, ukośnik (/) oraz ścieżkę składającą się z tekstu oddzielonego ukośnikami. Przykład: http://example.com/un/chemin/page.html.
W nieformalnym języku potocznym jest to również określane jako adres internetowy zamiast adresu URL. Ponadto, podając adres internetowy, zwykle pomijamy początkową część http://lub https://adresy URL.
Hiperłącze (lub w języku potocznym, link) jest elementem zasobu, który jest powiązany z adresem URL. Hiperłącza w sieci są zorientowane: pozwalają przejść od źródła do miejsca docelowego. Tylko zasób źródłowy zawiera dane definiujące hiperłącze. W ten sposób możliwe jest ustanowienie hiperłącza bez jakiejkolwiek interwencji lub współpracy z docelowego zasobu hiperłącza. Ten jednostronny model przyjęty przez Internet nie występuje we wszystkich systemach hipertekstowych. W globalnej sieci publicznej ma tę przewagę, że umożliwia tworzenie niezliczonych hiperłączy między zdecentralizowanymi i nieskoordynowanymi partnerami.
HTML ( HyperText Markup Language ) i XHTML ( Extensible HyperText Markup Language ) to języki komputerowe używane do opisywania treści dokumentu (tytuły, akapity, układ obrazów itp.) oraz do dołączania hiperłączy. Dokument HTML to dokument opisany w języku HTML.
W klient-serwer trybu komunikacji , wykorzystując serwer jest gospodarzem uruchomiony serwer oprogramowanie do których oprogramowanie klienckie działa na hostach klienckich można podłączyć pojedynczy host może zawierać zarówno.
Serwer HTTPSerwer HTTP (lub serwis internetowy) to oprogramowanie służące do obsługi zasobów za pośrednictwem protokołu HTTP. Klient HTTP to oprogramowanie służące do manipulowania tymi zasobami.
Serwer WWW jest zapamiętać na którym serwer HTTP (lub serwis internetowy) pracuje . Serwer sieciowy może hostować zasoby, które obsługuje, może pobierać je ze zdalnych hostów, dostarczać te zasoby takimi, jakie są (będziemy mówić o zasobach statycznych) lub modyfikować je według różnych kryteriów, wtedy będziemy mówić o zasobach dynamicznych. W przypadku dużych usług często zdarza się, że zasoby są dystrybuowane na różne serwery internetowe i prawdopodobnie różne typy serwerów HTTP, z których niektóre mają lepszą wydajność w obsłudze zasobów przechowywanych w plikach, a inne większą elastyczność w obliczaniu zasobów na żądanie. Serwer sieciowy może być wyspecjalizowanym hostem, częścią wyspecjalizowanej infrastruktury lub nawet bardziej ogólnym hostem. Nazywamy witrynę internetową , zestaw zasobów HTTP skojarzonych z nazwą domeny i co najmniej jedną nazwą hosta.
Klient HTTPKlient HTTP jest narzędziem do korzystania z zasobów udostępnianych przez serwer HTTP. Jest odpowiedzialny, w odniesieniu do różnych usług, za tłumaczenie nazwy hosta na adres IP przez DNS, kontakt z serwerem HTTP i dostarczenie mu różnych informacji, takich jak nazwa strony, żądany zasób, a także jako jego możliwości (zarządzanie różnymi rodzajami zasobów, pojemność wyświetlania, możliwość kompresji danych itp.) lub chęć (wybór języków, ochrona prywatności) w korzystaniu z udostępnionych danych.
Przeglądarka internetowa to rodzaj oprogramowania klienckiego HTTP interfejsu człowiek-maszyna zaprojektowanego w celu uzyskiwania dostępu do zasobów w Internecie. Jego podstawową funkcją jest umożliwienie przeglądania dokumentów HTML dostępnych na serwerach HTTP. Obsługa innych typów zasobów i innych protokołów komunikacyjnych zależy od typu przeglądarki.
Web crawler to rodzaj oprogramowania klienta HTTP, używane do indeksu różnych zasobów serwisu.
Agregator jest w internecie, to rodzaj oprogramowania klienckiego HTTP, pozwalając Kanały dystrybucyjne z różnych stron internetowych, które mają być grupowane .
Odkurzacz strona jest klient HTTP, który pozwala, aby pobrać całą stronę internetową, a następnie go zobaczyć nieaktywny lub zachować archiwum.
DokumentyStrona (lub strony) to dokument przeznaczony do konsultacji z przeglądarki internetowej . Strona internetowa zawsze składa się z centralnego zasobu (zazwyczaj HTML lub XHTML dokumentu ) oraz wszelkich powiązanych zasobów, które są automatycznie dostępne (na przykład obrazy, arkusze stylów, JavaScript skryptów lub krojów). Nie jest niczym wyjątkowym, że pojedynczy dokument HTML wymaga od kilkudziesięciu do stu dodatkowych zasobów.
Edytor HTML (lub edytor WWW) to program zaprojektowany, aby ułatwić pisanie dokumentów HTML i stron internetowych w ogóle.
Strona (lub strony) to zbiór stron internetowych i innych zasobów, połączone w spójną strukturę, opublikowane przez właściciela (firmy, administrację, stowarzyszenia, jednostki, etc.) i umieszczona na lub wielokrotnego internecie serwery. Strona odpowiadająca głównemu adresowi URL witryny jest stroną główną .
Zawartość system zarządzania (CMS w skrócie) jest oprogramowanie do zarządzania treścią witryny.
Konsultacje i pomiaryOdwiedzanie strony internetowej oznacza „przeglądanie jej stron”. Termin wizyta pochodzi od tego, że zazwyczaj przegląda się kilka stron witryny, gdy odwiedza się pomieszczenia w budynku. Wizytę prowadzi użytkownik (odwiedzający lub internauta ).
Wyrażenie „surfowanie po sieci” oznacza „przeglądanie sieci”. Został wymyślony, aby podkreślić, że przeglądanie sieci polega na podążaniu za wieloma hiperłączami ze strony na stronę. Jest używany głównie przez media ; nie należy do słownictwa technicznego.
Referrer to zasób, który doprowadził użytkownika do obsługiwanego zasobu. Są one podawane domyślnie przez większość klientów HTTP, ale można je zablokować.
Pomiar oglądalności jest badaniem konsultacji przeprowadzonych na stronie, ma na celu zrozumienie pragnień użytkowników, zgodnie z najczęściej używanymi zasobami i okruszkami chleba.
Pomiar odbiorców można przeprowadzić na różne sposoby:
Hostingowego jest naturalny lub osobą prawną , która oferuje serwery internetowe do wynajęcia.
Agencja internetowa jest biznesowych usługi komputerowe wykonywaniu stron internetowych dla swoich klientów.
Web developer jest programistą specjalizujący się w technologiach internetowych.
Serwis internetowy jest klient-serwer, technologia oparta na protokołach internetowych.
Katalog stron jest strona aukcji internetowych .
Wyszukiwarka jest stroną, która pozwala na wyszukiwanie słów na wszystkich stronach internetowych.
Portal internetowy to strona internetowa, która próbuje połączyć najszerszy zakres informacji i usług w możliwie internetowej. Niektóre portale są tematyczne.
Agregator internetowej jest strona internetowa, która wybiera, organizuje i, ewentualnie, sprawdza stron dotyczące konkretnego tematu, i formaty je w ergonomicznej i atrakcyjny sposób.
Blog jest częścią strony internetowej, gdzie osobiste teksty są regularnie publikowane.
Webmail jest strona zapewniając funkcjonalność klienta poczty na adres e-mail .
Wiki jest stroną internetową, która może być edytowany przez użytkowników.
Tim Berners-Lee pracuje jako informatyk w budynku 31 ( 46°13′57″N, 6°02′42″E ) Europejskiej Organizacji Badań Jądrowych (CERN), mieszczącej się w Szwajcarii koło Genewy, gdy w 1989 r. , zaproponował stworzenie systemu hipertekstowego rozproszonego w sieci komputerowej, aby pracownicy mogli dzielić się informacjami w CERN. W tym samym roku osoby odpowiedzialne za sieć CERN zdecydowały się na użycie protokołu komunikacyjnego TCP/IP i CERN otworzył swoje pierwsze zewnętrzne połączenie z Internetem . W następnym roku inżynier systemowy Robert Cailliau dołączył do projektu hipertekstowego w CERN, od razu przekonany o jego zainteresowaniu i energicznie poświęcił się jego promocji. Timowi Berners-Lee i Robertowi Cailliau często przypisuje się początki World Wide Web jako współtwórców, chociaż Robert Cailliau nigdy nie twierdził, że jest odpowiedzialny za sieć. Tim Berners-Lee tworzy pierwszą przeglądarkę internetową i edytor o nazwie WorldWideWeb oraz pierwszy serwer HTTP o nazwie CERN httpd .
Około 1992 roku Tim Berners-Lee chciał przekazać swój wynalazek (specyfikacje i kod źródłowy) do domeny publicznej. Robert Cailliau pomógł mu uzyskać zgodę CERN-u i przybył tam w 1993 roku . Do tego czasu sieć była rozwijana głównie pod kierownictwem Tima Bernersa-Lee i Roberta Cailliau, ale sytuacja uległa zmianie wraz z pojawieniem się NCSA Mosaic , przeglądarki internetowej opracowanej przez Erica Binę i Marca Andreessena w National Center for Supercomputing Applications (NCSA). ), Illinois . NCSA Mosaic kładzie podwaliny pod interfejs graficzny nowoczesnych przeglądarek integrując obrazy z tekstem i powoduje wykładniczy wzrost popularności sieci. Niektórzy programiści Mosaic stworzą następnie Netscape Navigator, który wprowadzi równoległość, pozwalając również na używanie stron z obrazem na połączeniach o niskiej prędkości. Ten, od ewolucji do ewolucji, stał się teraz Mozilla Firefox . NCSA tworzy również NCSA HTTPd , serwer HTTP, który przekształci się w Apache HTTP Server , najczęściej używany serwer HTTP od 1996 roku . 30 kwietnia 1993, CERN udostępnia swoje oprogramowanie internetowe do domeny publicznej w celu promowania webcastingu.
W 1994 roku , wraz z większością zespołu programistów NCSA Mosaic, została założona firma Netscape Communications Corporation . Wydany pod koniec 1994 roku Netscape Navigator w ciągu kilku miesięcy zastąpił NCSA Mosaic. W 1995 roku Microsoft próbował konkurować z siecią Microsoft Network (MSN) w Internecie i poniósł porażkę. Pod koniec 1995 roku, po wydaniu Windows 95 bez zainstalowanego fabrycznie przeglądarki internetowej Microsoft uruchomił na wojnę przeglądarki z Internet Explorer przed Netscape Navigator.
Pierwsze lata tej historii są w dużej mierze z Małej historii sieci WWW ( Krótka historia sieci WWW ).
Tworząc oprogramowanie WorldWideWeb , Tim Berners-Lee stworzył zarówno pierwszą przeglądarkę internetową, jak i pierwszy edytor stron internetowych , ponieważ chciał, aby sieć stała się medium współpracy, w którym wszyscy aktorzy konsultują się i tworzą informacje. Jednak sieć natychmiast stała się bardziej globalnym medium rozpowszechniania informacji niż współpracą.
W pierwszej połowie lat 90. nie powstała koncepcja strony internetowej u podstaw stabilnej nazwy domeny , poczynając od pierwszej strony internetowej o adresie http://nxoc01.cern.ch/hypertext/WWW/TheProject.html. Witryny były często tworzone w działach technicznych przez pracowników i studentów, a adresy URL zmieniały się wraz ze zmianą ludzi i infrastruktury. Ponadto zabrakło skutecznej wyszukiwarki . Również wiele stron było listami linków do ulubionych stron autora strony. Ta właściwość sieci będzie później wykorzystywana przez twórców Google do obliczania trafności stron, a następnie przejmowana przez farmy linków . Ale na długo wcześniej, w styczniu 1994 roku , Yahoo! jest tworzony i szybko staje się największym katalogiem internetowym . Podobnie jak twórcy Yahoo! byli studentami Uniwersytetu Stanforda . Pierwotny adres URL to http://akebono.stanford.edu/yahoo, a domena została utworzona dopiero w styczniu 1995 rokuyahoo.com .
W drugiej połowie lat 90. sieć stała się popularna i wszystkie duże firmy, organizacje, szkoły, administracje otworzyły stronę internetową. Wyszukiwarki stają się wydajne, zwłaszcza wraz z pojawieniem się Altavisty w grudniu 1995 roku , a wreszcie Google w 1998 roku. W tej fazie rozwoju mediów dominuje odgórny przepływ informacji : strona internetowa służy do rozpowszechniania informacji o jej właścicielu. Interakcje często kończą się badaniami i handlem online . Oczywiście poczta e-mail , komunikatory i fora dyskusyjne istniały dłużej niż internet, ale w większości działały z określonymi protokołami i oprogramowaniem (patrz Kategoria: Komunikatory internetowe , Kategoria: Oprogramowanie poczty e-mail , Kategoria: Klient Usenet ).
Web 2.0Wraz z nadejściem XXI wieku popularne stały się koncepcje bloga , wiki (w 2001 roku uruchomiono Wikipedię w języku angielskim) oraz sieci społecznościowych ( Myspace w 2003 roku , Facebook w 2004 roku). Do Treści generowane przez użytkowników spready (Wikipedia, YouTube w 2005 roku i Twitter w 2006 roku). Technologia Ajax (1998, teoretycznie w 2005) zaczyna być szeroko stosowana do tworzenia kompletnych aplikacji, które mieszczą się na jednej stronie internetowej ( Google Maps w 2004). Wyrażenie Web 2.0 , szeroko spopularyzowane w połowie lat 2000. , oznacza to przejście w przepływie informacji i sposobie korzystania z sieci. Sukces terminu „Web 2.0” skłonił wielu do określania go jako „Web 2.5”, 3.0 , 4.0 itd. ich wizja sieci przyszłości.
Dystrybucja ruchu w sieciWedług badania firmy Incapsula przeprowadzonego w Marzec 2013, 50% ruchu w sieci było generowane przez boty, czyli automaty. Ostatnia aktualizacja tego badania (Grudzień 2013) pokazuje, że te same maszyny stanowią obecnie prawie 61% ruchu, w szczególności wzrost ruchu w wyszukiwarkach o 55%. Operacje hakerskie stanowią około 4,5% ruchu, podczas gdy ludzie zajmują około 38,5%. Innymi słowy, niewiele ponad jedna trzecia ruchu jest generowana przez działalność człowieka. Przyczyną prawdopodobnie jest eksplozja marketingu, który sam stanowi połowę ruchu (zarówno boty, jak i ludzie).
Sieć WWW , jako zbiór zasobów hipertekstowych , może być modelowana jako graf skierowany, mający cykle z zasobami na wierzchołki i hiperłącza na łuki . Ponieważ wykres jest zorientowany, niektóre zasoby mogą stanowić zlewy lub mniej formalnie ślepe zaułki: nie ma ścieżki do reszty sieci. I odwrotnie, niektóre zasoby mogą stanowić źródła : nie ma ścieżki z reszty sieci.
Analizy wykazały, że struktura sieci odpowiada niezmiennemu modelowi sieci występującemu w większości sieci społecznościowych. Skutkuje to obecnością hubów, hubów, do których zbiegają się łącza hipertekstowe: są to najważniejsze witryny, które stanowią kręgosłup sieci.
Technicznie nic nie odróżnia World Wide Web od innych sieci wykorzystujących te same technologie. Tak więc istnieją niezliczone prywatne sieci. W praktyce, strona z popularnej stronie internetowej , takich jak katalog stron , jest uważana za część sieci. Sieć można następnie zdefiniować jako zbiór zasobów i hiperłączy, które można rekurencyjnie znaleźć na tej stronie, z wyłączeniem prywatnych źródeł i sieci.
Rekursywne indeksowanie sieci z dobrze dobranych zasobów to podstawowa metoda zaprogramowana w robotach wyszukiwarek . W 2004 roku wyszukiwarki zindeksowały około czterech miliardów zasobów.
Deep web , web lub niewidoczne, jest częścią sieci, która nie jest indeksowana i dlatego nie znalazł z ogólnych wyszukiwarek. Badanie opublikowane w 2001 r. wykazało, że niewidoczna część sieci stanowi ponad 99% sieci. Głęboka sieć zawiera następujące zasoby:
Indeksowanie rekurencyjne nie jest jedynym sposobem indeksowania sieci i mierzenia jej rozmiaru. Drugim rozwiązaniem jest pomiar infrastruktury IT podłączonej do Internetu do hostowania stron internetowych. Zamiast podążać za hiperłączami, ta metoda polega na użyciu nazw domen zarejestrowanych w systemie nazw domen i próbie połączenia się ze wszystkimi potencjalnymi serwerami sieciowymi . Jest to w szczególności metoda stosowana przez firmę Netcraft , która regularnie publikuje wyniki swoich poszukiwań, w tym pomiary popularności serwerów HTTP . Środek ten odnosi się bardziej do korzystania z technologii internetowych niż do samej sieci. W szczególności umożliwia znalezienie witryn publicznych , które nie są połączone z siecią WWW .
Witryna internetowa przesłana do intranetu jest prywatna, ponieważ użytkownicy nie mogą uzyskać dostępu do intranetu.
Ponadto, jeśli ktoś umieści witrynę internetową w Internecie bez linków z co najmniej jednej istniejącej strony sieci World Wide Web , wówczas witryna ta stanowi odosobnioną sieć. Jest praktycznie prywatny, ponieważ opinia publiczna nie może go odkryć, korzystając z hiperłączy.
Sieć nieustannie się zmienia: zasoby są tworzone, modyfikowane i usuwane. Istnieje kilka inicjatyw archiwów internetowych, których celem jest odnalezienie zawartości witryny w danym dniu. Jednym z nich jest projekt Internet Archive .
Różne rodzaje zasobów sieciowych mają dość różne zastosowania:
Dokument HTML jest głównym zasobem strony internetowej , który zawiera hiperłącza , zawiera i strukturyzuje tekst, łączy i porządkuje zasoby multimedialne . Dokument HTML zawiera tylko tekst: przeglądany tekst, tekst w języku HTML oraz wszelkie inne języki skryptów lub stylów.
Prezentacja dokumentów HTML to główna funkcjonalność przeglądarki internetowej . HTML pozostawia przeglądarce, aby jak najlepiej wykorzystać możliwości komputera do prezentacji zasobów. Zazwyczaj czcionka, długość linii tekstu, kolory itp. muszą być dostosowane do urządzenia wyjściowego ( monitora , drukarki itp.).
Elementy multimedialne są zazwyczaj pozyskiwane z zasobów niezależnych od dokumentu HTML . Dokumenty HTML zawierają hiperłącza wskazujące na zasoby multimedialne, które w związku z tym mogą być rozsiane po całym Internecie . Połączone elementy multimedialne są automatycznie przenoszone w celu prezentacji strony internetowej .
Standaryzowane jest tylko użycie obrazów i małych animacji . Obsługa dźwięku , wideo , przestrzeni trójwymiarowych czy innych elementów multimedialnych wciąż opiera się na niestandardowych technologiach. Wiele przeglądarek internetowych oferuje możliwość podłączenia oprogramowania ( wtyczek ) w celu rozszerzenia ich funkcjonalności, w szczególności obsługi niestandardowych typów mediów.
Strumienie (audio, wideo) wymagają protokołu komunikacyjnego, który działa inaczej niż HTTP . Jest to jeden z powodów, dla których tego typu zasoby często wymagają wtyczki i są słabo zintegrowane ze stronami internetowymi .
Ten rozdział dotyczy obrazków osadzonych na stronach internetowych . Użycie formatu danych JPEG jest wskazane dla obrazów naturalnych, głównie fotografii .
Użycie formatu danych PNG jest wskazane dla obrazów syntetycznych ( logo , elementy graficzne). Nadaje się również do naturalnych obrazów, ale tylko wtedy, gdy jakość ma pierwszeństwo przed czasem transferu. W przypadku małych animacji zaleca się użycie formatu danych GIF . W przypadku obrazów syntetycznych stara popularność GIF-ów często sprawia, że są one preferowane nad PNG. Jednak GIF ma kilka wad, w tym ograniczenie liczby kolorów i ogólnie niższy stopień kompresji . Ponadto kontrowersje wokół używania GIF od 1994 do 2004 roku, ponieważ Unisys zastrzegał patent obejmujący metodę kompresji. Używanie obrazów w formacie danych XBM jest przestarzałe.
Do 2000 roku oglądanie muzyki i wideo wymagało instalacji programu ad hoc ( wtyczki ) w celu rozszerzenia funkcjonalności przeglądarki internetowej. Bardzo szeroka dystrybucja wtyczki Flash Player w końcu sprawiła, że oglądanie wideo jest tak łatwe, jak przeglądanie obrazów. Wreszcie piąta wersja językowa HTML ( HTML 5 ) zintegrowała wideo.
Językiem skryptowym umożliwia napisać tekst w programie wykonywany bezpośrednio przez oprogramowanie . W kontekście sieci, skrypt jest wykonywany przez przeglądarkę internetową i programuje działania odpowiadające korzystaniu przez odwiedzającego z odwiedzanej strony internetowej . Skrypt może być osadzony w dokumencie HTML lub pochodzić z połączonego zasobu. Pierwszym językiem skryptowym w sieci był JavaScript , opracowany przez Netscape . Następnie Microsoft opracował konkurencyjny wariant pod nazwą JScript . Na koniec zaproponowano standard ECMAScript dla składni języka oraz standardy DOM dla interfejsu z dokumentami.
Z technologii o bardzo ograniczonych możliwościach działania w powijakach język JavaScript stał się zdolny do uruchamiania dowolnej aplikacji, jaką można sobie wyobrazić: edytora tekstu , gry wideo , emulator itp.
Jeszcze bardziej niż w przypadku wideo, wtyczka Adobe Flash Player stała się bardzo szeroko stosowana do dystrybucji animacji. Czasami całe witryny są tworzone we Flashu . Jednak jest w trakcie znikania, ponieważ przeglądarki chcą zakazać jego używania.
Język CSS został opracowany w celu szczegółowej obsługi prezentacji dokumentów HTML . Tekst w CSS może być osadzony w dokumencie HTML lub pochodzić z połączonych zasobów, arkuszy stylów . Ta separacja pozwala na oddzielne zarządzanie informacjami (zawartymi w dokumentach HTML) i ich prezentacją (zawartą w arkuszach stylów). Mówimy też o „oddzieleniu treści od formy”.
Zarządzanie innymi rodzajami zasobów zależy od oprogramowania zainstalowanego na hoście klienta i jego ustawień.
Gdy odpowiednie oprogramowanie jest dostępne, dokumenty i obrazy dowolnego typu są zazwyczaj prezentowane automatycznie, zgodnie z trybami (oknami, oknami dialogowymi) w zależności od przeglądarki internetowej i oprogramowania zarządzającego danym typem. Jeśli typ zasobu nie jest zarządzany, zazwyczaj można go zapisać w pliku lokalnym .
Do zarządzania zasobami różnych systemów internetowych, takich jak poczta e-mail , przeglądarki zazwyczaj używają oddzielnego oprogramowania. Jeśli żadne oprogramowanie nie zarządza typem zasobu, wskazuje to prosty komunikat o błędzie.
Sieć została zaprojektowana tak, aby była dostępna za pomocą najróżniejszego sprzętu komputerowego: stacji roboczej , terminala komputerowego w trybie tekstowym , komputera osobistego , telefonu komórkowego itp. Ta powszechność dostępu zależy przede wszystkim od powszechności protokołów internetowych . Po drugie, zależy to od elastyczności prezentacji stron internetowych , jaką oferuje HTML . Dodatkowo HTTP daje przeglądarkom możliwość negocjowania typu każdego zasobu. Wreszcie CSS umożliwia oferowanie różnych prezentacji, dobranych pod kątem ich dopasowania do używanego sprzętu.
Dlatego W3C stworzyło standardy, aby umożliwić niezależność narzędzi używanych do tworzenia treści od tych, które są używane do jej czytania. Nazywa się to interoperacyjnością .
Dostępność stron internetowych dla osób niepełnosprawnych jest również przedmiotem szczególnej uwagi jako Web Accessibility Initiative .
Technologie internetowe nie narzucają organizacji między stronami internetowymi ani a fortiori między witrynami internetowymi . Każda strona w sieci może zawierać hiperłącza do innych zasobów dostępnych w Internecie . Utworzenie hiperłącza nie wymaga absolutnie żadnych działań po stronie wskazanego zasobu. Nie ma scentralizowanego rejestru hiperłączy, stron lub witryn. Jedynym używanym rejestrem jest rejestr DNS ; jest to rozproszona baza danych, która wymienia gospodarze, pozwala nazwę domeny zawarte w niektórych hiperłączy zostać przetłumaczony na adres IP i który jest używany przez wszystkich systemów dostępu do Internetu.
Ten zdecentralizowany projekt miał sprzyjać i sprzyjał szybkiemu wzrostowi rozmiaru sieci. Przyczyniła się również do rozwoju witryn specjalizujących się w informacjach o innych witrynach: katalogach i wyszukiwarkach . Bez tych witryn znalezienie informacji w sieci byłoby niezwykle pracochłonne. Odwrotne podejście, portal internetowy , stara się skoncentrować jak najwięcej informacji i usług w jednej witrynie.
Słabością decentralizacji jest brak działań następczych w przypadku przeniesienia lub usunięcia zasobu: odsyłające do niego hiperłącza zostają zerwane . Jest to widoczne tylko po kliknięciu hiperłącza, a najczęstszym wynikiem jest komunikat o błędzie 404 .
Sieć wykorzystuje technologie internetowe , w tym TCP/IP do przesyłania danych, DNS do konwersji nazw hostów na adresy IP oraz MIME do wskazywania typu danych. Standardy kodowania znaków i formaty obrazów cyfrowych GIF i JPEG zostały opracowane niezależnie.
Trzeba było opracować trzy technologie dla sieci WWW :
Te wczesne technologie zostały ustandaryzowane, podobnie jak inne technologie internetowe : przy użyciu procesu Request for Comments . W rezultacie powstał RFC 1738 dla adresów URL, RFC 1866 dla HTML 2.0 i RFC 1945 dla HTTP / 1.0.
World Wide Web Consortium (W3C) została założona w 1994 roku w celu rozwijania i promowania nowych standardów internetowych. Jej rolą jest w szczególności zapewnienie uniwersalności nowych technologii. Technologie zostały również opracowane przez firmy prywatne.
Główne obecne standardy to:
Oprócz protokołów komunikacyjnych i formatów danych używanych w sieci Web, w celu umożliwienia działania serwerów HTTP (lub serwerów sieci Web) zaimplementowano kilka technik specyficznych dla sieci . Ponieważ techniki te nie mają zastosowania do oprogramowania klienckiego sieci Web, nie są one standaryzowane przez konsorcjum World Wide Web Consortium .
Serwer HTTPSerwer HTTP odpowiada za zapewnienie komunikacji między stacją roboczą klienta a zasobami lokacji. Musi być w stanie skierować na serwerze, zgodnie z żądaniem HTTP otrzymanym od klienta, do odpowiednich zasobów. Mogą to być zasoby statyczne znajdujące się w systemie plików serwera lub zawartość dynamiczna na różne sposoby. Udostępnianie stron dynamicznych jest delegowane do samodzielnych aplikacji na serwerze. Musi być również w stanie obsłużyć błędy, jeśli zasoby nie zostaną odnalezione lub jeśli wystąpi błąd w produkcji zasobu, poprzez zwrócenie odpowiedniego komunikatu do klienta. Pierwszym serwerem HTTP był CERN httpd i szybko wyszedł z użycia. W 2014 roku głównymi używanymi serwerami WWW były Apache HTTP Server , od lat dominujący serwer na rynku, Nginx używany w witrynach o większej liczbie odbiorców, ale także Microsoft IIS , Google Web Server i Lighttpd .
Common Gateway Interface (CGI) jest standardem inter- proces protokół komunikacyjny między serwerem HTTP i aplikacjami zewnętrznymi również znajduje się na stronie serwera. Ten standard jest zarządzany przez IETF.
Standard FastCGI dzisiaj Zastępuje głównie CGI. Pozwala to na efektywniejsze oddzielenie serwera HTTP od aplikacji oraz lepszą kontrolę liczby wystąpień dynamicznych aplikacji po stronie serwera.
Niektóre języki powszechnie używane w usługach HTTP, takie jak PHP , Java i Ruby , również wykorzystują specjalne technologie do komunikacji z serwerem.
W przypadku PHP, mod php dla Apache był często używany zamiast CGI; skłania obecnie być zastąpione przez protokół FastCGI, kilka lat temu , poprzez mod fastcgi i dziś więcej poprzez mod fcgid lub poprzez PHP-FPM .
W Javie projekt Apache Jakarta połączył kilka narzędzi. W tej architekturze moduł Apache mod jk umożliwia połączenie z serwerem aplikacji Tomcat , na którym działają Java Servlet i JavaServer Pages . W Ruby, Phusion Passenger , praca z Apache i Nginx jest jednym z głównych narzędzi komunikacji pomiędzy usługą HTTP a aplikacjami.
Dynamiczne języki aplikacji po stronie serweraW praktyce CGI i fastCGI pozwalają na użycie dowolnego języka, jednak istnieją pewne języki skryptowe, które stały się najbardziej popularne, wykorzystując CGI lub inną technikę do komunikacji z serwerem.
Język programowania PHP (PHP: Hypertext Preprocessor) został opracowany do generowania stron internetowych. Cieszy się silną integracją z serwerem HTTP i językami HTML. Dziś jest najczęściej używanym językiem na stronie serwera z prawie 70% miejsc w 2010 r ASP (Active Server Pages) Silnik został opracowany przez firmę Microsoft do interpretacji języka skryptowego w IIS (Internet Information Services) serwera. , To jest drugim najczęściej używanym językiem z prawie 30% witryn w 2010 roku.
Język Java , którego strony obsługuje Apache Tomcat, jest wówczas szeroko stosowany, szczególnie w sektorze bankowym, tendencja polega na dołączaniu języka Ruby za pośrednictwem modułu jRuby . Java była używana na niecałym 1% serwerów w 2010 roku. Język Ruby , głównie z serwerem aplikacji Ruby on Rails z 0,5% w 2010 roku. W obliczu rosnącej popularności JavaScript po stronie klienta , powiązanego z Ajax, a następnie HTML5 , po stronie serwera, a następnie platforma oprogramowania Node.js , dedykowana do aplikacji serwerowych.
We wczesnych dniach CGI, Perl był powszechnie używany po stronie serwera, ze względu na jego powiązania i dominację wśród administratorów systemów i sieci.
Baza danychBazy danych są również ważną częścią generowania witryn z dynamiczną zawartością.
Główne typy baz danych to: