World Wide Web er et distribueret system , der giver adgang til indbyrdes forbundne dokumenter placeret på forskellige computere , der er forbundet til internettet . For at referere til World Wide Web bruges ordet web ( engelsk web "web") og forkortelsen WWW også .
World Wide Web består af hundredvis af millioner af webservere . De fleste af ressourcerne på World Wide Web er baseret på hypertekstteknologi . Hypertekstdokumenter, der hostes på World Wide Web, kaldes websider . Flere websider, der deler et fælles tema eller design , samt links til hinanden, og som normalt er placeret på den samme webserver , kaldes et websted . For at downloade og se websider bruges specielle programmer - browsere ( engelsk browser ).
World Wide Web forårsagede en reel revolution inden for informationsteknologi og gav en stærk impuls til udviklingen af internettet . I daglig tale , når man taler om internettet, mener de ofte World Wide Web. Det er dog vigtigt at forstå, at disse ikke er ens.
World Wide Web består af millioner af internet - webservere placeret rundt om i verden. En webserver er et computerprogram, der kører på en computer , der er tilsluttet et netværk og bruger HTTP-protokollen til at overføre data. I sin enkleste form modtager et sådant program en HTTP-anmodning om en specifik ressource over netværket, finder den tilsvarende fil på den lokale harddisk og sender den over netværket til den anmodende computer. Mere sofistikerede webservere er i stand til at generere dokumenter dynamisk som svar på en HTTP-anmodning ved hjælp af skabeloner og scripts .
For at se de oplysninger, der modtages fra webserveren, bruges et særligt program på klientcomputeren - en webbrowser . En webbrowsers hovedfunktion er at vise hypertekst . World Wide Web er uløseligt forbundet med begreberne hypertekst og hyperlinks . Meget af informationen på nettet er hypertekst.
For at oprette, gemme og vise hypertekst på World Wide Web, bruges HTML -sproget ( engelsk HyperText Markup Language "hypertext markup language") traditionelt. Arbejdet med at skabe (markere) hypertekstdokumenter kaldes layout , det udføres af en webmaster eller en separat opmærkningsspecialist - en layoutdesigner. Efter HTML-markering gemmes det resulterende dokument i en fil , og sådanne HTML - filer er hovedtypen af World Wide Web-ressourcer. Når en HTML-fil er gjort tilgængelig for en webserver, omtales den som en "webside". Et sæt websider danner et websted .
Hypertekstsider på World Wide Web indeholder hyperlinks. Hyperlinks hjælper brugere af World Wide Web med nemt at navigere mellem ressourcer (filer), uanset om ressourcerne er placeret på den lokale computer eller på en fjernserver. Uniform Resource Locators bruges til at lokalisere ressourcer på World Wide Web . For eksempel ser den fulde URL på hovedsiden af den russiske sektion af Wikipedia sådan ud: . Sådanne URL-locatorer kombinerer URI -identifikationsteknologien ( Uniform Resource Identifier ) og DNS ( Domain Name System ) . Domænenavnet (i dette tilfælde ) som en del af URL'en angiver en computer (mere præcist, en af dens netværksgrænseflader ), der udfører koden for den ønskede webserver. URL'en på den aktuelle side kan normalt ses i browserens adresselinje, selvom mange moderne browsere foretrækker kun at vise domænenavnet på det aktuelle websted som standard. http://ru.wikipedia.org/wiki/Заглавная_страница ru.wikipedia.org
For at forbedre den visuelle opfattelse af nettet er CSS -teknologi blevet meget brugt , hvilket giver dig mulighed for at indstille ensartede designstile for mange websider. En anden nyskabelse, der er værd at være opmærksom på, er ressourcebetegnelsessystemet URN ( Uniform Resource Name ) .
Et populært udviklingskoncept for World Wide Web er skabelsen af Semantic Web . The Semantic Web er en tilføjelse til det eksisterende World Wide Web, som er designet til at gøre de oplysninger, der er lagt på netværket, mere forståelige for computere. Det er også konceptet med et netværk, hvor hver ressource på menneskeligt sprog vil blive forsynet med en beskrivelse, der er forståelig for en computer. Det semantiske web åbner adgang til klart struktureret information for enhver applikation, uanset platform og uanset programmeringssprog . Programmer vil selv kunne finde de nødvendige ressourcer, behandle information, klassificere data, identificere logiske sammenhænge, drage konklusioner og endda træffe beslutninger baseret på disse konklusioner. Hvis det er bredt vedtaget og implementeret godt, har Semantic Web potentialet til at revolutionere internettet. For at skabe en computervenlig ressourcebeskrivelse bruger Semantic Web formatet RDF ( Resource Description Framework ) , som er baseret på XML - syntaks og bruger URI'er til at udpege ressourcer. Nyt på dette område: RDFS ( RDF Schema ) og SPARQL ( Protocol And RDF Query Language ) (udtales "sparkle"), et nyt forespørgselssprog for hurtig adgang til RDF-data .
Tim Berners-Lee og i mindre grad Robert Cayo betragtes som opfinderne af World Wide Web . Tim Berners-Lee er forfatter til HTTP , URI / URL og HTML -teknologier . I 1980 arbejdede han for Det Europæiske Råd for Nuklear Forskning ( fransk conseil européen pour la recherche nucléaire , CERN ) som softwarekonsulent. Det var der, i Genève ( Schweiz ), at han skrev Inquire-programmet til eget brug ( eng . Inquire , kan løst oversættes som "Interrogator"), som brugte tilfældige associationer til at lagre data og lagde det konceptuelle grundlag for verden Wide Web.
I 1989, mens han arbejdede hos CERN på organisationens intranet, foreslog Tim Berners-Lee det globale hypertekstprojekt nu kendt som World Wide Web. Projektet involverede offentliggørelse af hypertekstdokumenter forbundet med hyperlinks , hvilket ville lette søgningen og konsolideringen af information for CERN-videnskabsmænd. For at implementere projektet opfandt Tim Berners-Lee (sammen med sine assistenter) URI'er , HTTP-protokollen og HTML -sproget . Det er teknologier, uden hvilke det ikke længere er muligt at forestille sig det moderne internet . Mellem 1991 og 1993 forbedrede Berners-Lee de tekniske specifikationer for disse standarder og udgav dem. Men ikke desto mindre bør officielt fødselsåret for World Wide Web betragtes som 1989 .
Som en del af projektet skrev Berners-Lee verdens første webserver kaldet " httpd " og verdens første hypertekst webbrowser kaldet "WorldWideWeb". Denne browser var også en WYSIWYG - editor (forkortelse for what you see is what you get - what you see is what you get), dens udvikling blev startet i oktober 1990 og afsluttet i december samme år. Programmet fungerede i NeXTStep - miljøet og begyndte at blive spredt over internettet i sommeren 1991 .
Mike Sendall køber en NeXT-kubecomputer på dette tidspunkt for at forstå, hvilke funktioner dens arkitektur er, og giver den derefter til Tim [Berners-Lee]. Takket være det sofistikerede i NeXT-kube-softwaresystemet skrev Tim en prototype, der illustrerede hovedpunkterne i projektet på få måneder. Det var et imponerende resultat: Prototypen tilbød brugere blandt andet avancerede funktioner såsom WYSIWYG-browsing/forfatter!... . Det eneste, jeg insisterede på, var, at navnet ikke igen skulle uddrages fra den samme græske mytologi. Tim foreslog "world wide web". Jeg kunne straks godt lide alt ved denne titel, kun det er svært at udtale på fransk.
— Robert Cailliau, 2. november 1995 [1]Verdens første hjemmeside blev hostet af Berners-Lee den 6. august 1991 på den første webserver , tilgængelig på http://info.cern.ch/( arkiveret her ). Ressourcen definerede konceptet " World Wide Web ", indeholdt instruktioner til installation af en webserver, brug af en browser osv. Dette websted var også verdens første internetmappe , fordi Tim Berners-Lee senere placerede og vedligeholdt en liste over links til andre steder der.
Det første billede, der dukkede op på World Wide Web, var af parodifilk- bandet Les Horribles Cernettes [2] . Tim Berners-Lee bad kapelmesteren om scannede billeder efter CERN's hardroniske festival.
Alligevel blev nettets teoretiske grundlag lagt meget tidligere end Berners-Lee. Tilbage i 1945 udviklede Vannaver Bush konceptet Memex - mekaniske hjælpemidler til at "udvide menneskelig hukommelse ". Memex er en enhed, hvor en person gemmer alle sine bøger og optegnelser (og ideelt set al sin viden, der kan beskrives formelt), og som giver den nødvendige information med tilstrækkelig hurtighed og fleksibilitet. Det er en forlængelse og tilføjelse til menneskets hukommelse. Bush forudsagde også en omfattende indeksering af tekster og multimedieressourcer med evnen til hurtigt at finde den nødvendige information. Det næste vigtige skridt hen imod World Wide Web var skabelsen af hypertekst (et udtryk opfundet af Ted Nelson i 1965 ).
Siden 1994 har World Wide Web Consortium (W3C), grundlagt og stadig ledet af Tim Berners-Lee, overtaget hovedarbejdet med udviklingen af World Wide Web . Dette konsortium er en organisation, der udvikler og implementerer teknologiske standarder for internettet og World Wide Web. Mission for W3C: "Slip det fulde potentiale af World Wide Web løs ved at skabe protokoller og principper, der garanterer den langsigtede udvikling af nettet." Konsortiets to andre store mål er at sikre den fuldstændige "internationalisering af nettet" og at gøre nettet tilgængeligt for mennesker med handicap.
W3C udvikler fælles principper og standarder for internettet (kaldet "recommendations", eng. W3C recommendations ), som derefter implementeres af software- og hardwareproducenter. På denne måde opnås kompatibilitet mellem softwareprodukter og udstyr fra forskellige virksomheder, hvilket gør World Wide Web mere perfekt, alsidigt og bekvemt. Alle anbefalinger fra World Wide Web Consortium er åbne, det vil sige, at de ikke er beskyttet af patenter og kan implementeres af alle uden økonomiske bidrag til konsortiet.
I øjeblikket er der to retninger i udviklingen af World Wide Web: det semantiske web og det sociale web .
Inden for rammerne af den anden retning bruges udviklinger, der er en del af Semantic Web, aktivt som værktøjer ( RSS og andre webfeedformater , OPML , XHTML mikroformater ). Delvist semantiserede sektioner af Wikipedia-kategoritræet hjælper brugerne med at navigere bevidst i informationsrummet, dog giver meget milde krav til underkategorier ikke anledning til at håbe på udvidelsen af sådanne sektioner. I denne forbindelse kan forsøg på at udarbejde vidensatlas være af interesse.
Der er også et populært koncept Web 2.0 , der opsummerer flere udviklingsretninger af World Wide Web på én gang.
Der er også et projekt for at integrere World Wide Web baseret på Web3 blockchain [3] , som omfatter begreber som decentralisering og en token økonomi [4] [5] . Nogle eksperter og journalister kontrasterer det med Web 2.0 , hvor data og indhold efter deres mening er centraliseret i en lille gruppe virksomheder, nogle gange kaldet GAFAM ( Google , Amazon , Facebook , Apple , Microsoft ) [6] . Udtrykket blev opfundet i 2014 af Ethereums medstifter Gavin Wood , og i 2021 blev cryptocurrency-entusiaster, store teknologivirksomheder og venturekapitalfirmaer [6] [7] interesserede i ideen .
Oplysningerne præsenteret på nettet kan tilgås:
Måder at aktivt vise information på World Wide Web omfatter:
Denne opdeling er meget betinget. Så f.eks. kan en blog eller en gæstebog betragtes som et særligt tilfælde af et forum, hvilket igen er et særligt tilfælde af et indholdsstyringssystem. Normalt kommer forskellen til udtryk i formålet, tilgangen og placeringen af et bestemt produkt.
En del af informationen fra websteder kan også tilgås via tale. Indien er allerede begyndt [8] at teste et system, der gør tekstindholdet på sider tilgængeligt selv for folk, der ikke kan læse og skrive.
For cyberkriminelle er World Wide Web blevet en vigtig måde for malware at sprede sig på . Derudover omfatter begrebet netværkskriminalitet identitetstyveri , bedrageri , spionage og ulovlig indsamling af oplysninger om bestemte emner eller genstande [9] . Websårbarheder er efter nogle konti nu større end enhver traditionel manifestation af computersikkerhedsproblemer ; Google vurderer , at cirka hver tiende side på World Wide Web kan indeholde ondsindet kode [10] [11] [12] . Ifølge Sophos , en britisk producent af antivirusløsninger , udføres de fleste cyberangreb på nettet af legitime ressourcer, der hovedsageligt er placeret i USA , Kina og Rusland [13] . Den mest almindelige type af sådanne angreb, ifølge oplysninger fra samme virksomhed, er SQL-injektion - ondsindet indtastning af direkte databaseforespørgsler i tekstfelter på ressourcesider, hvilket med et utilstrækkeligt sikkerhedsniveau kan føre til offentliggørelse af indholdet af databasen [14] . En anden almindelig HTML- og Unique Resource Identifier -trussel mod World Wide Web-websteder er cross-site scripting (XSS), som er muliggjort med introduktionen af JavaScript -teknologi og tager fart med udviklingen af Web 2.0 og Ajax - nye webdesignstandarder opmuntrede brugen af interaktive scenarier [15] [16] [17] . Ifølge estimater fra 2008 var op til 70 % af alle websteder i verden sårbare over for XSS-angreb mod deres brugere [18] .
De foreslåede løsninger på de respektive problemer varierer betydeligt op til fuldstændig modsætning til hinanden. Større udbydere af sikkerhedsløsninger som McAfee , Avira , Avast og andre udvikler produkter til at evaluere informationssystemer for deres overensstemmelse med visse krav, andre markedsaktører (for eksempel Finjan ) anbefaler at udføre en aktiv undersøgelse af programkoden og generelt alle indhold i realtid, uanset fra datakilden [9] [19] . Der er også meninger om, at virksomheder bør se sikkerhed som en forretningsmulighed snarere end en omkostning; for at gøre dette skal de hundredvis af informationssikkerhedsvirksomheder i dag erstattes af en lille gruppe af organisationer, der ville håndhæve infrastrukturpolitikken med konstant og omsiggribende forvaltning af digitale rettigheder [20] [21] .
Hver gang en brugers computer anmoder om en webside fra serveren , bestemmer serveren og logger normalt den IP-adresse , som anmodningen kom fra. Ligeledes registrerer de fleste internetbrowsere de besøgte sider, som derefter kan ses i browserens historik, og cachelagrer det downloadede indhold til eventuel genbrug. Hvis en krypteret HTTPS -forbindelse ikke bruges, når der interageres med serveren , sendes anmodninger og svar på dem over internettet i klartekst og kan læses, skrives og ses på mellemliggende netværksknuder .
Når en webside anmoder, og brugeren giver en vis mængde personlige oplysninger , såsom for- og efternavn eller ægte adresse eller e-mailadresse, kan datastrømmen deanonymiseres og knyttes til en bestemt person. Hvis et websted bruger cookies , brugergodkendelse eller andre teknologier til sporing af besøgende, kan der også etableres en relation mellem tidligere og efterfølgende besøg. Således har en organisation, der opererer på World Wide Web, mulighed for at oprette og opdatere profilen for en specifik klient ved hjælp af dens websted (eller websteder). En sådan profil kan for eksempel omfatte oplysninger om fritids- og underholdningspræferencer, forbrugerinteresser, erhverv og andre demografiske oplysninger . Sådanne profiler er af væsentlig interesse for marketingfolk , ansatte i reklamebureauer og andre fagfolk af denne art. Afhængigt af servicevilkårene for specifikke tjenester og lokale love, kan sådanne profiler sælges eller overføres til tredjeparter uden brugerens viden.
Sociale netværk bidrager også til videregivelsen af information , og tilbyder deltagerne selvstændigt at angive en vis mængde personlige data om sig selv. Skødesløs håndtering af sådanne ressourcers muligheder kan føre til offentlig adgang til information, som brugeren foretrækker at skjule; blandt andet kan sådanne oplysninger blive i fokus for hooligans eller i øvrigt cyberkriminelle. Moderne sociale netværk giver deres medlemmer en ret bred vifte af profilindstillinger for privatliv, men disse indstillinger kan være unødvendigt komplicerede - især for uerfarne brugere [22] .
Mellem 2005 og 2010 blev antallet af webbrugere fordoblet for at nå to milliarder-grænsen [23] . Ifølge tidlige undersøgelser i 1998 og 1999 blev de fleste eksisterende websteder ikke korrekt indekseret af søgemaskiner, og selve nettet var større end forventet [24] [25] . Fra 2001 er der allerede oprettet mere end 550 millioner webdokumenter, hvoraf de fleste dog var inden for det usynlige netværk [26] . Fra 2002 blev der oprettet mere end 2 milliarder websider [27] , 56,4 % af alt internetindhold var på engelsk , efterfulgt af tysk (7,7 %), fransk (5,6 %) og japansk (4,9 %). Ifølge forskning udført i slutningen af januar 2005 blev mere end 11,5 milliarder websider identificeret på 75 forskellige sprog og indekseret på det åbne web [28] . Og fra marts 2009 steg antallet af sider til 25,21 milliarder [29] . Den 25. juli 2008 annoncerede Googles softwareingeniører Jesse Alpert og Nissan Hiai, at Googles søgemaskine havde fundet mere end en milliard unikke URL'er [ 30] .
Ordbøger og encyklopædier | ||||
---|---|---|---|---|
|
Web og hjemmesider | |
---|---|
globalt | |
Lokalt | |
Typer af websteder og tjenester |
|
Oprettelse og vedligeholdelse | |
Typer af layout, sider, websteder | |
Teknisk | |
Markedsføring | |
Samfund og kultur |
semantisk web | |
---|---|
Grundlæggende | |
Underafsnit |
|
Ansøgninger |
|
relaterede emner | |
Standarder |
|
browsere (før 1996) | Tidlige|
---|---|
1991 | World Wide Web (Nexus) |
1992 | |
1993 |
|
1994 |
|
1995 |
|
1996 |
|
se også |