Søgesystem

Søgemaskine ( eng.  søgemaskine ) - algoritmer og et sæt computerprogrammer, der implementerer dem (i bred forstand af begrebet, herunder analoge systemer til automatiseret informationsbehandling af første generation ), som giver brugeren mulighed for hurtigt at få adgang den information han har brug for ved at søge i en stor samling af tilgængelige data [1] . En af de mest kendte anvendelser af søgemaskiner er webtjenester til søgning af tekst- eller grafisk information på World Wide Web . Der er også systemer, der er i stand til at søge efter filerFTP- servere, varer i onlinebutikker , information i Usenet-nyhedsgrupper .

For at søge efter information ved hjælp af en søgemaskine, formulerer brugeren en søgeforespørgsel [2] . Søgemaskinens opgave er på brugerens anmodning at finde dokumenter, der indeholder enten de angivne søgeord eller ord, der på en eller anden måde er relateret til søgeordene [3] . På den måde genererer søgemaskinen en søgeresultatside . Sådanne søgeresultater kan indeholde forskellige typer resultater, for eksempel: websider , billeder , lydfiler . Nogle søgemaskiner henter også information fra relevante databaser og ressourcemapper på internettet . For at finde de oplysninger, du har brug for, er det mest bekvemt at bruge moderne søgemaskiner, der giver dig mulighed for hurtigt at finde de nødvendige oplysninger og sikre nøjagtigheden og fuldstændigheden af ​​søgningen. Når du arbejder med disse maskiner, er det nok at angive nøgleord, der mest præcist afspejler den information, du leder efter, eller at lave en mere kompleks forespørgsel på nøgleord for at forfine søgeområdet. Når du har indtastet en søgeforespørgsel, vil du modtage en liste over links til dokumenter på internettet, almindeligvis omtalt som websider eller blot sider, der indeholder de angivne søgeord. Normalt er links suppleret med fragmenter af tekst fra det fundne dokument, som ofte er med til umiddelbart at bestemme emnet for den fundne side. Ved at klikke på linket kan du gå til det valgte dokument.

Søgemaskinen er bedre, jo flere dokumenter, der er relevante for brugerens forespørgsel, vil den returnere. Søgeresultater kan blive mindre relevante på grund af de særlige kendetegn ved algoritmerne eller på grund af den menneskelige faktor . Fra 2020 er den mest populære søgemaskine i verden og især i Rusland Google. .

Ifølge søge- og vedligeholdelsesmetoderne opdeles fire typer søgemaskiner: systemer, der bruger søgerobotter , menneskedrevne systemer, hybridsystemer og metasystemer . Arkitekturen af ​​en søgemaskine omfatter typisk:

Historie

Kronologi
År System Begivenhed
1993 W3 Katalog lancering
Aliweb lancering
JumpStation lancering
1994 WebCrawler lancering
infoseek lancering
Lycos lancering
1995 AltaVista lancering
Daum Grundlag
Åbn _ lancering
Magellan lancering
Ophidse lancering
SAPO lancering
Yahoo! lancering
1996 Dogpile lancering
Inktomi Grundlag
Rambler Grundlag
HotBot Grundlag
Spørg Jeeves Grundlag
1997 Nordlys lancering
Yandex lancering
1998 Google lancering
1999 AlltheWeb lancering
GenieKnows Grundlag
Naver lancering
Teoma Grundlag
Vivisimo Grundlag
2000 Baidu Grundlag
Exalead Grundlag
2003 info.com lancering
2004 Yahoo! Søg Endelig lancering
A9.com lancering
sogou lancering
2005 MSN-søgning Endelig lancering
Ask.com lancering
Nigma lancering
GoodSearch lancering
SearchMe Grundlag
2006 wikiseek Grundlag
Quaero Grundlag
Live søgning lancering
ChaCha Start ( beta )
Guruji.com Start ( beta )
2007 wikiseek lancering
Sproose lancering
Wikia-søgning lancering
blackle.com lancering
2008 DuckDuckGo lancering
Tooby lancering
Picollator lancering
Viewzi lancering
Cuil lancering
Boogami lancering
LeapFish Start ( beta )
forestle lancering
VADLO lancering
powerset lancering
2009 bing lancering
KAZ.KZ lancering
Yebol Start ( beta )
Mugurdy lukning
spejder lancering
2010 Cuil lukning
Blekko Start ( beta )
Viewzi lukning
2012 WAZZUB lancering
2014 Satellit Start ( beta )

Tidligt i udviklingen af ​​internettet vedligeholdt Tim Berners-Lee en liste over webservere, der var lagt ud på CERN -webstedet [4] . Der var flere og flere websteder, og det blev mere og mere vanskeligt at vedligeholde en sådan liste manuelt. NCSA - webstedet havde en dedikeret "Hvad er nyt!"-sektion. ( Engelsk  Hvad er nyt! ) [5] , hvor links til nye sider blev offentliggjort.

Det første computerprogram til at søge på internettet var programmet Archie ( eng.  archie  - et arkiv uden bogstavet "c"). Det blev skabt i 1990 af Alan Emtage, Bill Heelan og J. Peter Deutsch, datalogistuderende ved McGill University i Montreal . Programmet downloadede lister over alle filer fra alle tilgængelige anonyme FTP - servere og byggede en database, der kunne søges efter filnavne. Archies program indekserede dog ikke indholdet af disse filer, da mængden af ​​data var så lille, at alt nemt kunne findes i hånden.

Udviklingen og formidlingen af ​​Gopher -netværksprotokollen , opfundet i 1991 af Mark McCahill ved University of Minnesota , har ført til oprettelsen af ​​to nye søgeprogrammer, Veronica og Jughead . Ligesom Archie slog de filnavne og overskrifter op, der var gemt i Gophers indekssystemer. Veronica ( engelsk:  Very Easy Rodent-Oriented Net-wide Index to Computerized Archives ) tillod søgeordssøgninger i de fleste Gopher-menutitler på tværs af alle Gopher-lister. Jughead-programmet ( Jonzy  's Universal Gopher Hierarchy Excavation And Display ) hentede menuoplysninger fra visse Gopher-servere. Selvom navnet på søgemaskinen Archie intet havde at gøre med Archie -tegneserierne , er Veronica og Jughead ikke desto mindre karakterer i disse tegneserier.

I sommeren 1993 var der endnu ikke et eneste system til at søge på nettet, selvom adskillige specialiserede mapper blev vedligeholdt manuelt. Oscar Nierstrasz ved universitetet i Genève skrev en række Perl -manuskripter , der med jævne mellemrum kopierede disse sider og omskrev dem til et standardformat. Dette blev grundlaget for W3Catalog , nettets første primitive søgemaskine, lanceret den 2. september 1993 [6] .

Sandsynligvis den første webcrawler skrevet i Perl var " World Wide Web Wanderer "-bot af Matthew Gray ved MIT i juni 1993. Denne robot oprettede søgeindekset " Wandex ". Formålet med Wanderer-robotten var at måle størrelsen af ​​World Wide Web og finde alle websider, der indeholdt ordene fra forespørgslen. I 1993 dukkede den anden søgemaskine " Aliweb " op. Aliweb brugte ikke en crawler , men ventede i stedet på meddelelser fra webstedsadministratorer om tilstedeværelsen af ​​en indeksfil i et bestemt format på deres websteder.

JumpStation , [7] oprettet i december 1993 af Jonathan Fletcher søgte og indekserede websider ved hjælp af en crawler og brugte en webformular som en grænseflade til at formulere søgeforespørgsler. Det var det første internetsøgeværktøj, der kombinerede de tre væsentlige funktioner i en søgemaskine (bekræftelse, indeksering og faktisk søgning). På grund af datidens begrænsede computerressourcer var indeksering og derfor søgning begrænset til kun titlerne og titlerne på de websider, der blev fundet af crawleren.

Den første fuldtekstindekseringsressource ved hjælp af en robot ("craweler-baseret") søgemaskine var "WebCrawler" -systemet , lanceret i 1994. I modsætning til sine forgængere tillod det brugere at søge efter et hvilket som helst ord på enhver webside, hvilket siden er blevet standarden for de fleste søgemaskiner. Derudover var det den første søgemaskine, der blev brugt meget. I 1994 blev " Lycos "-systemet lanceret, udviklet på Carnegie Mellon University og blev en seriøs kommerciel virksomhed.

Mange andre konkurrerende søgemaskiner dukkede snart op, såsom: "Magellan" , " Excite ", "Infoseek" , "Inktomi" , "Northern Light" og " AltaVista ". På en måde konkurrerede de med populære online telefonbøger såsom Yahoo! ". Men mappernes søgemuligheder var begrænset til at søge gennem selve mapperne og ikke gennem teksterne på websider. Senere mapper blev slået sammen eller forsynet med søgerobotter for at forbedre søgningen.

I 1996 ønskede Netscape at lave en eksklusiv aftale med en af ​​søgemaskinerne, hvilket gjorde den til standardsøgemaskinen på Netscapes webbrowser . Dette skabte så stor interesse, at Netscape underskrev en kontrakt med fem af de største søgemaskiner (Yahoo!, Magellan, Lycos, Infoseek og Excite) på én gang. For 5 millioner USD om året blev de tilbudt på skift på Netscapes søgeside [8] [9] .

Søgemaskiner deltog i " Dot-com Bubble " i slutningen af ​​1990'erne [10] . Adskillige virksomheder kom ind på markedet på spektakulær vis og genererede rekordoverskud under deres børsnoteringer . Nogle har bevæget sig væk fra det offentlige søgemaskinemarked for kun at arbejde med erhvervssektoren, såsom Northern Light .

Google tog ideen om at sælge søgeord op i 1998, da det var en lille virksomhed, der kørte en søgemaskine på goto.com . Dette skridt markerede et skift for søgemaskiner fra at konkurrere med hinanden til en af ​​de mest profitable forretningsforetagender på internettet [11] . Søgemaskiner begyndte at sælge de første pladser i søgeresultaterne til individuelle virksomheder.

Google-søgemaskinen har været i en fremtrædende position siden begyndelsen af ​​2000'erne [12] . Virksomheden har opnået en høj placering på grund af gode søgeresultater ved brug af PageRank-algoritmen . Algoritmen blev præsenteret for offentligheden i artiklen "The Anatomy of Search Engine" skrevet af Sergey Brin og Larry Page, grundlæggerne af Google [13] . Denne iterative algoritme rangerer websider baseret på et skøn over antallet af hyperlinks til en webside, forudsat at "gode" og "vigtige" sider får flere links end andre. Googles grænseflade er designet i en spartansk stil, hvor der ikke er noget overflødigt, i modsætning til mange af sine konkurrenter, som byggede søgemaskinen ind i en webportal . Google-søgemaskinen er blevet så populær, at der er dukket efterlignere op, såsom Mystery Seeker (hemmelig søgemaskine).

I 2000 Yahoo! udført søgninger baseret på Inktomi-systemet. Yahoo! købte Inktomi i 2002 og købte Overture i 2003, som ejede AlltheWeb og AltaVista Så Yahoo! arbejdet med udgangspunkt i Googles søgemaskine frem til 2004, indtil han til sidst lancerede sin egen søgemaskine baseret på alle tidligere købte teknologier.

Microsoft lancerede først Microsoft Network Search (MSN Search) i efteråret 1998 ved hjælp af søgeresultater fra Inktomi. Meget snart, i begyndelsen af ​​1999, begyndte siden at vise Looksmart resultater blandet med Inktomi-resultater. I en kort periode (i 1999) brugte MSN-søgning søgeresultater fra AltaVista. I 2004 begyndte Microsoft overgangen til sin egen søgeteknologi ved hjælp af sin egen søgerobot - msnbot . Efter rebranding af Microsoft blev Bing -søgemaskinen lanceret den 1. juni 2009 . 29. juli 2009 Yahoo! og Microsoft underskrev en aftale, hvorefter Yahoo! Søgning blev drevet af Microsoft Bing-teknologi. Fra 2015 var alliancen mellem Bing og Yahoo! gav den første rigtige frugt. Nu har Bing 20,1% af markedet, og Yahoo! 12,7%, hvilket i alt fylder 32,60% af det samlede søgemaskinemarked i USA ifølge data fra forskellige kilder .

Søg efter information på russisk

I 1996 blev en søgning implementeret under hensyntagen til russisk morfologi på Altavista-søgemaskinen, og de originale russiske søgemaskiner Rambler og Aport blev lanceret . Den 23. september 1997 blev Yandex -søgemaskinen åbnet . Den 22. maj 2014 blev den nationale søgemaskine Sputnik åbnet af Rostelecom , som på tidspunktet for 2015 er i beta-testning. Den 22. april 2015 blev en ny Sputnik-tjeneste lanceret. Børn specielt til børn med øget sikkerhed.

Metoder til klyngeanalyse og metadatasøgning har vundet stor popularitet . Af de internationale maskiner af denne art Vivisimo 's Clusty den mest berømte . I 2005, med støtte fra Moscow State University , blev Nigma -søgemaskinen lanceret i Rusland , som understøtter automatisk klyngedannelse . I 2006 åbnede den russiske metamaskine Quintura , der tilbyder visuel clustering i form af en tag-sky . Nigma eksperimenterede også [14] med visuel clustering.

Sådan fungerer en søgemaskine

Søgemaskinens hovedkomponenter: søgerobot , indekser , søgemaskine [15] .

Som regel fungerer systemer i etaper. Først får crawleren indholdet, derefter genererer indekseren et søgbart indeks, og til sidst giver crawleren funktionaliteten til at søge i de indekserede data. For at opdatere søgemaskinen gentages denne indekseringscyklus [15] .

Søgemaskiner fungerer ved at gemme oplysninger om mange websider, som de får fra HTML - sider. En søgerobot eller "crawler" ( eng.  Crawler ) er et program, der automatisk følger alle de links, der findes på siden, og fremhæver dem. Webcrawleren, baseret på links eller baseret på en foruddefineret liste over adresser, søger efter nye dokumenter, som endnu ikke er kendt af søgemaskinen. Ejeren af ​​webstedet kan ekskludere visse sider ved hjælp af robots.txt , som kan bruges til at forhindre indeksering af filer, sider eller mapper på webstedet.

Søgemaskinen analyserer indholdet af hver side for yderligere indeksering. Ord kan udtrækkes fra titler, sidetekst eller specielle felter - metatags . En indeksering er et modul, der analyserer en side, efter at den er opdelt i dele, ved hjælp af dens egne leksikalske og morfologiske algoritmer. Alle elementer på en webside er isoleret og analyseret separat. Websidedata gemmes i en indeksdatabase til brug i efterfølgende anmodninger. Indekset giver dig mulighed for hurtigt at finde information efter anmodning fra brugeren [16] .

En række søgemaskiner, som Google, gemmer hele eller dele af den oprindelige side, den såkaldte cache , samt diverse informationer om websiden. Andre systemer, som AltaVista, gemmer hvert ord på hver side, der findes. Brug af cachen hjælper med at fremskynde udtrækningen af ​​information fra allerede besøgte sider [16] . Cachelagrede sider indeholder altid den tekst, som brugeren har angivet i søgeforespørgslen. Dette kan være nyttigt, når websiden er blevet opdateret, det vil sige, at den ikke længere indeholder teksten fra brugerens anmodning, og siden i cachen stadig er gammel [16] . Denne situation er relateret til tab af links ( eng.  linkrot ) og brugervenlig ( brugervenlig ) tilgang af Google. Dette involverer udsendelse af korte bidder af tekst fra cachen, der indeholder forespørgselsteksten. Princippet om mindste overraskelse gælder , brugeren forventer normalt at se søgeordene i teksterne på de modtagne sider ( Brugerforventninger ). Ud over at fremskynde søgninger ved hjælp af cachelagrede sider, kan cachelagrede sider indeholde information, der ikke længere er tilgængelig andre steder.

Søgemaskinen arbejder med outputfiler modtaget fra indekseren. Søgemaskinen accepterer brugeranmodninger, behandler dem ved hjælp af et indeks og returnerer søgeresultaterne [15] .

Når en bruger indtaster en forespørgsel i en søgemaskine (normalt ved hjælp af nøgleord ), tjekker systemet sit indeks og returnerer en liste over de mest relevante websider (sorteret efter et eller andet kriterium), normalt med en kort anmærkning, der indeholder dokumentets titel og nogle gange dele af teksten [16] . Søgeindekset er opbygget efter en særlig teknik baseret på information udtrukket fra websider [12] . Siden 2007 giver Google-søgemaskinen dig mulighed for at søge under hensyntagen til oprettelsestidspunktet for de dokumenter, du leder efter (kalder menuen "Søgeværktøjer" og angiver tidsintervallet).

De fleste søgemaskiner understøtter brugen af ​​booleske operatorer OG, ELLER, IKKE i forespørgsler, hvilket giver dig mulighed for at forfine eller udvide listen over søgte søgeord. I dette tilfælde vil systemet søge efter ord eller sætninger nøjagtigt som de er indtastet. Nogle søgemaskiner har mulighed for omtrentlig søgning , i dette tilfælde udvider brugere søgeområdet ved at angive afstanden til søgeord [16] . Der er også en konceptuel søgning , som bruger en statistisk analyse af brugen af ​​de søgte ord og sætninger i teksterne på websider. Disse systemer giver dig mulighed for at skrive forespørgsler i naturligt sprog.

Nytten af ​​en søgemaskine afhænger af relevansen af ​​de sider, den finder. Mens millioner af websider kan indeholde et ord eller en sætning, kan nogle være mere relevante, populære eller autoritative end andre. De fleste søgemaskiner bruger rangeringsmetoder til at bringe de "bedste" resultater til toppen af ​​listen. Søgemaskiner bestemmer, hvilke sider der er mere relevante, og i hvilken rækkefølge resultater skal vises på forskellige måder [16] . Søgemetoder, som selve internettet, ændrer sig over tid. Således dukkede to hovedtyper af søgemaskiner op: systemer med foruddefinerede og hierarkisk ordnede søgeord og systemer, hvor et omvendt indeks genereres baseret på tekstanalyse.

De fleste søgemaskiner er kommercielle virksomheder, der tjener penge på annoncering , i nogle søgemaskiner kan du mod betaling købe topplaceringer i søgeresultaterne for givne søgeord. De søgemaskiner, der ikke tager penge for rækkefølgen af ​​resultater, tjener på kontekstuel annoncering , mens reklamebudskaber svarer til brugerens anmodning. Sådanne annoncer vises på siden med en liste over søgeresultater, og søgemaskiner tjener hver gang en bruger klikker på reklamebudskaber.

Søgemaskinetyper

Der er fire typer søgemaskiner: robot-, menneske-drevne, hybride og meta-systemer [17] .

Søgemaskinemarked

Google  er den mest populære søgemaskine i verden med en markedsandel på 92,16 %. Bing indtager den anden position, dens andel er 2,88% [18] .

De mest populære søgemaskiner i verden [19] :

Søgesystem Markedsandel i juli 2014 Markedsandel i oktober 2014 Markedsandel i september 2017 Markedsandel i september 2020 [20] Markedsandel i december 2021 [21]
Google 68,69 % 58,01 % 69,24 % 92,16 % 91,94 %
bing 17,17 % 29,06 % 12,26 % 2,88 % 2,86 %
Baidu 6,22 % 8,01 % 6,48 % 1,14 % 1,37 %
Yahoo! 6,74 % 4,01 % 5,19 % 1,52 % 1,5 %
AOL 0,13 % 0,21 % 1,11 %
Ophidse 0,22 % 0,00 % 0,00 %
Spørg 0,13 % 0,10 % 0,24 %

Asien

I østasiatiske lande og i Rusland er Google  ikke den mest populære søgemaskine. I Kina er Soso -søgemaskinen for eksempel mere populær .

I Sydkorea bruges Naver , dets egen søgeportal, af omkring 70 % af befolkningen [22] Yahoo! Japan og Yahoo! Taiwan er de mest populære søgemaskiner i henholdsvis Japan og Taiwan [23] .

Rusland og russisk sprog søgemaskiner

Google-søgemaskinen bruges af 50,3 % af brugerne i Rusland, Yandex  — af 47,9 % [24] .

Ifølge LiveInternet-data i december 2017 om dækningen af ​​russisksprogede søgeforespørgsler [25] :

Nogle af søgemaskinerne bruger eksterne søgealgoritmer.

Kvantitative data fra Google-søgemaskinen

Antallet af internetbrugere og søgemaskiner og brugerkrav til disse systemer vokser konstant. For at øge hastigheden på at søge efter den nødvendige information indeholder store søgemaskiner et stort antal servere. Servere er normalt grupperet i servercentre (datacentre). Populære søgemaskiner har servercentre spredt rundt i verden.

I oktober 2012 lancerede Google projektet Where the Internet Lives, hvor brugerne får mulighed for at stifte bekendtskab med virksomhedens datacentre [26] .

Google-søgemaskinen ved følgende om datacentres arbejde [27] :

Størrelsen af ​​World Wide Web indekseret af Google i december 2014 er cirka 4,36 milliarder sider [28] .

Søgemaskiner, der tager højde for religiøse tabuer

Den globale udbredelse af internettet og den stigende popularitet af elektroniske enheder i den arabiske og muslimske verden, især i landene i Mellemøsten og det indiske subkontinent , bidrog til udviklingen af ​​lokale søgemaskiner, der tager højde for islamiske traditioner. Sådanne søgemaskiner indeholder specielle filtre, der hjælper brugere med at undgå at få adgang til forbudte websteder, såsom websteder med pornografi, og tillader dem kun at bruge de websteder, hvis indhold ikke er i modstrid med den islamiske tro.

Kort før den muslimske måned Ramadan , i juli 2013, blev Halalgoogling introduceret til verden  , et system, der kun giver brugerne halal "korrekte" links [29] ved at filtrere søgeresultater modtaget fra andre søgemaskiner såsom Google og Bing . To år tidligere, i september 2011, blev I'mHalal-søgemaskinen lanceret for at betjene brugere i Mellemøsten. Imidlertid måtte denne søgetjeneste snart lukkes, ifølge ejeren, på grund af manglende finansiering [30] .

Manglen på investeringer og den langsomme teknologispredning i den muslimske verden har hindret fremskridt og hindret succesen for en seriøs islamisk søgemaskine. Svigtet af enorme investeringer i muslimske livsstilswebprojekter, hvoraf et var Muxlim , er tydeligt . Han har modtaget millioner af dollars fra investorer som Rite Internet Ventures og kommer nu - ifølge den seneste rapport fra I'mHalal før den lukkede ned - op med den tvivlsomme idé, at "den næste Facebook eller Google må kun dukke op i Mellemøsten . hvis du støtter vores strålende ungdom" .

Ikke desto mindre har islamiske interneteksperter i årevis haft travlt med at definere, hvad der er eller ikke er i overensstemmelse med sharia , og klassificerer hjemmesider som " halal " eller " haram ". Alle tidligere og nuværende islamiske søgemaskiner er blot et særligt indekseret sæt af data, eller de er store søgemaskiner såsom Google, Yahoo og Bing med en slags filtreringssystem, der bruges til at forhindre brugere i at få adgang til haram-sider, såsom lignende sider om nøgenhed, LGBT , gambling og ethvert andet emne, der betragtes som anti-islamisk .

Blandt andre religionsorienterede søgemaskiner er Jewogle, den jødiske version af Google og SeekFind.org, et kristent websted, der indeholder filtre til at holde brugere væk fra indhold, der kan underminere eller svække deres tro, almindelige [31] .

Personlige resultater og filterbobler

Mange søgemaskiner, såsom Google og Bing, bruger algoritmer til selektivt at gætte, hvilken information en bruger gerne vil se baseret på deres tidligere aktiviteter på systemet. Som følge heraf viser websteder kun information, der er i overensstemmelse med brugerens tidligere interesser. Denne effekt kaldes "filterboble" [32] .

Alt dette fører til, at brugerne modtager meget mindre information, der modsiger deres synspunkt og bliver intellektuelt isoleret i deres egen "informationsboble". Således kan "bobleeffekten" have negative konsekvenser for den borgerlige meningsdannelse [33] .

Søgemaskine bias

Selvom søgemaskiner er programmeret til at rangere websteder baseret på en kombination af deres popularitet og relevans, viser eksperimentelle undersøgelser i virkeligheden, at forskellige politiske, økonomiske og sociale faktorer påvirker SERP'er [34] [35] .

Denne skævhed kan være et direkte resultat af økonomiske og kommercielle processer: Virksomheder, der annoncerer på en søgemaskine, kan blive mere populære i organiske søgeresultater på denne søgemaskine. Fjernelse af søgeresultater, der ikke overholder lokale love, er et eksempel på indflydelse fra politiske processer. For eksempel vil Google ikke vise nogle nynazistiske hjemmesider i Frankrig og Tyskland, hvor Holocaust-benægtelse er ulovlig [36] .

Bias kan også være en konsekvens af sociale processer, da søgemaskinealgoritmer ofte er designet til at udelukke uformaterede synspunkter til fordel for mere "populære" resultater [37] . De store søgemaskiners indekseringsalgoritmer prioriterer amerikanske sider [35] .

En søgebombe  er et eksempel på et forsøg på at manipulere søgeresultater af politiske, sociale eller kommercielle årsager.

Se også

Noter

  1. Søgesystem  / D. V. Barashev, N. S. Vasilyeva, B. A. Novikov // Great Russian Encyclopedia  : [i 35 bind]  / kap. udg. Yu. S. Osipov . - M .  : Great Russian Encyclopedia, 2004-2017.
  2. Chu & Rosenthal, 1996 , s. 129.
  3. Tarakeswar & Kavitha, 2011 , s. 29.
  4. World Wide Web-servere .
  5. Hvad er nyt .
  6. Oscar Nierstrasz .
  7. Arkiv for NCSA .
  8. Yahoo! Og Netscape .
  9. Netscape, 1996 .
  10. Konkurrencens dynamik, 2001 .
  11. Introduktion til datalogi .
  12. 1 2 Googles historie .
  13. Brin og Page , s. 3.
  14. Nigma .
  15. 1 2 3 Risvik & Michelsen, 2002 , s. 290.
  16. 1 2 3 4 5 6 Knowledge Management, 2011 .
  17. Tarakeswar & Kavitha, 2011 , s. 29.
  18. NMS .
  19. Statistik .
  20. ↑ Markedsandel for søgemaskiner på verdensplan  . StatCounter Global statistik . Hentet 21. december 2020. Arkiveret fra originalen 10. december 2020.
  21. ↑ Markedsandel for søgemaskiner på verdensplan  . StatCounter Global statistik . Hentet 9. januar 2022. Arkiveret fra originalen 10. december 2020.
  22. Naver .
  23. OII Web Team. Age of Internet Empires  (engelsk) . Informationsgeografi . Hentet 2. marts 2022. Arkiveret fra originalen 2. marts 2022.
  24. LiveInternet .
  25. Liveinternet . Hentet 2. januar 2018. Arkiveret fra originalen 19. februar 2019.
  26. Hvor internettet bor .
  27. Antula .
  28. World Wide Web-størrelse .
  29. Islam .
  30. Jeg er Halal . Hentet 28. maj 2018. Arkiveret fra originalen 29. maj 2018.
  31. Christian News .
  32. Pariser, 2011 .
  33. Auralist, 2012 , s. 13.
  34. Segev, 2010 .
  35. 1 2 Bias i søgemaskinedækning, 2004 .
  36. Erstatning af Google .
  37. Shaping the Web, 2000 .

Litteratur

Links