Femte generation af computere

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 15. juli 2022; checks kræver 3 redigeringer .

Femte generations computere ( Jap. 第五世代コンピュータ) - i overensstemmelse med ideologien om computerteknologisk udvikling, forventedes det efter fjerde generation, bygget på meget store integrerede kredsløb, at skabe den næste generation med fokus på distribueret databehandling, samtidig gang troede man, at den femte generation ville blive grundlaget for at skabe enheder, der var i stand til at efterligne tænkning.

Et storstilet regeringsprogram i Japan for at udvikle computerindustrien og kunstig intelligens blev iværksat i 1980'erne . Målet med programmet var at skabe en "epokegørende computer" med supercomputer ydeevne og kraftfulde kunstig intelligens funktioner [1] . Start af udvikling - 1982 , slutning af udvikling - 1992 , udviklingsomkostninger - 57 milliarder ¥ (ca. $ 500 millioner ) . Programmet endte i fiasko, da det ikke var afhængig af klare videnskabelige metoder, og selv dets mellemmål viste sig at være teknologisk uopnåelige.

I øjeblikket er udtrykket "femte generation" vagt og bruges på mange måder, for eksempel når man beskriver cloud computing-systemer.

Definition af begrebet

I overensstemmelse med den almindeligt accepterede metode til vurdering af udviklingen af ​​computerteknologi blev rørcomputere betragtet som den første generation, transistorcomputere den anden , integrerede kredsløbscomputere den tredje og mikroprocessorer den fjerde . Mens tidligere generationer forbedrede sig ved at øge antallet af elementer pr. arealenhed (miniaturisering), skulle femte generations computere være det næste trin, og for at opnå superydeevne, for at implementere interaktionen af ​​et ubegrænset sæt mikroprocessorer.

Japansk femte generations computerprojekt

På det tidspunkt, hvor projektet startede, var Japan ikke en førende udvikler og leverandør af løsninger inden for computerteknologi, selvom man allerede havde opnået stor succes med at implementere en bred vifte af computerteknologi, inklusive dem, der var baseret på dens egen unikke udvikling. Japans ministerium for international handel og industri (MITI) besluttede at tvinge Japans gennembrud i spidsen, og fra slutningen af ​​70'erne igangsatte udviklingen af ​​prognoser om fremtiden for computerteknologi. Dette arbejde blev overdraget til Japan Information Processing Development Center (JIPDEC), som skulle pege på nogle af de mest lovende retninger for den fremtidige udvikling, og i 1979 blev der tilbudt en treårig kontrakt om mere dybtgående forskning, der involverede industri og akademia . På dette tidspunkt begyndte de at bruge udtrykket "femte generations computere" , da det længe har været bredt diskuteret af det internationale ekspertsamfund.

Brugen af ​​dette udtryk var at understrege, at Japan planlægger at tage et nyt kvalitativt spring i udviklingen af ​​computerteknologi.

De vigtigste forskningsområder var som følger:

Det handlede om en computer med parallelle processorer, der arbejdede med data gemt i en enorm database i stedet for et filsystem . Samtidig skulle dataadgangen udføres ved hjælp af et logisk programmeringssprog. Det blev antaget, at prototypemaskinen vil have en ydelse mellem 100 millioner og 1 milliard LIPS, hvor LIPS er en logisk slutning pr. På det tidspunkt var typiske arbejdsstationer i stand til omkring 100.000 LIPS.

Udviklingsforløbet blev præsenteret på en sådan måde, at computerintelligens, som får magt, begynder at ændre sig selv, og målet var at skabe et sådant computermiljø, der selv ville begynde at producere den næste, og de principper, som den endelige computer bygger på. ville blive bygget var ukendt i forvejen, skulle disse principper udvikles under driften af ​​primære computere.

For en kraftig stigning i produktiviteten blev det endvidere foreslået gradvist at erstatte softwareløsninger med hardwareløsninger, så der ikke var nogen skarp adskillelse mellem opgaver for software- og hardwarebasen.

Det forventedes at opnå et betydeligt gennembrud inden for løsning af anvendte problemer med kunstig intelligens. Især følgende opgaver skulle løses:

Supercomputere forventedes effektivt at løse massive simuleringsproblemer, primært inden for aero- og hydrodynamik.

Dette program skulle implementeres om 11 år, tre år for indledende forskning og udvikling, fire år for at bygge individuelle delsystemer og de sidste fire år for at færdiggøre hele prototypesystemet. I 1982 besluttede den japanske regering at støtte projektet yderligere og grundlagde Institute for New Generation Computer Technology (ICOT), der samlede investeringer fra forskellige japanske computerfirmaer.

International resonans

Troen på fremtiden for parallel computing var så dyb på det tidspunkt, at "femte generation"-projektet blev taget meget alvorligt i computerverdenen. Efter at Japan steg til forkant med forbrugerelektronik i 1970'erne og dukkede op som førende inden for bilindustrien i 1980'erne , fik japanerne ry for at være uovervindelige. Projekter inden for parallel databehandling begyndte straks at blive udviklet i USA  - i Corporation for Microelectronics and Computer Technology (MCC), i Storbritannien  - i virksomheden Alvey (Alvey) og i Europa som en del af European Strategic Forskningsprogram i informationsteknologi (ESPRIT) . [2]

Parallel supercomputer MARS i USSR

I USSR begyndte man også forskning i parallelle programmeringsarkitekturer; til dette blev VNTK START skabt i 1985 , som formåede at skabe Kronos -processoren og prototypen af ​​multiprocessor-computeren MARS på tre år .

I modsætning til japanerne var opgaven med at integrere et stort antal processorer og implementere distribuerede vidensbaser baseret på sprog som Prolog ikke fastsat, det handlede om en arkitektur, der understøtter et højt niveau sprog som Modula-2 og parallel computing. Derfor kan projektet ikke kaldes femte generation i japansk terminologi.

I 1988 blev projektet afsluttet med succes, men var ikke efterspurgt og blev ikke videreført på grund af omstrukturering og den ugunstige markedssituation for den indenlandske computerindustri. Succesen var i den delvise implementering af prototypearkitekturen (hovedsageligt hardware), men et sådant japansk "stort spring" inden for programmering, databaser og kunstig intelligens var ikke engang planlagt inden for dette projekt.

Vanskeligheder ved implementering

I løbet af de næste ti år begyndte "femte generations computer"-projektet at opleve en række vanskeligheder af forskellige typer.

Det første problem var, at det valgte Prolog -sprog som grundlag for projektet ikke understøttede parallel computing, og det var nødvendigt at udvikle sit eget sprog, der kunne fungere i et multiprocessormiljø. Dette viste sig at være svært - adskillige sprog blev foreslået, hver med sine egne begrænsninger. [3]

Et andet problem opstod med processorernes ydeevne. Det viste sig, at 80'ernes teknologier hurtigt sprang over de barrierer, der blev betragtet som "indlysende" og uoverstigelige før projektets start. Og paralleliseringen af ​​mange processorer forårsagede ikke det forventede skarpe spring i ydeevnen (se Amdahls lov ). Det skete så, at de arbejdsstationer, der blev oprettet som en del af projektet, med succes nåede og endda oversteg den nødvendige kapacitet, men på dette tidspunkt dukkede kommercielle computere op, der var endnu mere kraftfulde.

Derudover viste Fifth Generation Computer-projektet sig at være fejlagtigt med hensyn til softwareproduktionsteknologi. Allerede før udviklingen af ​​dette projekt udviklede Xerox en eksperimentel grafisk grænseflade ( GUI ). Og senere dukkede internettet op , og et nyt koncept for datadistribution og -lagring opstod, mens søgemaskiner førte til en ny kvalitet af lagring og adgang til heterogen information. Forhåbninger om udvikling af logisk programmering, der blev givet i Fifth Generation Computers-projektet, viste sig at være illusoriske, hovedsageligt på grund af begrænsede ressourcer og upålidelig teknologi.

Ideen om selvudvikling af systemet, ifølge hvilken systemet selv skal ændre sine interne regler og parametre, viste sig at være uproduktiv - systemet, der passerede gennem et bestemt punkt, gled ind i en tilstand af tab af pålidelighed og tab af integritet, skarpt "dum" og blev utilstrækkelig.

Ideen om en storstilet udskiftning af software med hardware viste sig at være utidig; i fremtiden gik udviklingen af ​​computerindustrien i den modsatte retning og forbedrede software med enklere, men standard hardware. Projektet var begrænset til 1970'ernes tankekategorier og formåede ikke at skelne klart mellem funktionerne i computersoftware og hardware.

Projektevaluering

Fra ethvert synspunkt kan projektet betragtes som en absolut fiasko. Over 50 milliarder ¥ blev brugt på udvikling på ti år, og programmet sluttede uden at nå sit mål. Arbejdsstationerne kom aldrig ind på markedet, fordi andre virksomheders enkeltprocessorsystemer var overlegne i parametre, softwaresystemerne virkede aldrig, internettets fremkomst gjorde alle projektets ideer håbløst forældede.

Projektets fiaskoer forklares af en kombination af en række objektive og subjektive faktorer: [4]

Noter

  1. Kazuhiro Fuchi, Revisiting Original Philosophy of Fifth Generation Computer Systems Project, FGCS 1984, s. 1-2
  2. af Peter Bishop, Fifth Generation Computers , New York, 1986, Tohru Moto-Oka, Masaru Kitsuregawa, The Fith Generation Computer: The Japanese Challenge , New York, 1985.
  3. 1 2 Carl Hewitt Mellemhistorie af logisk programmering: opløsning, planlægger, prolog og det japanske femte generations projekt
  4. Kan femte generations computersystemer løse den Mexicanske Golfs olieudslipskrise?
  5. Undgå endnu en AI-vinter Arkiveret 12. februar 2012 på Wayback Machine , James Hendler, IEEE Intelligent Systems (marts/april 2008 (bind. 23, nr. 2) s. 2-4

Litteratur

Links

webarkiver