Eksperiment planlægning

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 16. februar 2022; checks kræver 8 redigeringer .

Eksperimentelt design ( eng.  eksperimentelle designteknikker ) er en procedure til at vælge antallet af eksperimenter og betingelserne for deres implementering, nødvendige for at løse problemet med den nødvendige nøjagtighed. [1] Hovedmålet med eksperimentplanlægning er at opnå maksimal målenøjagtighed med et minimum antal eksperimenter og opretholde den statistiske pålidelighed af resultaterne.

Eksperimentplanlægning bruges i søgen efter optimale forhold, konstruktion af interpolationsformler, valg af væsentlige faktorer, evaluering og forfining af konstanterne i teoretiske modeller mv.

Historie

Eksperimentelt design opstod i første halvdel af det 20. århundrede fra behovet for at eliminere eller i det mindste reducere bias i landbrugsforskning ved at randomisere eksperimentelle forhold. Planlægningsproceduren viste sig ikke kun at være rettet mod at reducere variansen af ​​de estimerede parametre, men også på randomisering med hensyn til samtidige, spontant skiftende og ukontrollerede variabler. Som et resultat lykkedes det at slippe af med skævheden i estimaterne.

Siden 1918 begyndte R. Fisher sin serie af værker på Rochemsted agrobiological station ( eng. ) i England. I 1935 udkom hans monografi "Design of Experiments", som gav navnet til hele retningen. I 1942 gennemgik A. Kishen designet af eksperimentet med latinske terninger, som var en videreudvikling af teorien om latinske firkanter . Derefter offentliggjorde R. Fischer uafhængigt information om ortogonale hyper-græsk-latinske terninger og hyperterninger. Kort derefter, i 1946, overvejede R. Rao deres kombinatoriske egenskaber. H. Manns (1947-1950) værker er helliget den videre udvikling af teorien om latinske firkanter.

Den første dybe matematiske undersøgelse af rutediagrammet blev udført af R. Bowes ( Eng. ) i 1939. I første omgang blev teorien om balancerede ufuldstændige blokplaner (BIB-ordninger) udviklet. Derefter generaliserede R. Bose, K. Ner og R. Rao disse planer og udviklede teorien om delvist afbalancerede ufuldstændige blokplaner (PBIB-skemaer). Siden da har der været meget opmærksomhed på studiet af flowcharts, både af eksperimentelle planlæggere ( F. Yeats , G. Cox, V. Cochran ( engelsk ), W. Federer, K. Gulden, O. Kempthorn og andre), og og fra specialister i kombinatorisk analyse (R. Bose, F. Shimamoto, V. Klatsworthy, S. Srikhande ( engelsk ), A. Hoffman og andre).

R. Fishers forskning markerer begyndelsen på den første fase i udviklingen af ​​forsøgsplanlægningsmetoder. Fisher udviklede faktorplanlægningsmetoden. Yeats foreslog et simpelt beregningsskema for denne metode. Faktorplanlægning er blevet udbredt. Et træk ved et faktoreksperiment er behovet for at opsætte et stort antal eksperimenter på én gang.

I 1945 introducerede D. Finney fraktionerede replikaer fra et faktoreksperiment. Dette gjorde det muligt at reducere antallet af eksperimenter og åbnede vejen for tekniske planlægningsansøgninger. En anden mulighed for at reducere det nødvendige antal eksperimenter blev vist i 1946 af R. Plakett og D. Berman, som introducerede rige faktorielle designs.

G. Hotelling foreslog i 1941 at finde et ekstremum fra eksperimentelle data ved hjælp af kraftudvidelser og en gradient. Det næste vigtige skridt var indførelsen af ​​princippet om sekventiel trinvis eksperimentering. Dette princip, udtrykt i 1947 af M. Friedman og L. Savage , gjorde det muligt at udvide den eksperimentelle definition af ekstremum-iterationen.

For at opbygge en moderne teori om eksperimentplanlægning manglede ét led - formaliseringen af ​​studieobjektet. Dette link dukkede op i 1947, efter at N. Wiener skabte teorien om kybernetik . Det kybernetiske koncept "black box" spiller en vigtig rolle i planlægningen.

I 1951 begyndte de amerikanske videnskabsmænds arbejde J. Box og C. Wilson en ny fase i udviklingen af ​​eksperimentplanlægning. Den formulerede og bragte til praktiske anbefalinger ideen om en konsekvent eksperimentel bestemmelse af de optimale betingelser for at udføre processer ved hjælp af estimering af koefficienterne for effektudvidelser ved hjælp af mindste kvadraters metode , bevæger sig langs en gradient og finde et interpolationspolynomium i regionen af responsfunktionens ekstremum (næsten stationær region).

I 1954-1955. J. Box og derefter P. Yule viste, at designet af et eksperiment kan bruges i studiet af fysiske og kemiske processer, hvis en eller flere mulige hypoteser er angivet på forhånd . Retningen blev udviklet i værkerne af N. P. Klepikov, S. N. Sokolov og V. V. Fedorov i kernefysik .

Det tredje trin i udviklingen af ​​teorien om eksperimentelt design begyndte i 1957, da Box anvendte sin metode til industrien. Denne metode kom til at blive kaldt " evolutionær planlægning ". I 1958 foreslog G. Scheffe ( eng. ) en ny metode til at designe et eksperiment til at studere fysisk-kemiske sammensætningsdiagrammer - en egenskab kaldet " simplex gitter ".

Udviklingen af ​​teorien om eksperimentel planlægning i USSR afspejles i værkerne af VV Nalimov , Yu. P. Adler , Yu. V. Granovsky , EV Markova og VB Tikhomirov .

Stadier af planlægning af et eksperiment

Eksperimentplanlægningsmetoder gør det muligt at minimere antallet af nødvendige tests, etablere en rationel procedure og betingelser for at udføre forskning, afhængigt af deres type og den nødvendige nøjagtighed af resultaterne. Hvis antallet af test af en eller anden grund allerede er begrænset, giver metoderne et skøn over den nøjagtighed, hvormed resultaterne vil blive opnået i dette tilfælde. Metoderne tager højde for den tilfældige karakter af spredningen af ​​de testede objekters egenskaber og egenskaberne ved det anvendte udstyr. De er baseret på metoderne for sandsynlighedsteori og matematisk statistik .

Planlægning af et eksperiment involverer en række trin.

  1. Fastlæggelse af formålet med eksperimentet (bestemmelse af karakteristika, egenskaber osv.) og dets type (definitiv, kontrol, komparativ, forskning).
  2. Afklaring af betingelserne for forsøget (tilgængeligt eller tilgængeligt udstyr, arbejdsvilkår, økonomiske ressourcer, antal og bemanding af medarbejdere mv.). Valg af type test (normal, accelereret, reduceret i laboratorieforhold, på stand , mark , fuld skala eller operationel).
  3. Valg af input- og outputparametre . Inputparametre (faktorer) kan være deterministiske, det vil sige registrerede og kontrollerede (afhængigt af observatøren), og tilfældige, det vil sige registrerede, men uadministrerede. Sammen med dem kan tilstanden af ​​det undersøgte objekt påvirkes af uregistrerede og ukontrollerede parametre, der introducerer en systematisk eller tilfældig fejl i måleresultaterne. Disse er fejl i måleudstyr , ændringer i egenskaberne af det undersøgte objekt under forsøget, for eksempel på grund af ældning af materialet eller dets slid, eksponering for personale osv.
  4. Valg af matematisk model , ved hjælp af hvilken eksperimentelle data vil blive præsenteret;
  5. Etablering af den nødvendige nøjagtighed af måleresultater (outputparametre), områder med mulige ændringer i inputparametre, afklaring af typerne af påvirkninger. Typen af ​​prøver eller genstande, der undersøges, vælges under hensyntagen til graden af ​​deres overensstemmelse med det virkelige produkt med hensyn til tilstand, enhed, form, størrelse og andre egenskaber. Formålet med graden af ​​nøjagtighed er påvirket af betingelserne for fremstilling og drift af objektet, hvis oprettelse vil bruge disse eksperimentelle data. Fremstillingsbetingelser, dvs. fremstillingsmuligheder, begrænser den højest realistisk opnåelige nøjagtighed. Driftsbetingelserne, det vil sige betingelserne for at sikre objektets normale drift, bestemmer minimumskravene til nøjagtighed. For en række tilfælde (med et lille antal faktorer og en kendt lov om deres fordeling) er det muligt at beregne på forhånd det mindste krævede antal tests, som gør det muligt at opnå resultater med den krævede nøjagtighed.
  6. Valget af optimalitetskriteriet, eksperimentets plan, definitionen af ​​metoden til dataanalyse; at udføre et eksperiment  - antallet og rækkefølgen af ​​test, metoden til at indsamle, opbevare og dokumentere data. Rækkefølgen af ​​test er vigtig, hvis inputparametrene (faktorerne) i undersøgelsen af ​​det samme objekt under et eksperiment har forskellige værdier. For eksempel, når der testes for træthed med en trinændring i belastningsniveauet, afhænger udholdenhedsgrænsen af ​​belastningssekvensen, da skadeakkumulering forløber forskelligt, og som følge heraf vil der være en anden værdi af holdbarhedsgrænsen. I nogle tilfælde, når systematiske parametre er svære at tage hensyn til og kontrollere, konverteres de til tilfældige parametre , hvilket specifikt giver mulighed for en tilfældig rækkefølge af test (randomisering af eksperimentet). Dette gør det muligt at anvende metoderne fra den matematiske teori om statistik til analysen af ​​resultaterne. Rækkefølgen af ​​test er også vigtig i processen med eksplorativ forskning: afhængigt af den valgte rækkefølge af handlinger i den eksperimentelle søgen efter det optimale forhold mellem parametrene for et objekt eller en proces, kan der være behov for flere eller færre eksperimenter. Disse eksperimentelle problemer ligner matematiske problemer med numerisk søgen efter optimale løsninger. De mest veludviklede metoder er endimensionelle søgninger (én-faktor et-kriterie-problemer), såsom Fibonacci-metoden, det gyldne snit-metoden .
  7. Kontrol af de statistiske forudsætninger for de opnåede data, opbygning af en matematisk model for de undersøgte egenskabers adfærd Behovet for bearbejdning skyldes, at en selektiv analyse af individuelle data, ude af kontakt med resten af ​​resultaterne, eller deres ukorrekt behandling kan ikke kun reducere værdien af ​​praktiske anbefalinger, men også føre til fejlagtige konklusioner . Behandling af resultaterne omfatter: bestemmelse af konfidensintervallet for middelværdien og varians (eller standardafvigelse) af værdierne af outputparametrene (eksperimentelle data) for en given statistisk pålidelighed; kontrollere for fraværet af fejlagtige værdier (outliers), for at udelukke tvivlsomme resultater fra yderligere analyse. Det udføres for overholdelse af et af de særlige kriterier, hvis valg afhænger af fordelingsloven for den stokastiske variabel og typen af ​​udligger; kontrol af forsøgsdatas overensstemmelse med den tidligere indførte distributionslov. Afhængig af dette bekræftes den valgte forsøgsplan og metoder til bearbejdning af resultaterne, og valget af den matematiske model specificeres. Modelbygning udføres i tilfælde, hvor kvantitative karakteristika for indbyrdes forbundne input- og outputparametre, der undersøges, bør opnås. Det er tilnærmelsesproblemer, det vil sige valget af en matematisk afhængighed, der passer bedst til de eksperimentelle data. Til disse formål anvendes regressionsmodeller , som er baseret på udvidelsen af ​​den ønskede funktion i en serie med bibeholdelse af en (lineær afhængighed, regressionslinje) eller flere (ikke-lineære afhængigheder) ekspansionsmedlemmer (Fourier, Taylor-serien) . En af metoderne til tilpasning af regressionslinjen er den meget anvendte mindste kvadraters metode. For at vurdere graden af ​​indbyrdes sammenhæng mellem faktorer eller outputparametre udføres en korrelationsanalyse af testresultater. Som et mål for indbyrdes sammenhæng bruges korrelationskoefficienten: for uafhængige eller ikke-lineært afhængige stokastiske variable er den lig med eller tæt på nul, og dens nærhed til enhed indikerer den fuldstændige sammenkobling af variablerne og tilstedeværelsen af ​​en lineær sammenhæng mellem dem. Ved behandling eller brug af eksperimentelle data præsenteret i tabelform er der behov for at opnå mellemværdier. Til dette bruges metoderne til lineær og ikke-lineær (polynomiel) interpolation (bestemmelse af mellemværdier) og ekstrapolation (bestemmelse af værdier, der ligger uden for intervallet for dataændring).
  8. Forklaring af de opnåede resultater og formulering af anbefalinger. Reduktion af arbejdsintensitet og reduktion af testtid opnås ved at bruge automatiserede eksperimentelle komplekser. Et sådant kompleks inkluderer testbænke med automatisk indstilling af tilstande (giver dig mulighed for at simulere rigtige driftstilstande), behandler automatisk resultaterne, udfører statistisk analyse og dokumenterer forskningen. Men ingeniørens ansvar i disse undersøgelser er også stort: ​​klart definerede testmål og en korrekt truffet beslutning giver dig mulighed for præcist at finde produktets svage punkt, reducere omkostningerne ved finjustering og gentagelse af designprocessen.

Se også

Noter

  1. Introduktion til eksperimentdesign. Tambov State Technical University. . Hentet 14. maj 2022. Arkiveret fra originalen 26. februar 2020.

Litteratur