Formalne planowanie i ocena trafności jako warunek ustalenia efektu eksperymentalnego. Planowanie eksperymentu psychologicznego Kiedy zaplanowano eksperyment?

Planowanie eksperymentów to dziedzina statystyki matematycznej, której celem jest dobór liczby i warunków przeprowadzania eksperymentów niezbędnych i wystarczających do rozwiązania problemu z wymaganą dokładnością, opracowania metod i technik matematycznego przetwarzania wyników eksperymentów oraz podjęcia określonych decyzji na podstawie to.

Co planowanie daje eksperymentatorowi? Zasadniczo inne podejście do błędu. Randomizacja. Eksperyment sekwencyjny. Optymalne wykorzystanie przestrzeni zmiennych niezależnych. Ograniczenie informacji. Etyczna funkcja planowania eksperymentu. Planowanie eksperymentów i logika pytań.

Jaka jest strategia eksperymentu? 1. Rozpoznanie faktu problemu i jego sformułowanie. 2. Dobór czynników i poziomów. 3. Wybór zmiennej odpowiedzi. 4. Wybór planu eksperymentu. 5. Przeprowadzenie eksperymentu. 6. Analiza danych. 7. Wnioski i rekomendacje.

Analogia między eksperymentami obliczeniowymi i laboratoryjnymi. Eksperyment laboratoryjny Próbka Eksperyment obliczeniowy Model Instrument Pomiar Program komputerowy Testowanie oprogramowania Obliczenia Analiza danych Kalibracja

WSTĘPNE STATYSTYCZNE PRZETWARZANIE DANYCH EKSPERYMENTALNYCH Średnia arytmetyczna Ma \u003d r / m \u003d (y 1 + y 2 + ... + Yi + ... + Ym) / m Średnia geometryczna Mg \u003d (yi) 1 / m \u003d (y 1 y 2. .. yi ... ym) 1 / m Średni kwadrat Ms \u003d (yi 2 / m) 1/2 \u003d ((y 12 + y 22 + ... + yi 2 + ... + ym 2) / m) 1/2 Średnia harmoniczna Mgr \u003d m (yi– 1) - 1 Tryb Mediana Md \u003d y (m + 1) / 2 Md \u003d (ym / 2 + 1) / 2

Dyspersja odtwarzalności Sj 2 \u003d (yij-yсрj) 2 / (m-1) \u003d ((y 1 j-yсрj) 2+ (y 2 j-yсрj) 2 + ... + (Ymj-yсрj) 2) / ( m-1) Odchylenie standardowe Sj \u003d (Sj 2) 1/2 \u003d ((Yij-Yavj) 2 / (m-1)) 1/2 Współczynnik zmienności V \u003d Sj / Yavj 100% Swing R \u003d Ymaxj - Yminj Pewność przedział dla średniej B \u003d yсрj t Sj / ((m) 1/2)

Liczba powtórzeń pomiarów m \u003d (V 2) (t 2) / (T 2) Współczynnik zmienności (V,%), Wskaźnik dokładności (błąd względny T, zwykle 5%), Wskaźnik ufności (t to test Studenta). m \u003d (V 2) (t 2) (1 1 / (2 m 1) 1/2) 2 / (T 2) Dolna i górna granica wariancji \u003d m - 1; \u003d 95%; \u003d 5%

Eliminacja pomyłek Według kryterium Romanowskiego | ym + 1 –yav | t "Sy Według kryterium QQ \u003d | ym-ym-1 | / | ym-y 1 | Sprawdzenie jednorodności wariancji F \u003d S 21 / S 22 - test Fishera; G - test Cochrana B / C - test Bartletta (przez χ2 )

Sprawdzanie różnicy średnich duża próbka mała próba Porównanie kilku średnich za pomocą testu Duncana. Średnie są uszeregowane. Oblicza się wartość wariancji odtwarzalności z liczbą stopni swobody \u003d n (m - 1).

Oblicza się znormalizowany błąd średniej S \u003d (Sa 2 / m) 0. 5 Wartości (n– 1) rang znaczących wypisuje się z tabeli Duncana według liczby stopni swobody, poziomu istotności oraz p \u003d 2, 3,…, n. Rangi najmniej znaczące (LSR) są obliczane jako iloczyn rang i znormalizowanego błędu średniej S. Sprawdza się różnice między średnimi, zaczynając od skrajnych; różnica ta jest porównywana z NRM przy p \u003d n, następnie znajduje się różnica między maksymalną średnią a pierwszą, która przekracza minimum, i porównuje się ją z NRM przy p \u003d n - 1 itd.

WYBÓR PARAMETRÓW I CZYNNIKÓW OPTYMALIZACYJNYCH Wymagania dotyczące odpowiedzi: 1. Odpowiedź (parametr optymalizacji) musi być skuteczna z punktu widzenia osiągnięcia celu. 2. Odpowiedź musi być uniwersalna, to znaczy kompleksowo odzwierciedlać właściwości procesu. 3. Odpowiedź powinna być ilościowa i wyrażona jedną liczbą. 4. Odpowiedź powinna być statystycznie skuteczna, tj. Mieć niewielką wariancję. 5. Pożądane jest, aby parametr optymalizacji miał znaczenie fizyczne, był prosty i łatwy do obliczenia.

Wymagania dotyczące czynników: 1. Czynniki muszą być kontrolowalne, to znaczy takie, aby w ramach definicji czynnikowi można było nadać dowolne znaczenie. 2. Czynniki muszą być zgodne. Oznacza to, że można wdrożyć dowolną kombinację poziomów w zakresie. Czynniki są niekompatybilne, jeśli niektóre kombinacje poziomów prowadzą do zatrzymania procesu (na przykład w wyniku eksplozji itp.). 3. Dokładność wyznaczenia poziomów współczynników powinna być większa niż dokładność ustalenia wartości parametru optymalizacji.

IZOLACJA ISTOTNYCH ZMIENNYCH NA PODSTAWIE WSTĘPNYCH INFORMACJI Współczynnik korelacji rang Spearmana \u003d cov (x, y) / ((S 2 x S 2 y) 0,5) \u003d 1–6 ((xi - yi) 2) / (n 3 -n) Współczynnik korelacji rang Kendalla

Kwadrat Youdena 1 2 3 4 5 6 7 1 A B C D E F G 2 B C D E F G A 3 D E F G A B C 1 2 1 3 1 2 3 1 2 2 2 1 2 3 A B C D E F G Σ 5 6 9 3 7 8 4

EKSPERYMENTALNO-STATYSTYCZNE METODY IZOLACJA NIEZBĘDNYCH ZMIENNYCH Pełne doświadczenie czynnikowe Przejście od naturalnej skali zmiennej do warunkowej PFE 22 х1 х2 (1), a, b, ab -1 +1 -1 yр \u003d b 0 + b 1 x 1 + b 2 x 2 + b 12 x 1 x 2

+1-1-1 +1 Z \u003d +1 +1 4 0 0 0 +1 +1-1-1-1 +1 0 4 0 0 Z '\u003d Z'Z \u003d +1 -1-1-1 + 1 +1 0 0 4 0 +1 +1 +1 -1-1 +1 0 0 0 4 b 0 \u003d (y 1 + y 2 + y 3 + y 4) / 4; b 2 \u003d (- y 1 - y 2 + y 3 + y 4) / 4; b 1 \u003d (- y 1 + y 2 - y 3 + y 4) / 4; b 12 \u003d (y 1 - y 2 - y 3 + y 4) / 4.

Organizacja eksperymentu i obliczenia przeprowadzane są w następującej kolejności. 1. Dobór poziomów zmienności czynników. 2. Budowa planu eksperymentu i macierzy planowania. 3. Wykonywanie pomiarów eksperymentalnych. 4. Obliczanie współczynników modelu liniowego. 5. Sprawdzenie istotności współczynników modelu. 6. Sprawdzenie zawartości modelu. 7. Sprawdzenie adekwatności modelu. 8. Test zdolności predykcyjnej w centrum planu. 9. Analiza pozostałości. 10. Interpretacja (analiza) modelu. 11. Podejmowanie decyzji na podstawie otrzymanych informacji

Dlaczego zastosowano pełny eksperyment silni S 2 bi \u003d S 2 rep / N +1 +1 4 0 0-1 +1 0 4 0-1-1 +1 +1 0 0 4 +1 +1 4 0 0-1 +1 0 0 0 2 0 0 0 +1 +1 0 0 2

PFE 23 х1 -1 +1 Plan х2 -1 -1 +1 +1 х3 -1 -1 +1 +1 Oznaczenie (1) a b ab c ac bc abc

yр \u003d b 0 + b 1 x 1 + b 2 x 2 + b 3 x 3 + b 12 x 1 x 2 + b 13 x 1 x 3 + b 23 x 2 x 3 + b 123 x 1 x 2 x 3 + 1-1-1-1 +1 +1 -1-1-1 +1 -1-1 -1-1 Z 1 \u003d +1 -1 +1 +1 +1 -1 Z 2 \u003d +1 +1 + 1-1-1 +1 +1 -1 +1 +1 -1-1 +1 +1 -1-1 +1 +1 +1

b 0 \u003d (y 1 + y 2 + y 3 + y 4 + y 5 + y 6 + y 7 + y 8) / 8; b 1 \u003d (- y 1 + y 2 -y 3 + y 4 -y 5 + y 6 -y 7 + y 8) / 8; yuср \u003d yu / N; b 2 \u003d (- y 1 -y 2 + y 3 + y 4 -y 5 -y 6 + y 7 + y 8) / 8; b 3 \u003d (- y 1 -y 2 -y 3 -y 4 + y 5 + y 6 + y 7 + y 8) / 8; S 2R 0 \u003d (yu-yuav) 2 / (N-1); b 12 \u003d (r 1 -y 2 -y 3 + y 4 + y 5 -y 6 -y 7 + y 8) / 8; b 13 \u003d (r 1 -y 2 + y 3 -y 4 -y 5 + y 6 -y 7 + y 8) / 8; S 2R \u003d (yu-yucalc) 2 / (N-p); b 23 \u003d (y 1 + y 2 -y 3 -y 4 -y 5 -y 6 + y 7 + y 8) / 8; b 123 \u003d (- y 1 + y 2 + y 3 -y 4 + y 5 -y 6 -y 7 + y 8) / 8; Treść modelu: F \u003d S 2 R 0 / S 2 R Adekwatność modelu: F \u003d S 2 R / S 2 powtórka. Moc predykcyjna modelu: t \u003d | b 0 -y 0 cf | / (S 2 powtórka / m) 0. pięć

Repliki ułamkowe TEU 2 3 -1 + + D \u003d 0 + + - + + + - D \u003d 256 + - - + + + Współczynnik generowania x 1 x 2 \u003d x 3 Definiowanie kontrastu I \u003d x 1 x 2 x 3 System mieszania b 1 1+ 23; b 2 2+ 13; b 3 3+ 12; b 0 0+ 123

TEU 24– 1 Współczynniki generowania x 4 \u003d x 1 x 2 i x 4 \u003d x 1 x 2 x 3 Plany 1) d, a, b, abd, cd, ac, bc, abcd; 2) (1), ad, bd, ab, cd, ac, bc, abcd Definiowanie kontrastów I \u003d x 1 x 2 x 4 i I \u003d x 1 x 2 x 3 x 4. Systemy mieszania 1) b 1 1+ 24 ; b 2 2+ 14; b 3 3+ 1234; b 4 4+ 12; b 13 13+ 234; b 23 23+ 134; b 34 34+ 123; b 0 0+ 124,2) b 1 1+ 234; b 2 2+ 134; b 3 3+ 124; b 4 4+ 123; b 12 12+ 34; b 13 13+ 24; b 14 14+ 23; b 0 0+ 1234

TEU 27–4 y \u003d b 0 + b 1 x 1 + b 2 x 2 + b 3 x 3 + b 4 x 4 + b 5 x 5 + b 6 x 6 + b 7 x 7 ГС: х4 \u003d х1 · х2 , x5 \u003d x1 x3, x6 \u003d x2 x3 i x7 \u003d x1 x2 x3 Uogólniające OK obejmuje kontrasty utworzone z tych czterech Wn, jak również iloczyny kontrastów w dwóch, trzech i czterech. I \u003d x1 x2 x4 \u003d x1 x3 x5 \u003d x2 x3 x6 \u003d x1 x2 x3 x7 \u003d x2 x3 x4 x5 \u003d \u003d x1 x3 x4 x6 \u003d x3 x4 x7 \u003d x1 x2 x5 x6 \u003d x2 x5 x7 \u003d x1 x6 x7 \u003d \u003d x4 x5 x6 \u003d x1 x4 x5 x7 \u003d x2 x4 x6 x7 \u003d x3 x5 x6 x7 \u003d \u003d x1 x2 x3 x4 x5 x6 x7. Pomijając efekty interakcji, zaczynając od potrójnych, otrzymujemy: b 0 → β 0 (poniżej nie ma potrójnych) b 1 → β 1 + β 24 + β 35 + β 67 b 2 → β 2 + β 14 + β 36 + β 57 b 3 → β 3 + β 15 + β 26 + β 47 b 4 → β 4 + β 12 + β 37 + β 56 b 5 → β 5 + β 13 + β 27 + β 46 b 6 → β 6 + β 23 + β 17 + β 45 b 7 → β 7 + β 34 + β 25 + β 16

Dobór czynników na podstawie eksperymentu przesiewowego Plackett-Berman projekty n N Kombinacje znaków 3 4 + - + 7 8 + + + - 11 12 + + - 15 16 + + - 19 20 + + - - - + + - - + - + - - + + - n - liczba czynników; N to liczba eksperymentów.

Plany losowego salda # x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 Pozycja 1 2 3 4 5 6 7 8 + + + + + + + + + + - 8 3 6 7 4 5 2 1

Analiza wykresu rozrzutu x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 Md- 5 0 4 5 4 0 3 5 5 5 6 0 3 0 4 5 Md + 4. 0 4,1 3 0 5 5 2 5 3 5 4 5 3 0 B -1. 0 -0. 5 -1. 5 2 0 3 0 -2. 5 1,5 -1. 5 n 2 - - - 3 - - | p | 2,0 1,5 6,0 - - - 7,5 - - 3 4

ANALIZA ANALIZY Jednokierunkowa ANOVA Model yij \u003d + j + ij, yij oznacza i-tą obserwację na j-ty poziom współczynnik (i \u003d 1, 2, ..., m; j \u003d 1, 2,…, n). Obliczenie y-yav \u003d y-50. 1 yij i ↓ 2 6 5 12 9 10 14 11 0 5 6 3 j → -5-4-5-11-7 4-8-11-5-7-9

Obliczanie sum wartości odpowiedzi w kolumnach. T. 1 \u003d 6 + 5 + 12 + 9 + 10 \u003d 42; T. 2 \u003d 14 + 11 + 0 + 5 + 6 \u003d 36; T. 3 \u003d -5-4-5-1 -7 \u003d -32; T. 4 \u003d -8-11-5-7-9 \u003d -40. T. \u003d 42 + 36 - 32 - 40 \u003d 6. Obliczenie średnich wartości odpowiedzi dla każdego poziomu czynnika. y 1 cf \u003d 42/5 \u003d 8. cztery; y 2 cf \u003d 36/5 \u003d 7. 2; y 3 cf \u003d -32 / 5 \u003d -6. cztery; y 4 cf \u003d -40 / 5 \u003d -8. 0. Obliczanie sum kwadratów wartości odpowiedzi yij według wierszy i kolumn. SS 1 \u003d 62 + 52 + 122 + 92 + 102 \u003d 386; SS 2 \u003d 142 + 112 + 02 + 52 + 62 \u003d 378; SS 3 \u003d (- 5) 2 + (- 4) 2 + (- 5) 2 + (- 11) 2 + (- 7) 2 \u003d 236; SS 4 \u003d (- 8) 2 + (- 11) 2 + (- 5) 2 + (- 7) 2 + (- 9) 2 \u003d 340; SS \u003d 386 + 378 + 236 + 340 \u003d 1340. SStotal \u003d 1340-62 / (5 × 4) \u003d 1338. 2.

Obliczanie sum kwadratów charakteryzujących wpływ współczynnika i błędu. SStest \u003d 422/5 + 362/5 + (- 32) 2/5 + (- 40) 2/5 -62 / 20 \u003d 1135. 0; SSosh \u003d 1338,2–1135,0 \u003d 203. 2. Obliczanie średnich kwadratów (wariancji). νtotal \u003d 5 × 4– 1 \u003d 19; νtest \u003d 4– 1 \u003d 3; νosh \u003d 4 × (5 - 1) \u003d 16 MStest \u003d 1135/3 \u003d 378. 3; MSsh \u003d 203. 2/16 \u003d 12. 7. Wyniki jednokierunkowej analizy wariancji Źródło zmienności Suma kwadratów SS Liczba stopni swobody v Średni kwadrat MS Test Fishera Współczynnik 1135. 0 3 378,3 29. 8 Błąd 203,2 16 12. 7 Razem 1138 2 19

Dwukierunkowa ANOVA Model yij \u003d + j + βj + ij Obliczenie yij - 13 mm Samochód Marka opony ABCD T. j I 4 1-1 0 4 II 1 1-1-2-1 III 0 0-3-2-5 IV 0-5-4-4-13 T i. 5-3-9-8-15 \u003d T. ... 17 27 27 24 95 \u003d

Obliczanie sumy kwadratów SStotal \u003d 95 - (- 15) 2/16 \u003d 80,9; SSmar \u003d ((5) 2 + (- 3) 2 + (- 9) 2+ + (- 8) 2) / 4 - (- 15) 2/16 \u003d 30,6; SSaut \u003d ((4) 2 + (- 1) 2 + (- 5) 2+ + (- 13) 2) / 4 - (- 15) 2/16 \u003d 38,6; SSost \u003d 80. 9 -30. 6 -38. 6 \u003d 11. 7. Obliczenie liczby stopni swobody νtotal \u003d n 1 · n 2– 1; νmar \u003d n 1 - 1; νavt \u003d n 2 - 1; νres \u003d νtotal - νmar - νavt. νtotal \u003d 4,4– 1 \u003d 15; νmar \u003d 4– 1 \u003d 3; νavt \u003d 4– 1 \u003d 3; νres \u003d 15–3– 3 \u003d 9.

Obliczanie średnich kwadratów. MSmar \u003d SSmar / νmar; MSavt \u003d SSavt / vaut; MSres \u003d SSres / νres. MSmar \u003d 30. 6/3 \u003d 10. 2; MSavt \u003d 38. 6/3 \u003d 12. 9; MSst \u003d 11. 7/9 \u003d 1. 3. F \u003d MSsp / MSst. Fmar \u003d 10. 2/1. 3 \u003d 7. 85; Faut \u003d 12. 9/1. 3 \u003d 9. 92. Wyniki dwukierunkowej analizy wariancji Źródło zmienności Suma Liczba stopni kwadratów SS swobody ν Średnia kwadratowa MS Kryterium Fishera F Marki opon 30. 6 3 10. 2 7. 85 Samochody 38. 6 3 12. 9 9 92 Pozostałe 11. 7 9 1. 3 RAZEM 80,9 15

Analiza wieloczynnikowa Model wariancji yijk \u003d + j + βj + k + ijk A B C D Poziomy х1: a 1; a 2; a 3; a 4; B D A C Poziomy х2: b 1; b 2; b 3; b 4; C A D B D C B A Poziomy х3: A; B; DO; RE; Kroki obliczeniowe: 1. Obliczanie sum (sum) i średnich dla wierszy Ai, kolumn Bj i liter łacińskich Ck. 2. Obliczenie sumy kwadratów wyników wszystkich obserwacji: SS 1 \u003d (Yijk) 2. 3. Suma kwadratów sum dla wierszy podzielona przez liczbę elementów w każdym wierszu: SS 2 \u003d Ai 2 / n. 4. Suma kwadratów sum z kolumn podzielona przez liczbę elementów w każdej kolumnie: SS 3 \u003d Bj 2 / n. 5. Suma kwadratów sum zapisanych literami łacińskimi podzielona przez liczbę elementów odpowiadających każdej literze: SS 4 \u003d Ck 2 / n.

6. Składnik korygujący równy kwadratowi sumy podzielonej przez całkowitą liczbę komórek w kwadracie (przez liczbę eksperymentów): SS 5 \u003d Yijk / (n 2). 7. Suma kwadratów dla wiersza: SSa \u003d SS 2 - SS 5. 8. Suma kwadratów dla kolumny: SSb \u003d SS 3 -SS 5. 9. Suma kwadratów dla litery łacińskiej: SSc \u003d SS 4 -SS 5. 10. Suma kwadratów sumy: SStotal \u003d SS 1 -SS 5. 11. Resztkowa suma kwadratów: SSres \u003d SStotal- (SSa + SSb + SSc). ANOVA kwadratu łacińskiego Źródło zmienności Suma kwadratów SS Liczba stopni swobody Średni kwadrat MS Test Fishera F Rzędy SSa \u003d SS 2 -SS 5 a \u003d n– 1 MSa \u003d SSa / a MSa / MSres Kolumny SSb \u003d SS 3 - SS 5 b \u003d n - 1 MSb \u003d SSb / b MSb / MSst Lat. litery SSc \u003d SS 4 -SS 5 c \u003d n– 1 Mgr \u003d SSc / c Mgr / MSrt Pozostałe SSrt \u003d SStotal - reszta \u003d (n-1) (n-2) MSrt \u003d SSrt / rest - (SSa + SSb + SSc ) SStot ogółem \u003d SS 1 - SS 5tot \u003d n 2– 1

Kwadrat grecko-łaciński Zbadano wpływ czynników zalecanych na receptę na wydłużenie względne przy zerwaniu kompozycji na bazie polichlorku winylu (PVC). x 1 - partia polimeru. Poziomy czynników x 1: a 1, a 2, a 3, a 4. x 2 to zawartość plastyfikatora. Poziomy czynników x 2,% wag. godziny: b 1 - 20, b 2 - 30, b 3 - 40, b 4 - 50. x 3 - rodzaj stabilizatora. Poziomy czynnika x 3: A - olej sojowy, B - stearynian wapnia, C - stearynian baru i D - stearynian kadmu. x 4 - rodzaj dynamometru. Współczynnik x 4 poziomy :, β i. A B C Dβ C D Aβ B Bβ A D C D Cβ B A

Projekt i wyniki doświadczenia w badaniu właściwości PVC x 2 x 1 a 2 a 3 a 4 Aiср Ai 2 b 1 A (8,2) B (10 2) C (8,3) Dβ (5,9) 32,6 8,2 1063 b 2 C (15,1) D (25,8) Aβ (22,3) B (21,2) 84,4 21,1 7123 b 3 Bβ (48,9) A (25,7) D (49,6) C (35,2) 160,4 39,9 25408 b 4 D (74,1) Cβ ( 69,5) B (80,9) A (57,1) 281,6 70,4 79299 Bj 146,3 131,2 161,1 120,4 G \u003d \u003d 558. 0 Bjav 36,6 32,8 40,3 29,9 Bj 2 21404 17213 25953 14256

ABCDC k 113,3 161,2 128,1155,4 Ckav 28,3 Ck 2 12837 25985 16410 24149 40,3 β 32,0 38,9 Dl 129,3 146,6 150,1 132,0 Dlav 32,3 D l 2 16718 21492 22530 17424 36,7 37,8 33,0

Obliczanie sumy kwadratów wyników wszystkich obserwacji. ... ... SS 1 \u003d 8. 22 + 10. 22 + 8. 32+. ... ... +80. 92 + 57. 12 \u003d 28992. 54. Suma kwadratów sum dla wierszy podzielona przez liczbę elementów w każdym wierszu. SS 2 \u003d (1063 + 7123 + 25408 + 79299) / 4 \u003d 28223. 25. Suma kwadratów sum kolumn podzielona przez liczbę pozycji w każdej kolumnie. ... SS 3 \u003d (21404 + 17213 + 25953 + 14256) / 4 \u003d 19706. 50. Suma kwadratów sum zapisanych literami łacińskimi podzielona przez liczbę elementów odpowiadających każdej literze. SS 4 \u003d (12837 + 25985 + 16410 + 24149) / 4 \u003d 19845. 25. Suma kwadratów sumy greckich liter podzielona przez liczbę elementów odpowiadających każdej literze. SS 5 \u003d (16718 + 21492 + 22530 + 17424) / 4 \u003d 19541. 00.

Składnik korygujący równy kwadratowi całkowitej sumy podzielonej przez całkowitą liczbę komórek w kwadracie (przez liczbę eksperymentów). SS 6 \u003d 558,02 / 16 \u003d 19460,25. Suma kwadratów w rzędzie. SSa \u003d SS 2-SS 6; SSa \u003d 28223. 25-19460. 25 \u003d 8763. 00. Suma kwadratów w kolumnie. SSb \u003d SS 3-SS 6; SSb \u003d 19706. 50-19460. 25 \u003d 246. 25. Suma kwadratów dla litery łacińskiej. SSc \u003d SS 4-SS 6; SSc \u003d 19845. 25-19460. 25 \u003d 385. 00. Suma kwadratów litera grecka. SSd \u003d SS 5-SS 6; SSd \u003d 19541. 00 -19460. 25 \u003d 80. 75. Całkowita suma kwadratów. SStotal \u003d SS 1 -SS 6; SStotal \u003d 28992. 54-19460. 25 \u003d 9532. 27. Resztkowa suma kwadratów. SSost \u003d SStot- (SSa + SSb + SSc + SSd); SSost \u003d 9532. 27 - (8763,00 + 246,25 + 385,00 + 80,75) \u003d 57. 27.

Analiza wariancji dla kwadratu grecko-łacińskiego 4 4. Źródło zmienności Suma kwadratów SS Liczba stopni swobody v Średnia kwadrat MS Test Fishera F Rzędy, x 2 8763,00 3 2921,0 152,9 Kolumny, x 1 246 25 3 82,1 4 3 Lat. listów x 3 385,00 3 128,3 6 7 Grecki. liter, x 4 80,75 3 26,9 1. 4 Błąd 57,27 3 19. 1 F (3; 3; 0,05) \u003d 9. 28 i F (3; 3; 0,1) \u003d 5. 39 Razem 9532,27 15

PLANOWANIE DOŚWIADCZENIA PODCZAS DRIFTU CZASOWEGO Wpływ tego dryftu czasu na parametry matematycznego opisu procesu można praktycznie wyeliminować, dzieląc serię eksperymentów na oddzielne bloki tak, aby efekt dryftu czasu zmieszał się z iloczyn czynników, dla których współczynniki regresji są dostatecznie małe. Załóżmy, że konieczne jest wyeliminowanie wpływu dryftu czasu na parametry równania regresji otrzymanego w wyniku pełnego eksperymentu trójczynnikowego. W tym celu dzielimy doświadczenie na dwa bloki i wprowadzamy nową niezależną zmienną xd, która charakteryzuje dryf. Wstawiamy xd \u003d x1 x2 x3. W jednym z bloków wybieramy eksperymenty, dla których xd \u003d + 1, aw drugim - dla których xd \u003d - 1. Formalnie planowanie to można rozpatrywać jako eksperyment typu 24–1 o współczynniku generowania xd \u003d x1 x2 x3.

Planowanie dryfu czasu Blok х1 х2 х3 хд \u003d х1 х2 х3 Reakcja 1 - 1 +1 - 1 - 1 +1 +1 +1 +1 +1 - 1 - 1 2 y 1 + βd y 2 + βd y 3+ βd y 4 + βd y 5 - βd y 6 - βd y 7 - βd y 8 - βd

Jeśli szukamy równania regresji w postaci y \u003d b 0 + b 1 x 1 + b 2 x 2 + b 3 x 3 + b 12 x 1 x 2 + b 23 x 2 x 3 + b 123 x 1 x 2 x 3, wówczas współczynniki regresji będą następującymi oszacowaniami: b 0 → β 0; b 1 → β 1; b 2 → β 2; b 3 → p 3; b 12 → p 12; b 13 → β 13; b 23 → β 23; b 123 → β 123 + βd; Obliczmy na przykład współczynniki b 1 i b 123: b 1 \u003d (- (y 1 + βд) + (y 2 + βд) - (y 3 + βд) + (y 4 + βд) - (y 5 - βд) + (y 6– βд) - (y 7 - βд) + (y 8 - βд)) / 8 \u003d \u003d (- y 1 + y 2 - y 3 + y 4 - y 5 + y 6 - y 7 + y 8) / 8; b 123 \u003d ((y 1 + βe) + (y 2 + βe) + (y 3 + βe) + (y 4 + βe) - (y 5 - βe) - (y 6– βe) - (y 7– βд) - (y 8 - βд)) / 8 \u003d \u003d (y 1 + y 2 + y 3 + y 4 - y 5 - y 6 - y 7 - y 8) / 8 + βд. W konsekwencji wszystkie współczynniki regresji, z wyjątkiem b 123, nie zawierają błędów wynikających z dryfu czasu.

Analizę dryfu czasu można również przeprowadzić za pomocą magicznych kwadratów. Niech zostanie przeprowadzone N niezależnych eksperymentów. Liczby od 1 do N to niektóre parametry czasu, takie jak godziny lub dni. Zakłada się, że gdy przeprowadzane są eksperymenty N, następuje przesunięcie w czasie danych eksperymentalnych. Dryft jest liniowy. Rozważ projekt, który łączy magiczny kwadrat z pełnym eksperymentem silniowym 24.

Rozważmy wyniki wyznaczenia zależności twardości kauczuków od temperatury wulkanizacji (\u003d 180 ° C i \u003d 140 ° C), czasu trwania procesu (\u003d 17 min i \u003d 5 min) oraz dawki przyspieszacz (\u003d 1,2 części masowych i \u003d 0,4 części wagowych) i wypełniacz (\u003d 30 części wagowych i \u003d 10 części wagowych). Zaimplementowano pełny eksperyment czynnikowy 24 Powiedzmy, że zakładamy jeden eksperyment każdego dnia, a następnie wszystkie eksperymenty będą wykonywane w ciągu 16 dni. W tym czasie występuje dryf liniowy. Aby uchronić się przed tym dryfem, umieśćmy PFE 24 na magicznym, symetrycznym kwadracie 4 4, którego elementami są liczby szesnastu eksperymentów. Taki plan jest akceptowalny, jeśli interakcje x1 x4 i x2 x3 są nieistotne.

Eksperyment czynnikowy 24 w połączeniu z 4 4 magicznym kwadratem x 1 (+1) x 2 (+1) x 4 (+1) x 3 (+1) x 1 (- 1) x 2 (+1) x 2 (- 1) 16 72,0 2 70,0 3 73,8 13 59,8 x 4 (- 1) 5 69,8 11 57,8 10 62,7 8 54,7 x 4 (+1) x 3 (- 1) 9 67,5 7 59,3 6 64,4 12 52,2 x 4 (- 1) 4 62,4 14 48,3 15 52,2 1 50,2

„X 1 \u003d [- 1; jeden; -jeden; jeden; -jeden; jeden]; „X 2 \u003d [- 1; -jeden; jeden; jeden; -jeden; jeden; jeden]; "X 3 \u003d [- 1; -jeden; jeden; jeden; jeden; jeden]; "X 4 \u003d [- 1; -jeden; jeden; jeden; jeden]; „Y \u003d; "X \u003d; "B \u003d (inv (X" * X)) * (X "* y) b \u003d 61. 0687 2,3187 4,5312 4,0062 3,8063 "Y \u003d X * b; „Max (abs (y-Y)) ans \u003d 3,7938” [(y-Y). / r * 100] ans \u003d 7,5573 "(64,7 -61,1) / 15 * 2 ans \u003d 0. 4800 Ostatnia formuła porównuje wartości odpowiedzi przed dryfem i po dryfcie. Gdyby nie było dryftu, wartość odpowiedzi w punkcie zerowym wyniosłaby 64,7 jednostki, aw wyniku dryftu (przebywania w agresywnym środowisku) spadła o 3,6 jednostki.

ANALIZA KORELACJI Zależność między dwiema zmiennymi nazywa się statystyczną, jeśli każda wartość jednej z nich odpowiada zbiorowi wartości drugiej, ale liczba tych wartości nie jest stała, a same wartości nie odzwierciedlają pewien wzór. Rozważmy obserwacje dwuwymiarowe, to znaczy te obserwacje, które dają wartości dwóch zmiennych losowych x i y. Posługujemy się następującą charakterystyką statystyczną - kowariancją lub drugim mieszanym momentem centralnym (innymi słowy, momentem korelacji) wartości xiy: Współczynnik korelacji

Poprawne są następujące relacje: y \u003d a + bx; x \u003d a + ׳ b ׳ y Otrzymujemy zatem dwa równania regresji, które odpowiadają dwóm różnym matematycznym sformułowaniom problemu: w pierwszym przypadku wartością minimalną jest suma kwadratów odchyleń wziętych równolegle do osi rzędnych, w przypadek drugi - suma kwadratów odchyleń wziętych na równoległej osi odciętych.

Przy obliczaniu współczynników regresji można wykorzystać następujące zależności: β \u003d + φ Gdy rxy \u003d 1, tgφ \u003d 0, dlatego w tym konkretnym przypadku obie linie regresji pokrywają się. Każda ze zmiennych staje się funkcją liniową drugiej zmiennej. Gdy rxy \u003d 0, otrzymujemy dwie wzajemnie prostopadłe proste równoległe do osi współrzędnych i przechodzące przez punkt o współrzędnych.W tym przypadku oczywiste jest, że nie może istnieć liniowa zależność statystyczna między zmiennymi.

y 1 - naprężenie warunkowe przy 100% wydłużeniu, MPa; y 2 - naprężenie warunkowe przy wydłużeniu 200%, MPa; y 3 - naprężenie konwencjonalne przy wydłużeniu 300%, MPa; y 4 - warunkowa wytrzymałość na rozciąganie, MPa; y 5 - wydłużenie przy zerwaniu,%; y 6 - wytrzymałość na rozdzieranie, k. N / m; y 7 - twardość w skali Shore'a A.

Zrozumienie korelacji za pomocą modelu cosinusowego Zależność między charakterystykami wulkanizacji ν \u003d 877; r \u003d 0. 968; r \u003d 0. 935; r \u003d 0. 984; tgφ \u003d - 0,0281.tgφ \u003d - 0,0535 tgφ \u003d - 0,0155.

OPTYMALIZACJA WYSZUKIWANIA JEDNOWYMIAROWEGO Metoda sekwencyjnej dychotomii przewiduje umieszczenie na każdym etapie eksperymentu dwóch nowych punktów położonych symetrycznie względem środka przedziału niepewności w pewnej odległości od siebie. Tutaj jest jak najmniejsza wartość, ograniczona od dołu mocą rozdzielczą dop przy pomiarze wartości x. Wartość dop jest minimalną różnicą między sąsiednimi obserwacjami x, którą można wykryć instrumentalnie za pomocą tych narzędzi pomiarowych, które są do dyspozycji eksperymentatora.

Metoda przeszukiwania Fibonacciego opiera się na wykorzystaniu liczb Fibonacciego Fk, wyznaczonych przez powtarzającą się relację postaci: Fk \u003d Fk-1 + Fk-2, k\u003e 1, F 0 \u003d F 1 \u003d 1. N 1 2 3 4 5 6 7 8 9 FN 1 2 3 5 8 13 21 34 55 Metoda złotego podziału jest szczególną wersją metody Fibonacciego i różni się od niej jedynie tym, że w metodzie złotego podziału występuje brak konieczności obowiązkowego wstępnego określenia całkowitej liczby eksperymentów N. Współrzędne x (1) (pierwszy punkt tej metody) określa wzór: x (1) \u003d xmin + q L,

WYSZUKIWANIE WIELOWYMIAROWE Wielowymiarowość sprawia, że \u200b\u200bunimodalność jest mniej prawdopodobna Nie można znaleźć miary efektywności poszukiwań, która w jakiś sposób nie zależy od szczęścia eksperymentatora. Postrzeganie wielkości w przestrzeniach wielowymiarowych. Istnieje wiele różnych metod wyszukiwania wielowymiarowego. W przyszłości rozważymy tylko kilka z nich, które są najczęściej używane do eksperymentalnej optymalizacji. Metody te można podzielić na dwie duże grupy: gradientowe i bezgradientowe metody wyszukiwania ekstremów.

Metoda poszukiwania współrzędnych (metoda Gaussa-Seidla) Metoda Gaussa-Seidla jest bardzo prosta w praktycznym zastosowaniu, jest dość odporna na hałas. Jest jednak jasne, że trajektoria poszukiwań prawdopodobnie nie będzie najkrótsza. Również metoda Gaussa. Seidel ma tendencję do fałszywego zatrzymywania procedury, jeśli punkt poszukiwania znajduje się na wąskiej grani podczas ruchu.

PLANOWANIE EKSTREMALNYCH DOŚWIADCZEŃ W WARUNKACH PRZEMYSŁOWYCH 1. Eksperyment przemysłowy powinien, równolegle z normalną eksploatacją obiektu i produkcją produktów handlowych, dostarczyć użytecznych informacji umożliwiających znalezienie optymalnych warunków kontrolnych dla obiektu. 2. Aby wydobyć takie informacje, można zaimplementować celowe "poruszanie się" obiektu wokół tzw. "Trybu pracy", zaplanować próbne etapy zmienności czynnikami sterowalnymi i uwydatnić wpływ badanych zmiennych na odpowiedź pod warunki hałasu z wykorzystaniem analizy regresji. 3. W warunkach produkcyjnych w porównaniu z warunkami laboratoryjnymi występuje duża liczba niekontrolowanych i niekontrolowanych czynników wpływających na przebieg procesu. 4. Powolne (w stosunku do częstotliwości eksperymentów) wahania losowe niektórych niekontrolowanych i niekontrolowanych czynników obiektu przemysłowego powodują nieregularny dryf w czasie powierzchni odpowiedzi docelowej w stosunku do czynników kontrolowanych, czyli nieregularną zmianę w czasie całej powierzchni, a więc współrzędne punktu jej ekstremum w ich przestrzeni. 5. W środowisku przemysłowym nie ma specjalnej kadry wysoko wykwalifikowanych naukowców do realizacji optymalizacji adaptacyjnej, ale jednostka produkcyjna posiada raczej niskokwalifikowaną kadrę utrzymania ruchu. Nie ma nawet takiego nasycenia badań urządzeniami pomiarowymi, rejestrującymi i obliczeniowymi, jakie jest nieodłączne dla eksperymentu laboratoryjnego. Dlatego plany i algorytmy obliczeniowe do przetwarzania obserwacji eksperymentu przemysłowego powinny być dość proste. 6. Adaptacyjna optymalizacja zaplecza produkcyjnego zakłada ciągłe badania i dostosowywanie obiektu, czyli nieograniczony czasowo eksperyment przemysłowy, a więc nieograniczoną liczbę jego eksperymentów.

PROGRAMOWANIE LINIOWE W wielu sytuacjach, które mogą wystąpić w przemyśle, działalność gospodarcza pod pewnymi ograniczeniami wymagane jest maksymalizowanie lub minimalizowanie określonej wartości ilościowej. Na przykład biznesmen chce zmaksymalizować swój zysk, ale jednocześnie ogranicza go całkowita liczba posiadanych samochodów, dostępność ludzi, kapitał, który może zainwestować i szereg innych czynników ekonomicznych. Przykład. Istnieją trzy substancje o złożonym składzie B 1, B 2 i B 3 o różnych cenach. Każdy z nich zawiera określoną ilość niezbędnych składników I 1, I 2, I 3 i I 4 Wiadomo, że w ciągu dnia I 1 - co najmniej 250, A 2 - co najmniej 60, A 3 - co najmniej 100 i I 4 - nie mniej niż 220. Konieczne jest zminimalizowanie kosztów zakupu tych substancji. Oczywiście ilość zakupionych substancji nie może być ujemna.

Zawartość niezbędnych składników w substancjach i ceny tych substancji В 1 В 2 В 3 И 1 4 6 15 И 2 2 2 0 И 3 5 3 4 И 4 7 3 12 Cena 44 35100

MATLAB zawiera Tool. Box Optimization ma na celu rozwiązanie tego rodzaju problemu. Używana jest funkcja linprog. Pierwszym argumentem linprog jest zawsze wektor f (wektor współczynników), następnie podaje się macierz A i wektor b. Decyzja. x 1, x 2 i x 3 to wymagane ilości substancji. Funkcja celu: f. To x \u003d 44 · x 1 + 35 · x 2 + 100 · x 3. W przypadku występowania ograniczeń w postaci równości dodatkowymi argumentami mogą być Aeq i beq, ostatecznie, dwustronne ograniczenia są szóstym i siódmym argumentem funkcji linprog. Ponieważ ograniczenia liniowe zawierają „mniejszy lub równy”, a ilość składników w produktach nie powinna być mniejsza niż określone wartości, należy zmienić znaki obu części systemu. Aby rozwiązać problem, sporządzany jest plik programu. Gdy wywoływana jest funkcja linprog, zamiast nieużywanych argumentów (bez ograniczeń równości i bez górnej granicy dla niewiadomych), ustawiane są puste tablice, oznaczone przez.

Decyzja. Macierz A i wektory b i lb: \u003d linprog (f, A, b, lb,); p \u003d 1. 8118 e + 003; R - całkowity koszt produkty. Interpretacja. Warto pomnożyć A przez x, określić zalecaną zawartość składnika i porównać ją z minimalną dopuszczalną. A * x \u003d [-250; -60: -142. 14; -220]; Porównując te liczby z wektorem b, można stwierdzić, że trzeci składnik jest przeszacowany. Wynika to z faktu, że nie było ograniczenia maksymalnej zawartości.

OBSERWACJE KONTROLNE Jedno z najważniejszych zastosowań teorii statystycznej znajduje się w statystycznych metodach kontroli, wśród których dobrze znanym przykładem jest kontrola jakości. Kontrola jakości to najpowszechniej stosowana branża. Technika kontroli jakości ma dwa główne zastosowania. Znajduje swoje pierwsze zastosowanie w sterowaniu procesem, w którym mierzy się rzeczywisty proces, taki jak działanie maszyny, w celu oceny postępu prac w obecnym czasie i, jak sugerowano, zapewnienia podstawy dla pracy w bliska przyszłość. Znajduje drugie zastosowanie w kontroli akceptacji, która ocenia dotychczasowy postęp poprzez pomiar jakości wyprodukowanych towarów. Dlatego ta druga aplikacja dotyczy skończonego zestawu rzeczy, które już zostały wyprodukowane, podczas gdy kontrola procesu ma na celu sprawdzenie samego postępu faktycznej produkcji. Pozwala to kierownictwu identyfikować wady procesu niemal jednocześnie z ich pojawieniem się, a tym samym zapobiegać uwalnianiu wadliwych produktów.

Metoda sterowania opiera się na właściwościach krzywej normalnej. Około 99,7% wszystkich obserwowanych wartości, wziętych z populacji o rozkładzie normalnym, mieści się w przedziale trzech odchyleń standardowych po obu stronach średniej, a zatem tylko około trzech na tysiąc obserwacji wykracza poza te granice. Na tej podstawie można sporządzić wykres kontrolny, który pokazuje możliwe wartości na osi pionowej i serię kolejnych liczb całkowitych reprezentujących kolejne obserwacje wzdłuż osi poziomej. Pozioma linia jest rysowana na wysokości odpowiadającej średniej; poziome linie są również rysowane na wysokościach reprezentujących granice kontrolne. Górną granicę kontrolną ustala się na wysokości odpowiadającej średniej plus trzy odchylenia standardowe (S. o.); Dolna granica kontrolna jest ustawiona na wysokości odpowiadającej średniej minus trzy odchylenia standardowe, więc około 99,7% wszystkich odczytów powinno mieścić się w tym zakresie.

Wykresy kontrolne można wykorzystać: 1. Jako sygnał, że w procesie zaszła jakaś zmiana oraz jako oszacowanie wielkości zmiany, dla której wymagana jest korekta. 2. Wyłącznie jako sygnał, że w procesie zaszła jakaś zmiana, aby operator miał świadomość, że proces wymaga jego uwagi. 3. Oszacowanie liczby przypadków w przeszłości, w których zaszły zmiany w procesie, i ustalenie na ich podstawie przyczyn tych zmian. 4. Jako miara jakości produktu do klasyfikacji według okresów. W produkcji najczęściej stosuje się: 1) karty kontrolne Shewharta (karty R i s - wartości średnie, rozstępy i odchylenie standardowe); 2) mapy ruchomych średnich geometrycznych (krocząca wykładniczo ważona średnia) i ruchomych zakresów; 3) karty zgromadzonych kwot; 4) wielowymiarowe karty kontrolne.

Karty kontrolne i R dla charakterystyk utwardzania t 10, t 50 it 90 Wykres skumulowanych ilości

OPIS PRAWIE STACJONARNEGO OBSZARU Podczas badania obszaru prawie stacjonarnego pojawia się szereg nowych złożonych problemów. Jeśli chcemy opisać tę część powierzchni odpowiedzi wielomianem (wielomianem) drugiego rzędu, to zmienne muszą się zmieniać już na trzech poziomach. Powstaje trudne zadanie konstruowania takich planów. W tym miejscu przede wszystkim należy wybrać rozsądne kryterium optymalności. W każdym razie od samego początku było jasne, że plany pełnego eksperymentu silniowego typu 3 n (n to liczba czynników) są tutaj nie do przyjęcia, ponieważ wymagałyby zbyt wielu eksperymentów. Jeśli trzy czynniki wynoszą 33 \u003d 27, cztery czynniki to 34 \u003d 81. W pracy Boxa i Wilsona (1951) wysunięto pomysł konstruowania planów kompozycyjnych, których rdzeniem są liniowe rzuty ortogonalne. Przyjmuje się, że będąc na prawie stacjonarnym terenie, badacz najpierw przeprowadza eksperymenty z wykorzystaniem planów liniowych. Następnie, upewniając się, że hipoteza liniowości nie działa tutaj, uzupełnia plan liniowy do planu drugiego rzędu; stąd sama nazwa - plan kompozycyjny.

Rozważmy taką sytuację: są dwa czynniki i na pierwszym etapie budujemy pełny eksperyment czynnikowy (FFE) 22. Na rysunku punkty tego planu zaznaczono wypełnionymi okręgami. Następnie pośrodku kwadratu umieszcza się eksperyment, aby sprawdzić hipotezę adekwatności. Wtedy realizowane są punkty „gwiazdowe”. Wybór planu jest zawsze decyzją kompromisową podejmowaną w wyniku dialogu. Wcześniej był to dialog z katalogiem-katalogiem planów, teraz jest to dialog z komputerem.

Ortogonalność planu. O projekcie mówi się, że jest ortogonalny, jeśli macierz kowariancji projektu zawiera wszystkie elementy zerowe z wyjątkiem głównej przekątnej (macierzy diagonalnej). W przypadku planów ortogonalnych wszystkie oceny współczynników są niezależne: elipsoida rozpraszająca jest zorientowana tak, że kierunek jej głównych osi pokrywa się z kierunkiem osi współrzędnych w przestrzeni współczynników. Rotacyjność planu. Plany obrotowe mają macierz kowariancji, która jest niezmienna w stosunku do rotacji współrzędnych; pozwalają one uzyskać taką samą wariancję przewidywanych wartości funkcji odpowiedzi we wszystkich punktach równoodległych od środka eksperymentu. Spełnienie tego warunku powoduje, że każdy kierunek od środka eksperymentu jest równoważny pod względem dokładności oszacowania powierzchni. Jeżeli kontury informacyjne projektu są reprezentowane jako powierzchnie o równych wartościach wariancji oszacowania powierzchni odpowiedzi, to w przypadku projektu obrotowego powierzchnie te będą sferami.

ZASTOSOWANIE NOWOCZESNYCH PRODUKTÓW OPROGRAMOWANIA DO ANALIZY OBSZARU PRAWIE STACJONARNEGO Siatka doświadczalna utworzona z linii przerywanych bez aproksymacji równaniem Powierzchnia odpowiedzi odpowiadająca największą wartość współczynnik determinacji

ZASTOSOWANIE NOWOCZESNYCH PRODUKTÓW OPROGRAMOWANIA DO ANALIZY OBSZARÓW PRAWIE STACJONARNYCH Powierzchnia odpowiedzi odpowiadająca modelowi 310 wg katalogu programu TC 3 D Powierzchnia odpowiedzi odpowiadająca modelowi 301 wg katalogu programu TC 3 D

KONSTRUKCJA SCHEMATÓW SKŁADOWO-WŁASNOŚCIOWYCH Szczególnym przypadkiem rozwiązania problemu opisu obszaru prawie stacjonarnego jest budowa modeli regresji dla układów będących mieszaniną dwóch lub więcej różnych składników. Zmiennymi xi takich układów są proporcje (zawartość względna) kilku (np. Trzech) składników mieszaniny i spełniają warunek xi \u003d x 1 + x 2 + x 3 \u003d 1Lokus punktów spełniający warunek normalizacji sum zmiennych to dwuwymiarowy simplex (trójkąt) ... Każdy punkt sympleksu odpowiada mieszaninie o pewnym składzie, a dowolna kombinacja względnych zawartości trzech składników odpowiada pewnemu punktowi simplexu. W rozważanej przez nas sytuacji wierzchołki sympleksu odpowiadają 100% zawartości każdego składnika; boki trójkąta naprzeciw tych wierzchołków odpowiadają zerowej zawartości tego składnika; względna zawartość każdego składnika jest wykreślana wzdłuż odpowiedniego boku trójkąta składu. Skład można wyrazić w ułamkach molowych, masowych i objętościowych lub w procentach.

Obniżając wysokość z każdego wierzchołka trójkąta, dzieląc każdy z nich na dziesięć równych segmentów i przeciągając przez powstałe podziały proste linie równoległe do boków trójkąta, otrzymujemy trójkątną siatkę.

Aby rozwiązać problem konstruowania diagramu „własności-składu” na simplex, wskazane jest rozważenie modelu y \u003d y (x 1, x 2, x 3) (y jest odpowiedzią) w postaci zredukowanego wielomianu . Takie zredukowane wielomiany dla mieszanin trójskładnikowych przedstawiono poniżej. Model drugiego rzędu dla trzech zmiennych: y \u003d 1 x 1 + 2 x 2 + 3 x 3 + 12 x 1 x 2 + 13 x 1 x 3 + 23 x 2 x 3 Niekompletny model sześcienny: y \u003d 1 x 1 + 2 x 2 + 3 x 3 + 12 x 1 x 2 + 13 x 1 x 3 + 23 x 2 x 3 + 123 x 1 x 2 x 3 Model trzeciego rzędu: y \u003d 1 x 1 + 2 x 2 + 3 x 3 + 12 x 1 x 2 + 13 x 1 x 3 + 23 x 2 x 3 + + 12 (x 1 - x 2) + 13 (x 1 - x 3) + 23 (x 2 - x 3) + 123 x 1 x 2 x 3 Model czwartego rzędu: y \u003d 1 x 1 + 2 x 2 + 3 x 3 + 12 x 1 x 2 + 13 x 1 x 3 + 23 x 2 x 3 + + 12 (x 1 - x 2) + 13 (x 1 - x 3) + 23 (x 2 - x 3) + + 12 x 1 x 2 (x 1 - x 2) 2+ 13 x 1 x 3 (x 1 - x 3) 2+ 23 x 2 x 3 (x 2 - x 3) 2+ 1123 x 12 x 2 x 3+ 1223 x 1 x 22 x 3+ 1233 x 1 x 2 x 32 Wielomiany tego rodzaju uzyskuje się ze zwykłych wielomianów odpowiedniego stopnia, wprowadzając zależność xi \u003d x 1 + x 2 + x 3 \u003d 1

Na przykład wielomian drugiego stopnia, ogólnie mający postać y \u003d b 0 + b 1 x 1 + b 2 x 2 + b 3 x 3 + b 12 x 1 x 2 + b 13 x 1 x 3 + b 23 x 2 x 3 + b 11 x 12 + b 22 x 22 + b 33 x 32, w postaci zredukowanej, biorąc pod uwagę warunek xi \u003d x 1 + x 2 + x 3 \u003d 1 przyjmie postać y \u003d 1 x 1 + 2 x 2 + 3 x 3 + 12 x 1 x 2 + 13 x 1 x 3 + 23 x 2 x 3 W przejściu do postaci zredukowanej człon stały b 0 jest eliminowany z równania poprzez pomnożenie obu boki xi \u003d x 1 + x 2 + x 3 \u003d 1 przez b 0. b 0 x 1 + b 0 x 2 + b 0 x 3 \u003d b 0 i podstawienie otrzymanych wyników do równania y \u003d (b 0 + b 1) x 1+ (b 0 + b 2) x 2+ (b 0+ b 3) x 3 + b 12 x 1 x 2 + b 13 x 1 x 3 + b 23 x 2 x 3 + b 11 x 12 + b 22 x 22 + b 33 x 32 Eliminację składników kwadratowych można osiągnąć przez podstawienie do równania wartości x 12, x 22 i x 32 wartości x 12 \u003d x 1 - x 1 x 2 - x 1 x 3, x 22 \u003d x 2 - x 1 x 2 - x 2 x 3, x 32 \u003d x 3 - x 1 x 3 - x 2 x 3, utworzone przez pomnożenie stosunku xi \u003d x 1 + x 2 + x 3 \u003d 1 odpowiednio przez x 1, x 2 i x 3 y \u003d (b 0 + b 11) x 1+ (b 0+ b 22) x 2+ (b 0 + b 33) x 3+ (b 12 - b 11 - b 22) x 1 x 2+ + ( b 13 - b 11 - b 33) x 1 x 3 + (b 23 - b 22 - b 33) x 2 x 3 Wprowadzenie zapisu 1 \u003d b 0 + b 11; 2 \u003d b 0 + b 22; 3 \u003d b 0 + b 33; 12 \u003d b 12 - b 11 - b 22; 13 \u003d b 13 - b 11 - b 33; 23 \u003d b 23 - b 22 - b 33, otrzymujemy zredukowaną postać y \u003d 1 x 1 + 2 x 2 + 3 x 3 + 12 x 1 x 2 + 13 x 1 x 3 + 23 x 2 x 3

Zaproponowano projekty sympleksowo-kratowe w celu oszacowania współczynników zredukowanych wielomianów. W tabeli przedstawiono lokalizację punktów (macierz planowania) oraz oznaczenie odpowiedzi dla przypadku modelu drugiego rzędu. Współrzędne punktu odpowiedzi Współrzędne punktu odpowiedzi x 1 x 2 x 3 y 1 1 0 0 y 12 1/2 0 y 2 0 1 0 y 13 1/2 0 1/2 y 3 0 0 1 y 23 0 1/2

Aby zbudować model drugiego rzędu, punkty są realizowane na wierzchołkach trójkąta oraz w środkowych jego bokach. Rozmieszczenie punktów doświadczalnych w sieciach simplex (3, 2) (3, 3) * (3, 3) (3, 4) (4, 2) (q, n) -lattices, q to liczba składników mieszaniny, n jest stopniem wielomianu Wzory do obliczania parametrów modelu drugiego rzędu 1 \u003d y 1; 2 \u003d y 2; 3 \u003d y 3; 12 \u003d 4 lata 12 - 2 lata 1 - 2 lata 2; 13 \u003d 4 lata 13– 2 lata 1– 2 lata 3; 23 \u003d 4 lata 23– 2 lata 2– 2 lata 3.

Przykład. Wyniki badań wytrzymałości kauczuków porowatych na bazie kombinacji kauczuków SKMS-30 RP i BS-45 K, zawierających trzy rodzaje środków porotwórczych x1 - N, N'-dinitrozopentametylenotetramina (ChKhZ-18), x2 - azodikarbonamid (ChKhZ-21), x3 - wodorowęglan sodu. Współrzędne punktów i wyniki eksperymentu Współrzędne punktów x 1 x 2 x 3 1 0 0 0 1 0 0 σ, MPa Współrzędne punktów σ, MPa x 1 x 2 x 3 5. 6 5. 9 ½ 1/2 0 4. 4 4 4 7 0 3,2 1/2 0 1/2 5,15,4 1 6 0 6 3 0 1/2 3,8 4,0

Obliczanie współczynników zredukowanego wielomianu. σ \u003d 1 x 1 + 2 x 2 + 3 x 3 + 12 x 1 x 2 + 13 x 1 x 3 + 23 x 2 x 3, xi. 1 \u003d σ1; 2 \u003d σ2; 3 \u003d σ3; 12 \u003d 4σ12– 2σ1– 2σ2; 13 \u003d 4σ13– 2σ1– 2σ3; 23 \u003d 4σ23– 2σ2– 2σ3. β 1 \u003d (5,6 + 5,9) / 2 \u003d 5. 75; β 2 \u003d (3,0 + 3,2) / 2 \u003d 3. dziesięć; β 3 \u003d (6 0 + 6 3) / 2 \u003d 6. 15; β 12 \u003d 4 (4,4 + 4,7) / 2 -2 (5,6 + 5,9) / 2 -2 (3 0 + 3 2) / 2 \u003d 0. pięćdziesiąt; β 13 \u003d 4 (5,1 + 5,4) / 2-2 (5,6 + 5,9) / 2-2 (6,0 + 6,3) / 2 \u003d -2. 80; β 23 \u003d 4 (3,8 + 4,0) / 2 -2 (3,0 + 3,2) / 2 -2 (6,0 + 6,3) / 2 \u003d -2. 90. Równanie regresji ma postać: σ \u003d 5,75 x 1 + 3,10 x 2 + 6. 15 x 3 + 0,50 x 1 x 2 - 2,80 x 1 x 3 - 2,90 x 2 x 3 Sprawdzenie jednorodności dyspersji. Kryterium Cochrana: G \u003d S 2 max / Σ S 2 j. Średnie wartości: 5,75; 3. 10; 6,15; 4,55; 5,25; 3 90. Dyspersja: 0,045; 0,020; 0,045; 0,020. Stan jednorodności dyspersji: G.

Obliczanie wariancji odtwarzalności. N \u003d 6; S 2 E \u003d (0,045 + 0,020 + 0,045 + 0,020) / 6 \u003d 0. 037. Wartości odpowiedzi w punkcie kontrolnym 4. 1; 4. 3. σ0 cf \u003d 4. 20 MPa Sprawdzenie adekwatności modelu. \u003d a 12 + a 22 + a 32 + a 122 + a 132 + a 232; ai \u003d xi (2 xi-1); aij \u003d 4 xixj. t \u003d σ (r / (S 2 E (1 +)) 1/2, \u003d p (r-1), y \u003d | σcalc-σav | jest modułem różnicy między odpowiedzią obliczoną przez równanie a średnią odpowiedź określona eksperymentalnie w punkcie kontrolnym dla r powtarzanych obserwacji. a 1 \u003d a 2 \u003d a 3 \u003d 1/3 (2 1/3 -1) \u003d - 1/9; a 12 \u003d a 13 \u003d a 23 \u003d 4 1 / 3 \u003d 4/9; \u003d 3 (-1/9) 2 + 3 (4/9) 2 \u003d 0,630. Wartości wytrzymałości w środku planu: σ0 calc \u003d 5,75 / 3 + 3. 10/3 + 6. 15/3 + 0,50 / 9 - 2. 80/9 - 2. 90/9 \u003d 4,42 MPa.t \u003d | 4,42 -4,20 | · (2 \u200b\u200b/ (0,037 (1 + 0,630 )) 1/2 \u003d 1,27; \u003d 6 (2-1) \u003d 6; \u003d 5%; t (6; 0,05) \u003d 2,45.

Warunek adekwatności: tcal

Przykład. Wpływ składu matrycy polimerowej na efekt termiczny wulkanizacji. Wszystkie preparaty zawierały 15% wag. % gumy SKMS 30 RP i 30% wag. % mieszaniny polimerów: kauczuk SKD (x1), polistyren (x2) i guma SKMS-30 RP (x3) w różnych proporcjach. Wszystkie systemy zawierały środki porotwórcze. Do budowy diagramów wykorzystano program w systemie MATLAB. Ale wprowadzono w nim pewne poprawki, które umożliwiły wdrożenie procedury w następującej kolejności. Używając programu Table Curve 3 D, tworzony jest model zawierający dwa czynniki x1 i x2. Następnie kompilowana jest kolumna wartości parametrów otrzymanego modelu b. ta kolumna jest wprowadzana do okna poleceń MATLAB. Następnie otwiera się program modułowy do tworzenia schematów. Możliwe równania są wstępnie załadowane do tego programu. Takie podejście pozwala obliczyć kilka konkurencyjnych modeli i ocenić ich cechy statystyczne. W rozpatrywanym przypadku uzyskano następujące modele: 310 z \u003d a + bx + cy + dx ^ 2 + ey ^ 2 + fxy + gx ^ 3 + hy ^ 3 + ixy ^ 2 + jx ^ 2 y; 1301 z \u003d (a + cx + ey + gx ^ 2 + iy ^ 2 + kxy) / (1 + bx + dy + fx ^ 2 + hy ^ 2 + jxy); 301 z \u003d a + bx + cy + dx ^ 2 + ey ^ 2 + fxy; 65 z \u003d a + bx + cx ^ 2 + dx ^ 3 + ex ^ 4 + fx ^ 5 + gy + hy ^ 2 + iy ^ 3 + jy ^ 4 + ky ^ 5; 50 z \u003d a + bx + cx ^ 2 + dx ^ 3 + ex ^ 4 + fy + gy ^ 2 + hy ^ 3 + iy ^ 4 + jy ^ 5.

Na rysunku po lewej stronie ciągłe linie przedstawiają kontury uzyskane za pomocą modelu trzeciego rzędu (310), a linia przerywana - modele drugiego rzędu. Po prawej stronie pokazano linie konturowe (pełne) dla modeli 65 i 50. Praktycznie się pokrywają. Linia przerywana pokazuje linie konturowe dla modelu 1301 z katalogu TC 3 D.

1. Historia planowania eksperymentów

Planowanie eksperymentów jest produktem naszych czasów, ale jego początki giną we mgle czasu.

Początki planowania eksperymentów sięgają czasów starożytnych i są związane z mistycyzmem numerycznym, przepowiedniami i przesądami.

Nie chodzi tu o planowanie fizycznego eksperymentu, ale planowanie eksperymentu numerycznego, tj. ułożenie liczb tak, aby były spełnione pewne ścisłe warunki, na przykład dla równości sum w wierszach, kolumnach i przekątnych kwadratowej tabeli, której komórki są wypełnione liczbami liczb naturalnych.

Takie warunki spełniają magiczne kwadraty, które najwyraźniej należą do prymatu w planowaniu eksperymentu.

Według jednej legendy około 2200 roku pne. Chiński cesarz Yu wykonał mistyczne obliczenia przy użyciu magicznego kwadratu, który został przedstawiony na skorupie boskiego żółwia.

Plac cesarza Yu

Komórki tego kwadratu są wypełnione liczbami od 1 do 9, a sumy liczb w wierszach, kolumnach i głównych przekątnych wynoszą 15.

W 1514 roku niemiecki artysta Albrecht Durer namalował magiczny kwadrat w prawym rogu swojej słynnej rycerskiej alegorii „Melancholia”. Dwie cyfry w dolnym poziomym rzędzie (A5 i 14) oznaczają rok, w którym wykonano grawerunek. To było swego rodzaju „zastosowanie” magicznego kwadratu.

Plac Dürera

Przez kilka stuleci budowanie magicznych kwadratów zajmowało umysły matematyków indyjskich, arabskich, niemieckich, francuskich.

Obecnie magiczne kwadraty są wykorzystywane do planowania eksperymentu w warunkach dryfu liniowego, planowania obliczeń ekonomicznych i zestawiania racji, w teorii kodowania itp.

Konstrukcja magicznych kwadratów jest zadaniem analizy kombinatorycznej, której fundamenty w jej współczesnym rozumieniu położył G. Leibniz. Nie tylko rozważał i rozwiązał główne problemy kombinatoryczne, ale także wskazał na wielkie praktyczne zastosowanie analizy kombinatorycznej: do kodowania i dekodowania, do gier i statystyki, do logiki wynalazków i logiki geometrii, do sztuki wojennej, gramatyka, medycyna, orzecznictwo, technologia i kombinacje obserwacji. Ostatni obszar zastosowań jest najbliższy projektowi eksperymentalnemu.

Jeden z problemów kombinatorycznych, bezpośrednio związany z planowaniem eksperymentu, był przedmiotem badań słynnego petersburskiego matematyka L. Eulera. W 1779 r. Jako matematyczną ciekawostkę zaproponował problem 36 oficerów.

Zadał pytanie, czy można wybrać 36 oficerów 6 stopni z 6 pułków, po jednym oficerze każdego stopnia z każdego pułku i ustawić ich w kwadracie tak, aby w każdym rzędzie iw każdym stopniu był jeden oficer z każdego pułku. stopień i jeden z każdego pułku ... Zadanie jest równoważne z konstruowaniem sparowanych ortogonalnych kwadratów 6x6. Okazało się, że tego problemu nie da się rozwiązać. Euler zasugerował, że nie ma pary ortogonalnych kwadratów rzędu n \u003d 1 (mod 4).

W szczególności problem Eulera i ogólnie łacińskie kwadraty były następnie badane przez wielu matematyków, ale prawie żaden z nich nie pomyślał o praktyczne zastosowanie Kwadraty łacińskie.

Obecnie kwadraty łacińskie są jednym z najpopularniejszych sposobów ograniczenia randomizacji w obecności dyskretnych źródeł niejednorodności w projekcie eksperymentu. Pogrupowanie elementów kwadratu łacińskiego, ze względu na swoje właściwości (każdy element pojawia się raz i tylko raz w każdym rzędzie iw każdej kolumnie kwadratu) pozwala zabezpieczyć główne efekty przed wpływem źródła niejednorodności. Kwadraty łacińskie są również szeroko stosowane jako sposób na zmniejszenie wyliczenia w problemach kombinatorycznych.

Pojawienie się nowoczesnych metod statystycznych planowania eksperymentów wiąże się z nazwiskiem R. Fishera.

W 1918 roku rozpoczął swoją słynną serię prac w Rochemstead Agrobiological Station w Anglii. W 1935 roku ukazała się jego monografia „Projektowanie eksperymentów”, od której wzięła się nazwa całego kierunku.

Wśród metod planowania pierwszą była analiza wariancji (nawiasem mówiąc, Fischer należy również do terminu „wariancja”). Fisher położył podwaliny pod tę metodę, opisując pełne klasyfikacje ANOVA (eksperymenty jednokierunkowe i wielowymiarowe) oraz niepełne klasyfikacje ANOVA bez ograniczeń i z ograniczeniem do randomizacji. Robiąc to, szeroko wykorzystywał łacińskie kwadraty i diagramy blokowe. Wraz z F. Yatesem opisał ich właściwości statystyczne. W 1942 roku A. Kishen rozważał planowanie z użyciem kostek łacińskich, co było dalszym rozwinięciem teorii kwadratów łacińskich.

Następnie R. Fischer niezależnie opublikował informacje o ortogonalnych hiper-grecko-łacińskich sześcianach i hiper-sześcianach. Niedługo potem (1946-1947) R. Rao rozważył ich kombinatoryczne właściwości. Dalszy rozwój teorii kwadratów łacińskich poświęcony jest pracom H. Manna (A947–1950).

Badania R. Fischera, prowadzone w związku z pracami nad agrobiologią, stanowią początek pierwszego etapu rozwoju metod planowania eksperymentów. Fischer opracował metodę planowania czynnikowego. Yegs zaproponował prosty schemat obliczeniowy dla tej metody. Planowanie czynnikowe stało się powszechne. Cechą pełnego eksperymentu silniowego jest konieczność przeprowadzania dużej liczby eksperymentów naraz.

W 1945 roku D. Finney wprowadził ułamkowe wskazówki z eksperymentu czynnikowego. To radykalnie zmniejszyło liczbę eksperymentów i otworzyło drogę dla zastosowań planowania technicznego. Inną możliwość zmniejszenia wymaganej liczby eksperymentów wykazali w 1946 R. Plackett i D. Berman, którzy wprowadzili nasycone plany czynnikowe.

W 1951 roku prace amerykańskich naukowców J. Boxa i C. Wilsona zapoczątkowały nowy etap w rozwoju planowania eksperymentów.

Ta praca podsumowuje poprzednie. Wyraźnie artykułuje i komunikuje praktyczne zalecenia idea sekwencyjnego eksperymentalnego wyznaczania optymalnych warunków dla procesów metodą najmniejszych kwadratów estymacji współczynników ekspansji mocy, poruszania się po gradiencie i znajdowania wielomianu interpolacyjnego (szeregu potęgowego) w obszarze ekstremum odpowiedzi funkcja (region „prawie stacjonarny”)

W latach 1954-1955. J. Box, a następnie J. Box i P. Yule wykazali, że planowanie eksperymentu może być wykorzystane w badaniu fizykochemicznych mechanizmów procesów, jeśli zostanie sformułowana a priori jedna lub kilka możliwych hipotez. Tutaj planowanie eksperymentu zazębiało się z badaniami nad kinetyką chemiczną. Warto zauważyć, że kinetykę można postrzegać jako metodę opisu procesu za pomocą równań różniczkowych, których tradycja sięga I. Newtona. Opisowi procesu za pomocą równań różniczkowych, zwanych deterministycznymi, często przeciwstawia się modele statystyczne.

Box i J. Hunter sformułowali zasadę rotacji, aby opisać „prawie stacjonarny” region, który obecnie przekształca się w ważną gałąź teorii projektowania eksperymentów. W tym samym artykule przedstawiono możliwość szeregowania z podziałem na bloki ortogonalne, wskazaną wcześniej niezależnie przez de Bauna.

Dalszym rozwinięciem tej idei było planowanie ortogonalnego do niekontrolowanego dryftu czasu, co należy uznać za ważne odkrycie w technice eksperymentalnej - znaczący wzrost możliwości eksperymentatora.


2. Matematyczne planowanie eksperymentu w badaniach naukowych

2.1 Podstawowe pojęcia i definicje

Przez eksperyment rozumiemy zestaw operacji wykonywanych na przedmiocie badań w celu uzyskania informacji o jego właściwościach. Eksperyment, w którym badacz może według własnego uznania zmienić warunki swojego postępowania, nazywa się eksperymentem aktywnym. Jeśli badacz nie może samodzielnie zmienić warunków swojego postępowania, a jedynie je rejestruje, to jest to eksperyment pasywny.

Najważniejszym zadaniem metod przetwarzania informacji uzyskanych w trakcie eksperymentu jest skonstruowanie modelu matematycznego badanego zjawiska, procesu, przedmiotu. Może być stosowany zarówno do analizy procesów, jak i projektowania obiektów. Dobry przybliżony model matematyczny można uzyskać, jeśli celowo zastosuje się aktywny eksperyment. Kolejnym zadaniem przetwarzania informacji uzyskanych w trakcie eksperymentu jest zadanie optymalizacji, tj. znalezienie takiej kombinacji wpływających zmiennych niezależnych, przy której wybrany wskaźnik optymalności przyjmuje wartość ekstremalną.

Doświadczenie to osobna część eksperymentalna.

Plan eksperymentu - zbiór danych określających liczbę, warunki i kolejność eksperymentów.

Planowanie eksperymentu to wybór planu eksperymentu spełniającego określone wymagania, zestawu działań mających na celu opracowanie strategii eksperymentu (od uzyskania informacji a priori do uzyskania działającego modelu matematycznego lub określenia optymalnych warunków). Jest to celowa kontrola eksperymentu, która realizowana jest w warunkach niepełnej wiedzy o mechanizmie badanego zjawiska.

W procesie pomiarów, późniejszego przetwarzania danych, a także formalizacji wyników w postaci modelu matematycznego, powstają błędy i część informacji zawartych w danych wyjściowych zostaje utracona. Zastosowanie eksperymentalnych metod planowania pozwala określić błąd modelu matematycznego i ocenić jego adekwatność. Jeśli dokładność modelu okaże się niewystarczająca, wówczas zastosowanie eksperymentalnych metod planowania pozwala na modernizację modelu matematycznego dodatkowymi eksperymentami bez utraty wcześniejszych informacji i przy minimalnych kosztach.

Celem planowania eksperymentu jest znalezienie takich warunków i zasad przeprowadzania eksperymentów, w których możliwe jest uzyskanie wiarygodnych i rzetelnych informacji o przedmiocie przy najmniejszym nakładzie pracy, a także przedstawienie tych informacji w zwartej i wygodnej formie z ilościową ocena dokładności.

Niech interesuje nas nieruchomość (Y) obiekt zależy od kilku ( n) niezależne zmienne ( X 1, X 2, ..., X n) i chcemy poznać naturę tej zależności - Y \u003d F (X 1, X 2, ..., X n) , o którym mamy tylko główny pomysł... Ilość Y - zwana „odpowiedzią”, a sama zależność Y \u003d F (X 1, X 2, ..., X n) - „funkcja odpowiedzi”.

Odpowiedź należy określić ilościowo. Jednak mogą również występować oznaki jakościowe. Y ... W takim przypadku możliwe jest zastosowanie podejścia rankingowego. Przykładem podejścia rankingowego jest ocena na egzaminie, gdzie złożony zestaw informacji o wiedzy studenta jest oceniany za pomocą jednej liczby.

Niezależne zmienne X 1, X 2, ..., X n - w przeciwnym razie czynniki należy również określić ilościowo. Jeśli stosowane są czynniki jakościowe, każdemu poziomowi należy przypisać numer. Ważne jest, aby jako czynniki wybierać tylko zmienne niezależne, tj. tylko te, które można zmienić bez wpływu na inne czynniki. Czynniki muszą być jednoznaczne. Aby zbudować efektywny model matematyczny, wskazane jest przeprowadzenie wstępnej analizy istotności czynników (stopień wpływu na funkcję), ich uszeregowanie oraz wykluczenie czynników nieistotnych.

Zakres zmienności czynników definiuje obszar definicji Y ... Jeśli przyjmiemy, że każdemu czynnikowi odpowiada oś współrzędnych, to powstała przestrzeń nazywana jest przestrzenią czynnikową. Dla n \u003d 2 dziedziną Y jest prostokąt, dla n \u003d 3 sześcian, a dla n\u003e 3 hipersześcian.

Przy wyborze zakresów do zmiany współczynników należy wziąć pod uwagę ich kompatybilność, tj. kontrolowanie, czy w tych zakresach dowolna kombinacja czynników byłaby możliwa do zrealizowania w eksperymentach i nie prowadziłaby do absurdu. Dla każdego z czynników wskazane są wartości graniczne

, ja =1, ... n .

Analiza regresji funkcji odpowiedzi ma na celu uzyskanie jej modelu matematycznego w postaci równania regresji

gdzie B 1, ..., B m - niektóre współczynniki; mi - błąd.

Wśród głównych metod planowania stosowanych na różnych etapach badania wykorzystują:

· Zaplanowanie eksperymentu przesiewowego, którego głównym znaczeniem jest dobór z całego zestawu czynników grupy istotnych czynników podlegających dalszym szczegółowym badaniom;

· Zaplanowanie eksperymentu do analizy wariancji, tj. sporządzanie planów obiektów uwzględniających czynniki jakościowe;

· Zaplanowanie eksperymentu regresji, który pozwoli uzyskać modele regresji (wielomian i inne);

· Zaplanowanie eksperymentu ekstremalnego, którego głównym zadaniem jest eksperymentalna optymalizacja obiektu badawczego;

Planowanie w badaniu procesów dynamicznych itp.

Inicjatorem zastosowania projektowania eksperymentalnego jest inny autor słynnych wczesnych prac Ronald A. Fisher - Frank Yates. Idee planowania eksperymentu zrodziły się ponadto z prac J. Boxa, J. Keefera. W naszym kraju - w pracach G.K. Kruga, E.V. Markov i inni.

Obecnie eksperymentalne metody planowania są wbudowane w specjalistyczne pakiety szeroko dostępne na rynku oprogramowania, np .: StatGrapfics, Statistica, SPSS, SYSTAT itp.

2.2 Prezentacja wyników eksperymentalnych

Korzystając z eksperymentalnych metod projektowania, konieczne jest znalezienie odpowiedzi na 4 pytania:

· Jakie kombinacje czynników i ile takich kombinacji należy przyjąć, aby określić funkcję odpowiedzi?

Jak znaleźć kursy B 0, B 1, ..., B m ?

· Jak ocenić dokładność reprezentacji funkcji odpowiedzi?

Jak używać wynikowej reprezentacji, aby znaleźć optymalne wartości Y ?

Reprezentacja geometryczna funkcji odpowiedzi w przestrzeni czynnikowej X 1, X 2, ..., X n zwana powierzchnią odpowiedzi (ryc. 1).


Postać: 1. Powierzchnia odpowiedzi

Jeśli efekt na Y tylko jeden czynnik X 1 , to znalezienie funkcji odpowiedzi jest dość prostym zadaniem. Po ustaleniu kilku wartości tego współczynnika, w wyniku eksperymentów, otrzymujemy odpowiadające im wartości Y i harmonogram Y \u003d F (X) (rys. 2).

Postać: 2. Konstrukcja funkcji odpowiedzi jednej zmiennej na podstawie danych eksperymentalnych

Poprzez swój wygląd możesz wybrać wyrażenie matematyczne dla funkcji odpowiedzi. Jeśli nie mamy pewności, że eksperymenty są dobrze odwzorowane, to zwykle eksperymenty powtarza się kilka razy i uzyskuje się zależność uwzględniającą rozrzut danych eksperymentalnych.

Jeśli istnieją dwa czynniki, konieczne jest przeprowadzenie eksperymentów z różnymi stosunkami tych czynników. Wynikową funkcję odpowiedzi w przestrzeni trójwymiarowej (rys. 1) można analizować, wykonując szereg przekrojów o ustalonych wartościach jednego z czynników (rys. 3). Wydzielone wykresy przekroju można przybliżyć za pomocą zestawu wyrażeń matematycznych.

Postać: 3. Sekcje powierzchni odpowiedzi przy ustalonych odpowiedziach (a) i zmiennych (b, c)

Przy trzech lub więcej czynnikach problem staje się prawie nierozwiązywalny. Jeśli zostaną znalezione rozwiązania, użycie zestawu wyrażeń jest dość trudne i często nierealne.

2.3 Zastosowanie matematycznego projektu eksperymentalnego w badaniach naukowych

We współczesnej matematycznej teorii optymalnego projektowania eksperymentu istnieją 2 główne sekcje:

1. planowanie eksperymentu w celu zbadania mechanizmów złożonych procesów i właściwości układów wieloskładnikowych.

2. zaplanowanie eksperymentu optymalizacji procesów technologicznych i właściwości układów wieloskładnikowych.

Planowanie eksperymentu - jest to dobór liczby eksperymentów i warunków ich realizacji, niezbędnych i wystarczających do rozwiązania problemu z wymaganą dokładnością.

Eksperyment, który ma na celu rozwiązanie problemów optymalizacji, nazywa się skrajny. Przykładami problemów optymalizacyjnych jest dobór optymalnego składu mieszanin wieloskładnikowych, zwiększenie produktywności istniejącej instalacji, poprawa jakości wyrobów oraz obniżenie kosztów ich uzyskania. Przed zaplanowaniem eksperymentu konieczne jest sformułowanie celu badawczego. Sukces badań zależy od precyzyjnego sformułowania celu. Konieczne jest również upewnienie się, że obiekt badawczy spełnia stawiane przed nim wymagania. W badaniach technologicznych celem badań nad optymalizacją procesu jest najczęściej zwiększenie wydajności produktu, poprawa jakości i obniżenie kosztów.

Eksperyment można przeprowadzić bezpośrednio na obiekcie lub na jego modelu. Model różni się od obiektu nie tylko skalą, ale czasami naturą. Jeśli model dokładnie opisuje obiekt, to eksperyment na obiekcie można przenieść do modelu. Aby opisać pojęcie „przedmiotu badań”, można posłużyć się pojęciem systemu cybernetycznego, który nazywa się czarna skrzynka.


Strzałki po prawej stronie przedstawiają liczbową charakterystykę celów badawczych i nazywane są parametry wyjściowe ( y ) lub parametry optymalizacji .

Aby przeprowadzić eksperyment, należy wpłynąć na zachowanie czarnej skrzynki. Wszystkie metody narażenia są oznaczone „x” i nazywane parametry lub czynniki wejściowe . Każdy czynnik może przyjąć jedną z kilku wartości w doświadczeniu i takie wartości są nazywane poziomy ... Ustalony zestaw poziomów i współczynników określa jeden z możliwych stanów czarnej skrzynki, jednocześnie są one warunkami do przeprowadzenia jednego z możliwych eksperymentów. Wyniki eksperymentów służą do uzyskania modelu matematycznego obiektu badań. Wykorzystanie wszystkich możliwych eksperymentów dla obiektu prowadzi do absurdalnie dużych eksperymentów. W związku z tym należy zaplanować eksperymenty.

Zadaniem planistycznym jest dobór eksperymentów niezbędnych do eksperymentu, metod matematycznego przetwarzania ich wyników oraz podjęcie decyzji. Szczególnym przypadkiem tego problemu jest planowanie ekstremalnego eksperymentu. To znaczy eksperyment założony w celu znalezienia optymalnych warunków funkcjonowania obiektu. Planowanie eksperymentu ekstremalnego jest więc doborem liczby i warunków eksperymentów, minimum niezbędnego do znalezienia warunków optymalnych. Podczas planowania eksperymentu obiekt badań musi mieć następujące obowiązkowe właściwości:

1. kontrolowane

2. Wyniki eksperymentów muszą być odtwarzalne .

Eksperyment się nazywa odtwarzalny , jeżeli w ustalonych warunkach eksperymentalnych tę samą wydajność uzyskuje się przy zadanym stosunkowo małym błędzie eksperymentalnym (2% -5%). Eksperyment przeprowadza się, wybierając poziomy dla wszystkich czynników, a następnie powtarza się w nieregularnych odstępach czasu. Porównuje się wartości parametrów optymalizacji. Rozrzut tych parametrów charakteryzuje odtwarzalność wyników. Jeśli nie przekracza z góry określonej wartości, to przedmiot spełnia wymóg powtarzalności wyników.

Planując eksperyment, aktywna interwencja zakłada proces i możliwość wyboru tych czynników, które są interesujące w każdym eksperymencie. Eksperymentalne badanie wpływu parametrów wejściowych (czynników) na wyniki można przeprowadzić za pomocą eksperymentu pasywnego lub aktywnego. Jeśli eksperyment sprowadza się do uzyskania wyników obserwacji zachowania układu przy przypadkowych zmianach parametrów wejściowych, to nazywa się bierny . Jeżeli w trakcie eksperymentu parametry wejściowe zmieniają się zgodnie z ustalonym planem, wówczas taki eksperyment jest wywoływany aktywny. Wywoływany jest obiekt, na którym możliwy jest aktywny eksperyment wykonalny. W praktyce nie ma absolutnie zarządzalnych obiektów. Na rzeczywisty obiekt mają zwykle wpływ zarówno czynniki kontrolowane, jak i niekontrolowane. Niekontrolowane czynniki wpływają na powtarzalność eksperymentu. Jeśli wszystkie czynniki są niekontrolowane, pojawia się problem ustalenia związku między parametrem optymalizacji a czynnikami na podstawie wyników obserwacji lub wyników biernego eksperymentu. Możliwa jest również słaba powtarzalność zmian czynników w czasie.


3. Parametry optymalizacji

3.1 Rodzaje parametrów optymalizacji

Parametr optymalizacji - to znak, według którego chcemy optymalizować proces. Powinien być ilościowy, określony liczbą. Zbiór wartości, które może przyjąć parametr optymalizacji, nazywany jest jego zakresem. Domeny definicji mogą być ciągłe i dyskretne, ograniczone i nieograniczone. Na przykład wynik odpowiedzi jest parametrem optymalizacji z ciągłą ograniczoną domeną. Może wynosić od 0 do 100%. Liczba wadliwych produktów, liczba krwinek w próbce krwi to przykłady parametrów z dyskretnym zakresem wykrywania ograniczonym na dole.

W zależności od przedmiotu i celu badań parametry optymalizacji mogą być bardzo zróżnicowane (rys. 1).

Skomentujmy niektóre elementy schematu. Parametry optymalizacji ekonomicznej, takie jak zysk, koszt i opłacalność, są zwykle wykorzystywane w badaniach funkcjonujących obiektów przemysłowych, natomiast koszt eksperymentu ma sens w przypadku wszelkich badań, w tym laboratoryjnych. Jeśli cena eksperymentów jest taka sama, koszty eksperymentu są proporcjonalne do liczby eksperymentów, które należy wykonać, aby rozwiązać dany problem. To w dużej mierze determinuje wybór projektu eksperymentalnego.

Wśród parametrów techniczno-ekonomicznych najczęściej występuje produktywność. Parametry takie jak trwałość, niezawodność i stabilność są związane z obserwacjami długoterminowymi. Istnieją pewne doświadczenia w stosowaniu ich w badaniu drogich obiektów krytycznych, takich jak sprzęt elektroniczny.

Prawie wszystkie badania muszą uwzględniać ilość i jakość otrzymanego produktu. Wydajność jest używana jako miara ilości produktu, na przykład procent produktu gotowego.

Wskaźniki jakości są niezwykle zróżnicowane. Na naszym diagramie są one pogrupowane według typu właściwości. Charakterystyka ilościowa i jakościowa produktu tworzy grupę parametrów techniczno-technologicznych.

Grupa „inne” grupowała różne parametry, które są mniej powszechne, ale nie mniej ważne. Obejmuje to parametry statystyczne używane do ulepszania charakterystyk zmiennych losowych lub funkcji losowych.

3.2 Wymagania dotyczące parametru optymalizacji

Parametr optymalizacji to znak, według którego chcemy zoptymalizować proces. Powinien być ilościowy, określony liczbą. Musimy być w stanie zmierzyć to dla dowolnej możliwej kombinacji wybranych poziomów czynników. Zbiór wartości, które może przyjąć parametr optymalizacji, będzie nazywany dziedziną jego definicji. Domeny definicji mogą być ciągłe i dyskretne, ograniczone i nieograniczone. Na przykład wynik odpowiedzi jest parametrem optymalizacji z ciągłą ograniczoną domeną. Może wynosić od 0 do 100%. Liczba wadliwych produktów, liczba ziaren na cienkim odcinku stopu, liczba krwinek w próbce krwi - to przykłady parametrów o dyskretnej domenie definicji ograniczonej od dołu.

Aby móc zmierzyć parametr optymalizacji, należy mieć odpowiednie urządzenie. W niektórych przypadkach takie urządzenie może nie istnieć lub może być zbyt drogie. Jeśli nie ma sposobu na ilościowe określenie wyniku, musisz użyć techniki zwanej rankingiem (podejście rankingowe). W tym przypadku parametrom optymalizacji przypisywane są szacunki - rangi według wcześniej wybranej skali: dwupunktowa, pięciopunktowa itp. Parametr rank ma dyskretną ograniczoną domenę definicji. W najprostszym przypadku obszar zawiera dwie wartości (tak, nie; dobra, zła). Może to dotyczyć na przykład dobrych produktów i złomu.

Ranga to ilościowa ocena parametru optymalizacji, ale warunkowa (subiektywna). Pasujemy do siebie cecha jakościowa jakaś liczba to ranga. Dla każdego fizycznie mierzalnego parametru optymalizacji można skonstruować analog rangi. Potrzeba skonstruowania takiego analogu pojawia się, gdy dostępne badaczowi charakterystyki numeryczne są niedokładne lub nie jest znana metoda skonstruowania zadowalających szacunków liczbowych. Przy wszystkich innych rzeczach należy zawsze dawać pierwszeństwo wymiarowi fizycznemu, ponieważ podejście rangowe jest mniej czułe i trudno jest zbadać subtelne efekty za jego pomocą.

Przykład: Technolog się rozwinął nowy rodzaj produkt. Musisz zoptymalizować ten proces.

Celem procesu jest uzyskanie smacznego produktu, ale takie sformułowanie celu nie pozwala jeszcze na rozpoczęcie optymalizacji: należy wybrać kryterium ilościowe charakteryzujące stopień osiągnięcia celu. Możesz podjąć następującą decyzję: bardzo smaczny produkt dostaje ocenę 5, po prostu smaczny produkt dostaje ocenę 4 itd.

Czy po takiej decyzji można przystąpić do optymalizacji procesów? Ważne jest dla nas ilościowe określenie wyniku optymalizacji. Czy znak rozwiązuje ten problem? Oczywiście, ponieważ tak jak ustaliliśmy, ocena 5 to bardzo smaczny produkt itp. Inną rzeczą jest to, że to podejście, zwane rankingiem, jest często niegrzeczne i niewrażliwe. Jednak możliwość takiej ilościowej oceny wyników nie powinna budzić wątpliwości.

Kolejny wymóg: parametr optymalizacji należy wyrazić jedną liczbą. Na przykład: rejestracja odczytu instrumentu.

Kolejnym wymaganiem związanym z ilościowym charakterem parametru optymalizacji jest jednoznaczność w sensie statystycznym. Dany zestaw wartości współczynników musi odpowiadać jednej wartości parametru optymalizacji, z dokładnością do błędu eksperymentalnego. (Jednak nie jest odwrotnie: różne zestawy wartości współczynników mogą odpowiadać tej samej wartości parametru).

Dla pomyślnego osiągnięcia celu badawczego konieczne jest, aby parametr optymalizacji rzeczywiście oceniał wydajność systemu w wybranym wcześniej sensie. To wymaganie jest głównym wymaganiem, które decyduje o poprawności stwierdzenia problemu.

Pojęcie skuteczności nie pozostaje niezmienne w całym badaniu. Zmienia się wraz z gromadzeniem informacji iw zależności od osiągniętych wyników. Prowadzi to do spójnego podejścia przy wyborze parametru optymalizacji. Na przykład na pierwszych etapach badań procesu technologicznego jako parametr optymalizacji często wykorzystuje się wydajność produktu. Jednak w przyszłości, gdy wyczerpią się możliwości zwiększenia plonu, zaczynamy interesować się takimi parametrami, jak cena kosztu, czystość produktu itp.

Mówiąc o ocenie skuteczności działania systemu, należy pamiętać, że mówimy o systemie jako całości. Często system składa się z wielu podsystemów, z których każdy można oszacować za pomocą własnego lokalnego parametru optymalizacji.

Kolejnym wymaganiem dotyczącym parametru optymalizacji jest wymóg uniwersalności lub kompletności. Przez uniwersalność parametru optymalizacji rozumie się jego zdolność do kompleksowego scharakteryzowania obiektu. W szczególności parametry optymalizacji technologicznej nie są wystarczająco uniwersalne: nie uwzględniają ekonomii. Na przykład uogólnione parametry optymalizacji, które są konstruowane jako funkcje kilku parametrów prywatnych, są uniwersalne.

Pożądane jest, aby parametr optymalizacji miał znaczenie fizyczne, był prosty i łatwy do obliczenia.

Wymóg fizycznego znaczenia wiąże się z późniejszą interpretacją wyników eksperymentalnych.

Zatem parametr optymalizacji powinien wynosić:

- skuteczne w osiąganiu celu;

- uniwersalny;

- ilościowe i wyrażone jedną liczbą;

- efektywne statystycznie;

- mające znaczenie fizyczne, proste i łatwe do obliczenia.

W przypadkach, gdy pojawiają się trudności z ilościowym oszacowaniem parametrów optymalizacji, należy skorzystać z podejścia rangowego. W toku badania a priori mogą zmieniać się wyobrażenia o przedmiocie badań, co prowadzi do spójnego podejścia przy wyborze parametru optymalizacji.

Spośród wielu parametrów charakteryzujących przedmiot badań tylko jeden, często uogólniony, może służyć jako parametr optymalizacyjny. Reszta to ograniczenia.


4. Czynniki optymalizacji

4.1 Określenie współczynnika

Czynnik jest mierzoną zmienną, która w pewnym momencie przyjmuje określoną wartość. Czynniki te odpowiadają sposobom oddziaływania na obiekt badawczy.

Podobnie jak parametr optymalizacji, każdy czynnik ma domenę definicji. Czynnik jest uważany za podany, jeśli jego obszar definicji jest wskazany wraz z nazwą.

Pod zakres zbiór wszystkich znaczeń, jakie w zasadzie może przyjąć dany czynnik, jest rozumiany.

Zbiór wartości współczynników, który jest używany w eksperymencie, jest podzbiorem zbioru wartości tworzących dziedzinę definicji. Dziedzina definicji może być ciągła i dyskretna. Jednak w problemach planowania eksperymentów wykorzystywane są głównie domeny dyskretne. Zatem dla czynników z ciągłą dziedziną definicji, takich jak temperatura, czas, ilość substancji itp., Zawsze wybierane są dyskretne zestawy poziomów.

W zadaniach praktycznych zakres wyznaczania czynników jest zwykle ograniczony. Ograniczenia mogą mieć charakter fundamentalny lub techniczny.

Czynniki są klasyfikowane w zależności od tego, czy czynnik jest zmienną, którą można określić ilościowo: mierzoną, zważoną, miareczkowaną itp., Czy też jest to jakaś zmienna charakteryzująca się właściwościami jakościowymi.

Czynniki dzielą się na ilościowe i jakościowe.

Czynniki jakościowe Czy są różne substancje, różne metody technologiczne, aparatura, wykonawcy itp.

Chociaż skala liczbowa nie odpowiada czynnikom jakościowym w tym sensie, że jest rozumiana dla czynników ilościowych, to można skonstruować skalę porządkową warunkową, która zgodnie z poziomami czynnika jakościowego ustawia liczby szeregu naturalnego, to znaczy wykonuje kodowanie. Kolejność poziomów może być dowolna, ale po zakodowaniu jest ustalana.

Czynniki jakościowe nie odpowiadają skali numerycznej, a kolejność ich poziomów nie ma znaczenia.

Czas reakcji, temperatura, stężenie reagentów, szybkość zasilania, pH to przykłady najczęściej występujących czynników ilościowych. Różne odczynniki, adsorbenty, utwardzacze, kwasy, metale to przykłady poziomów współczynnika jakości.

4.2 Wymagania dotyczące czynników przy planowaniu eksperymentu

Planując eksperyment, trzeba zarządzać czynnikami. Oznacza to, że eksperymentator po wybraniu wymaganej wartości współczynnika może utrzymać ją na stałym poziomie przez cały eksperyment, tj. może kontrolować czynnik. Możliwe jest zaplanowanie eksperymentu tylko wtedy, gdy poziomy czynników są zgodne z wolą eksperymentatora.

Przykład: Badasz proces syntezy amoniaku. Kolumna syntezowa jest zainstalowana na otwartej przestrzeni. Czy temperatura powietrza jest czynnikiem, który można uwzględnić w planowaniu eksperymentu?

Temperatura powietrza jest czynnikiem niekontrolowanym. Nie nauczyliśmy się jeszcze tworzenia pogody na zamówienie. W planowaniu mogą brać udział tylko te czynniki, które można kontrolować - można je ustawić i utrzymywać na wybranym poziomie w trakcie eksperymentu lub zmieniać zgodnie z zadanym programem. Temperatura środowisko w tym przypadku nie da się tego kontrolować. Można go tylko kontrolować.

Aby dokładnie określić współczynnik, należy wskazać sekwencję działań (operacji), za pomocą których ustalane są jego określone wartości (poziomy). Ta definicja czynnika będzie nazywana operacyjną. Jeśli więc ciśnienie w określonym aparacie jest czynnikiem, absolutnie konieczne jest wskazanie, w którym momencie i za pomocą jakiego urządzenia jest mierzone i jak jest ustalane. Wprowadzenie definicji operacyjnej zapewnia jednoznaczne zrozumienie tego czynnika.

Wybór wymiaru czynnika i dokładność jego ustalenia są związane z definicją operacyjną.

Dokładność pomiaru współczynników powinna być jak najwyższa. Stopień dokładności zależy od zakresu zmienności czynników. Badając proces trwający kilkadziesiąt godzin, nie trzeba brać pod uwagę ułamków minuty, aw szybkich procesach trzeba brać pod uwagę być może ułamki sekundy.

Czynniki muszą mieć bezpośredni wpływ na obiekt. Czynniki muszą być jednoznaczne. Trudno jest kontrolować czynnik będący funkcją innych czynników. Ale planowanie może obejmować złożone czynniki, takie jak stosunek między składnikami, ich logarytmy itp.

Planując eksperyment, zwykle zmienia się kilka czynników jednocześnie. Dlatego bardzo ważne jest sformułowanie wymagań, które mają zastosowanie do zestawu czynników. Przede wszystkim przedstawiono wymóg kompatybilności. Zgodność czynników oznacza, że \u200b\u200bwszystkie kombinacje czynników są wykonalne i bezpieczne. To bardzo ważny wymóg.

Podczas planowania eksperymentu ważna jest niezależność czynników, tj. możliwość ustalenia współczynnika na dowolnym poziomie, niezależnie od poziomów innych czynników. Jeśli ten stan jest niewykonalny, nie można zaplanować eksperymentu.

W ten sposób ustalono, że czynniki są wielkościami zmiennymi, odpowiadającymi sposobom oddziaływania środowiska zewnętrznego na obiekt.

Definiują zarówno sam obiekt, jak i jego stan. Wymagania dotyczące czynników: sterowalność i jednoznaczność.

Sterowanie współczynnikiem polega na ustawieniu żądanej wartości i utrzymywaniu jej na stałym poziomie w trakcie eksperymentu lub zmienianiu jej zgodnie z zadanym programem. Na tym polega cecha charakterystyczna „aktywnego” eksperymentu. Możliwe jest zaplanowanie eksperymentu tylko wtedy, gdy poziomy czynników są zgodne z wolą eksperymentatora.

Czynniki powinny bezpośrednio wpływać na przedmiot badań.

Wymagania dotyczące kombinacji czynników: zgodność i brak korelacji liniowej. Zestaw wybranych czynników powinien być wystarczająco kompletny. Pominięcie jakiegokolwiek istotnego czynnika doprowadzi do nieprawidłowego określenia warunków optymalnych lub do dużego błędu doświadczenia. Czynniki mogą być ilościowe lub jakościowe.


5. Błędy doświadczenia

Nie jest możliwe jednoczesne badanie wszystkich czynników oddziałujących na badany obiekt, dlatego w eksperymencie bierze się pod uwagę ich ograniczoną liczbę. Pozostałe czynniki aktywne są stabilizowane, tj. są ustawione na tych samych poziomach dla wszystkich eksperymentów.

Niektórych czynników nie zapewniają systemy stabilizacji (np. Warunki pogodowe, samopoczucie operatora itp.), A inne stabilizowane są z pewnym błędem (np. Zawartość dowolnego składnika w medium zależy od błędów w pobraniu próbki i przygotowaniu roztworu). Biorąc również pod uwagę, że pomiar parametru w jest przeprowadzana przez urządzenie posiadające pewien błąd w zależności od klasy dokładności urządzenia, można wnioskować, że wyniki powtórzeń tego samego eksperymentu do będą przybliżone i powinny różnić się od siebie oraz od rzeczywistej wartości wyniku procesu. Niekontrolowana, przypadkowa zmiana i wiele innych czynników wpływających na przyczynę procesu losowy odchylenie wartości mierzonej do z jego prawdziwego znaczenia - błędu doświadczenia.

Każdy eksperyment zawiera element niepewności ze względu na ograniczony materiał doświadczalny. Konfigurowanie powtarzanych (lub równoległych) eksperymentów nie daje całkowicie pokrywających się wyników, ponieważ zawsze występuje błąd eksperymentalny (błąd odtwarzalności). To właśnie ten błąd należy ocenić w równoległych eksperymentach. W tym celu eksperyment powtarza się, jeśli to możliwe, kilka razy w tych samych warunkach, a następnie bierze się średnią arytmetyczną wszystkich wyników. Średnia arytmetyczna y jest sumą wszystkich n oddzielnych wyników podzielonych przez liczbę równoległych eksperymentów n:


Odchylenie wyniku dowolnego eksperymentu od średniej arytmetycznej można przedstawić jako różnicę y 2 -, gdzie y 2 jest wynikiem oddzielnego eksperymentu. Obecność odchylenia wskazuje na zmienność, zmienność wartości powtarzanych eksperymentów. Wariancja jest najczęściej używana do pomiaru tej zmienności.

Rozrzut jest średnią kwadratu odchyleń wielkości od jej średniej. Wariancja jest oznaczona jako s 2 i jest wyrażona wzorem:

gdzie (n-1) to liczba stopni swobody równa liczbie eksperymentów minus jeden. Do obliczenia średniej używany jest jeden stopień swobody.

Pierwiastek kwadratowy z wariancji, wzięty ze znakiem dodatnim, nazywany jest odchyleniem standardowym, błędem standardowym lub kwadratowym:

Błąd doświadczenia jest wartością całkowitą, wynikiem wielu błędów: błędów współczynników pomiarowych, błędów pomiaru parametru optymalizacji itp. Każdy z tych błędów można z kolei podzielić na składowe.

Wszystkie błędy zwykle dzieli się na dwie klasy: systematyczne i przypadkowe (ryc. 1).

Systematyczne błędy są generowane przez przyczyny, które działają regularnie w określonym kierunku. Najczęściej błędy te można zbadać i określić ilościowo. Błąd systematyczny - jest to błąd, który stale lub regularnie zmienia się przy powtarzanych pomiarach tej samej wartości. Błędy te pojawiają się z powodu wadliwego działania przyrządów, niedokładności metody pomiarowej, pominięcia eksperymentatora lub użycia niedokładnych danych do obliczeń. Znalezienie systematycznych błędów, a także ich eliminacja, w wielu przypadkach nie jest łatwe. Wymagana jest dogłębna analiza metod analitycznych, ścisła kontrola wszystkich przyrządów pomiarowych i bezwarunkowe przestrzeganie wypracowanych w praktyce reguł pracy doświadczalnej. Jeśli systematyczne błędy wynikają ze znanych przyczyn, można je zidentyfikować. Takie błędy można wyeliminować poprzez wprowadzenie poprawek.

Systematyczne błędy można znaleźć podczas kalibracji przyrządów pomiarowych i porównywania danych eksperymentalnych ze zmieniającymi się warunkami zewnętrznymi (na przykład podczas kalibracji termopary przez punkty odniesienia, w porównaniu z przyrządem odniesienia). Jeśli systematyczne błędy są spowodowane warunkami zewnętrznymi (zmienna temperatura, surowce, itp.), To ich wpływ należy skompensować.

Losowy błędy to takie, które pojawiają się nieregularnie, których przyczyny są nieznane i których nie można z góry wziąć pod uwagę. Przypadkowe błędy są spowodowane zarówno przyczynami obiektywnymi, jak i subiektywnymi. Na przykład niedoskonałość urządzeń, ich oświetlenie, lokalizacja, zmiany temperatury podczas pomiarów, zanieczyszczenie odczynników, zmiany prąd elektryczny w łańcuchu. Gdy błąd przypadkowy jest większy niż wartość błędu przyrządu, konieczne jest wielokrotne powtarzanie tego samego pomiaru. Pozwala to na popełnienie przypadkowego błędu porównywalnego z błędem wprowadzanym przez urządzenie. Jeśli jest mniejszy niż błąd urządzenia, nie ma sensu go zmniejszać. Takie błędy mają znaczenie, które różni się w poszczególnych pomiarach. Te. ich wartości mogą nie być takie same dla pomiarów wykonywanych nawet w takich samych warunkach. Ponieważ przyczyny losowych błędów nie są takie same w każdym eksperymencie i nie można ich brać pod uwagę, dlatego nie można wykluczyć błędów losowych, można jedynie oszacować ich wartości. Wielokrotne wyznaczanie wskaźnika może skutkować wynikami znacznie różniącymi się od innych wyników z tej samej serii. Mogą być wynikiem poważnego błędu, który jest spowodowany nieostrożnością eksperymentatora.

Błędy systematyczne i przypadkowe składają się z wielu podstawowych błędów. Aby wykluczyć błędy instrumentalne, urządzenia należy sprawdzić przed eksperymentem, czasami w trakcie eksperymentu i zawsze po eksperymencie. Błędy podczas samego eksperymentu wynikają z nierównomiernego ogrzewania medium reakcyjnego, inny sposób mieszanie itp.

Podczas powtarzania eksperymentów takie błędy mogą powodować duże rozproszenie wyników eksperymentów.

Bardzo ważne jest wykluczenie z danych eksperymentalnych rażących błędów, tzw. Odrzucenia eksperymentu. Poważne błędy Łatwe do odnalezienia. Aby wykryć błędy, konieczne jest wykonanie pomiarów w innych warunkach lub powtórzenie pomiarów po chwili. Aby zapobiec rażącym błędom, konieczne jest przestrzeganie dokładności zapisów, dokładności w pracy i rejestrowania wyników eksperymentu. Błąd należy wykluczyć z danych eksperymentalnych. Istnieją pewne zasady odrzucania błędnych danych.

Na przykład stosuje się kryterium t-Studenta (P; f): Doświadczenie jest uważane za wadliwe, jeśli wartość eksperymentalna kryterium t w wartości bezwzględnej jest większa niż wartość tabelaryczna t (P; f).

Jeśli badacz ma eksperymentalne oszacowanie wariancji S 2 (y k) z małą, skończoną liczbą stopni swobody, to błędy ufności oblicza się za pomocą testu t-Studenta (P; f):

ε () \u003d t (P; f) * S (y k) / \u003d t (P; f) * S ()

ε (y k) \u003d t (P; f) * S (y k)


6. Wynikiem bezpośredniego pomiaru jest zmienna losowa, która jest zgodna z prawem rozkładu normalnego

Wyniki uzyskane w badaniach eksperymentalnych dowolnego procesu technologicznego zależą od wielu czynników. Dlatego wynik badań jest zmienną losową o rozkładzie normalnym. Nazywa się to normalnym, ponieważ to właśnie ten rozkład zmiennej losowej jest zwyczajny i nazywany gaus lub laplacian. Pod rozkład zmiennej losowej zrozumieć całość wszystkich możliwych wartości zmiennej losowej i odpowiadających im prawdopodobieństw.

Prawo rozkładu zmiennej losowej nazywany jest dowolnym współczynnikiem, który ustanawia związek między możliwymi wartościami zmiennej losowej i odpowiadającymi im prawdopodobieństwami.

W badaniach eksperymentalnych dowolnego procesu technologicznego mierzonym wynikiem tego ostatniego jest zmienna losowa, na którą wpływa ogromna liczba czynników (zmiany warunków pogodowych, samopoczucie operatora, niejednorodność surowców, efekt zużycia sprzętu pomiarowego, stabilizacyjnego itp.) ... Dlatego wynik badań jest zmienną losową o rozkładzie zgodnie z prawem normalnym. Jeśli jednak badacz nie zauważył żadnego aktywnego czynnika lub zaklasyfikował go jako nieaktywny, a niekontrolowana zmiana tego czynnika może spowodować nieproporcjonalnie dużą zmianę w wydajności procesu i parametru charakteryzującego tę sprawność, to rozkład prawdopodobieństwa tego ostatniego mogą nie być zgodne z normalnym prawem.

W ten sam sposób obecność poważnych błędów w tablicy danych eksperymentalnych doprowadzi do naruszenia normalności prawa dystrybucji. Dlatego przede wszystkim przeprowadza się analizę pod kątem występowania poważnych błędów w danych eksperymentalnych przy akceptowanym poziomie ufności.

Zmienna losowa zostanie rozłożona zgodnie z prawem normalnym, jeśli jest sumą bardzo dużej liczby wzajemnie zależnych zmiennych losowych, z których wpływ każdej z nich jest znikomy. Jeśli pomiary żądanej wielkości y są wykonywane wiele razy, wynik można zwizualizować, budując diagram, który pokazywałby, jak często uzyskiwano określone wartości. Taki schemat nazywa się histogram. Aby zbudować histogram, należy podzielić cały zakres mierzonych wartości na równe przedziały. I policz, ile razy każda wartość mieści się w każdym przedziale.

Jeśli pomiary są kontynuowane, aż liczba zmierzonych wartości n stanie się bardzo duża, wówczas szerokość przedziału może być bardzo mała. Histogram zamienia się w ciągłą linię, która nazywa się krzywa rozkładu .

Teoria błędów losowych opiera się na dwóch założeniach:

1. przy dużej liczbie pomiarów błędy losowe są równie duże, ale przy różnych znakach występują równie często;

2. duże (w wartościach bezwzględnych) błędy są mniej powszechne niż małe. Oznacza to, że prawdopodobieństwo błędu maleje wraz ze wzrostem jego wartości.

Zgodnie z prawem dużych liczb dla nieskończenie dużej liczby pomiarów n, prawdziwa wartość wielkości mierzonej y jest równa średniej arytmetycznej wszystkich wyników pomiarów ỹ

Dla wszystkich m-powtórzeń możesz napisać:

Dzieląc to równanie przez liczbę powtórzeń m, otrzymujemy po podstawieniu:

Do eksperymentalnej oceny prawdziwej wartości (matematycznego oczekiwania) kryterium optymalności w przyjęty Średnia arytmetyczna wyniki wszystkich t powiela:

Jeśli liczba m jest duża (m → ∞), to równość będzie prawdziwa:

Zatem przy nieskończenie dużej liczbie pomiarów prawdziwa wartość wielkości mierzonej y jest równa średniej wszystkich wyników pomiarów: y \u003d, przy m → ∞.

Przy ograniczonej liczbie pomiarów (m ≠ ∞) średnia arytmetyczna wartość y będzie się różnić od wartości rzeczywistej, tj. równość y \u003d będzie nieprecyzyjna, ale przybliżona: y≈ỹ i wielkość tej rozbieżności musi zostać oszacowana.

Jeśli badacz ma tylko jeden wynik pomiaru y k, to ocena prawdziwej wartości mierzonej wielkości będzie mniej dokładna. niż średnia arytmetyczna dla dowolnej liczby powtórzeń: | y─ỹ |<|y-yk|.

Pojawienie się jednej lub drugiej wartości yk podczas pomiaru jest zdarzeniem losowym. Funkcja gęstości rozkładu normalnego zmiennej losowej charakteryzuje się dwoma parametrami:

· Prawdziwa wartość y;

· Odchylenie standardowe σ.

Rysunek - 1a - krzywa gęstości rozkładu normalnego; 1b - krzywa gęstości prawdopodobieństwa zmiennej losowej o rozkładzie normalnym dla różnych wariancji

Gęstość rozkładu normalnego (rys. 1a) jest symetryczna względem y i osiąga swoją maksymalną wartość przy yk \u003d y, dąży do 0 wraz ze wzrostem.

Kwadrat odchylenia standardowego nazywany jest wariancją zmiennej losowej i jest ilościową charakterystyką rozrzutu wyników wokół prawdziwej wartości y. Miara rozrzutu wyników poszczególnych pomiarów yk od wartości średniej ỹ powinna być wyrażona w tych samych jednostkach, co wartość wielkości mierzonej. Pod tym względem wartość σ jest znacznie częściej wykorzystywana jako wskaźnik spreadu:

Wartości tej wielkości determinują kształt krzywej rozkładu py. Obszary pod trzema krzywymi są takie same, ale dla małych wartości σ krzywe są bardziej strome i mają większą wartość py. Wraz ze wzrostem σ wartość py maleje, a krzywa rozkładu rozciąga się wzdłuż osi y. Więc krzywa 1 charakteryzuje gęstość rozkładu zmiennej losowej, której odtwarzalność w powtarzanych pomiarach jest lepsza niż odtwarzalność zmiennych losowych o gęstości rozkładu 2, 4. W praktyce nie jest możliwe wykonanie zbyt wielu pomiarów. Dlatego nie można wykreślić rozkładu normalnego, aby dokładnie określić prawdziwą wartość y. W tym przypadku ỹ można uznać za dobre przybliżenie wartości prawdziwej, a wystarczająco dokładne oszacowanie błędu to wariancja próbki ρ²n, która wynika z prawa rozkładu, ale odnosi się do skończonej liczby pomiarów. Tę nazwę wielkości ρ²n tłumaczy fakt, że z całego zbioru możliwych wartości yk, tj. tylko skończona liczba wartości równa m jest wybierana z populacji ogólnej, zwanej próbą, którą charakteryzuje średnia z próby i wariancja próby.


7. Eksperymentalne oszacowania prawdziwych wartości mierzonej zmiennej losowej i jej odchylenia od średniej kwadratowej

Jeśli badacz ma do dyspozycji skończoną liczbę niezależnych wyników powtórzeń tego samego eksperymentu, to może uzyskać jedynie eksperymentalne oszacowania prawdziwej wartości i wariancji wyniku eksperymentu.

Oceny muszą mieć następujące właściwości:

1. Bezstronność, przejawiająca się w tym, że teoretyczna średnia pokrywa się z prawdziwą wartością mierzonego parametru.

2. Spójność, gdy oszacowania z nieograniczonym wzrostem liczby pomiarów mogą mieć dowolnie mały przedział ufności na poziomie ufności.

3. Efektywność, która przejawia się w tym, że ze wszystkich niezmieszanych oszacowań, oszacowanie to będzie miało najmniejszą dyspersję (wariancję).

Eksperymentalne oszacowanie pierwiastka średniej kwadratowej odchylenia oznaczono literą S z oznaczeniem wielkości analizowanej w nawiasach, tj.

S (yk) jest odchyleniem standardowym pojedynczego wyniku.

S (y) to odchylenie standardowe średniej.

Kwadrat eksperymentalnego oszacowania odchylenia standardowego S² jest eksperymentalnym oszacowaniem wariancji:

Do przetwarzania wyników obserwacji można użyć następującego schematu:

 Określenie średniej wartości uzyskanych wyników:


Określenie odchylenia od średniej dla każdego wyniku:

Te odchylenia charakteryzują absolutny błąd określenia. Przypadkowe błędy mają różne znaki, gdy wartość wyniku eksperymentu przekracza wartość średnią, błąd eksperymentu uważa się za dodatni, gdy wartość wyniku eksperymentu jest mniejsza niż wartość średnia, błąd uważa się za ujemny.

Im dokładniejsze pomiary, tym bliższe są poszczególne wyniki i średnia.

Jeśli do m wyników obliczana jest szacunkowa wartość rzeczywista, a następnie, przy użyciu tych samych wyników, obliczane są oszacowania odchyleń bezwzględnych:

następnie oszacowanie wariancji pojedynczego wyniku znajduje się za pomocą zależności:

Różnica między liczbą t niezależne wyniki do a liczba równań, w których te wyniki zostały już wykorzystane do obliczenia nieznanych szacunków, nazywa się liczba stopni swobody fa :

Aby oszacować wariancję procesu odniesienia f \u003d m.

Ponieważ średnie oszacowanie jest dokładniejsze niż pojedyncze r do, wariancja średnich będzie m razy mniejsza niż wariancja poszczególnych wyników, jeśli jest obliczana dla wszystkich m pojedyncze wyniki do :

Jeśli badacz ma eksperymentalne oszacowanie wariancji S 2 (y k) z małą, skończoną liczbą stopni swobody, to błędy ufności oblicza się za pomocą test studenta t (P; f):

,

gdzie Р - prawdopodobieństwo ufności (Р \u003d 1-q, q - poziom istotności).

Sprawdzenie rzetelności wyników uzyskanych za pomocą kryterium Studenta dla liczby przeprowadzonych eksperymentów m przy wybranym poziomie ufności (rzetelności) P \u003d 0,95; 0,99. Oznacza to, że 95% lub 99% bezwzględnych odchyleń wyników mieści się w określonych granicach. Kryterium t (P; f) z poziomem ufności P pokazuje, ile razy moduł różnicy między prawdziwą wartością pewnej wartości y a średnią ỹ jest większy niż odchylenie standardowe średniej.


8. Określenie poważnych błędów w wynikach powtórzonych eksperymentów

W analizie statystycznej danych eksperymentalnych dla procesów, których negatywny wynik nie tworzy sytuacji zagrażających życiu człowieka lub utraty dużych wartości materialnych, przyjmuje się zwykle poziom ufności równy P \u003d 0,95

Wśród wyników y k powtórzeń eksperymentu mogą znajdować się wyniki znacznie różniące się od innych. Może to być związane albo z jakimś poważnym błędem, albo z nieuniknionym przypadkowym wpływem nieuwzględnionych czynników na wynik tego powtórzenia eksperymentu.

Oznaką występowania „wybitnego” wyniku jest między innymi duże odchylenie │ ▲ y k │ \u003d y k - yˉ.

Jeżeli ▲ y k\u003e y prev, to takie wyniki są klasyfikowane jako błędy poważne. Maksymalne odchylenie bezwzględne jest określane w zależności od aktualnej sytuacji różnymi metodami. Jeśli np. Przeprowadzona jest analiza statystyczna danych eksperymentalnych z eksperymentu z procesem odniesienia (znana jest prawdziwa wartość wyniku eksperymentu i ▲ yk \u003d yk -y) i jeśli badacz ma do dyspozycji szacunek wariancji S 2 (yk) przy tak dużej liczbie stopni swobody, to weź f → ∞ i S 2 (yk) \u003d σ 2, a następnie do określenia błędów grubych można zastosować reguła 2-sigma: wszystkie wyniki, których odchylenia bezwzględne w wartości bezwzględnej przekraczają wartość dwóch odchyleń standardowych z wiarygodnością 0,95, są uważane za błędy grube i są wyłączone z tablicy danych eksperymentalnych (prawdopodobieństwo wykluczenia wiarygodnych wyników równe jest poziomowi istotności q \u003d 0,05).

Jeśli poziom ufności różni się od 0,95, użyj reguła jednej sigmy (P \u003d 0,68) lub zasada trzech sigma (P \u003d 0,997), lub zgodnie z zadanym prawdopodobieństwem P \u003d 2F (t) - 1 znajdź F (t) zgodnie z danymi referencyjnymi i parametrem t, zgodnie z którym obliczane jest odchylenie bezwzględne:

Jeśli badacz ma tylko przybliżone oszacowanie wariancji z małą (skończoną) liczbą stopni swobody, wówczas zastosowanie reguły sigma może prowadzić albo do nieuzasadnionego wykluczenia wiarygodnych wyników, albo do nieuzasadnionego porzucenia błędnych wyników.

W tej sytuacji, aby określić poważne błędy, możesz użyć kryterium maksymalnego odchylenia r max (P, m) wzięte z odpowiednich tabel. W tym celu r max porównuje się z wartością r równą

(22)

Jeśli r\u003e r max, to wynik ten należy wykluczyć z dalszej analizy, należy ponownie obliczyć szacunek y ˉ, zmienić bezwzględne odchylenia ▲ y k i odpowiednio oszacowanie wariancji S 2 (y k) i S 2 (yˉ). Analiza błędu dużego jest powtarzana dla nowych wartości oszacowań yˉ i S 2 (y k) i kończy się na r<= r max .

Korzystając ze wzoru (22), należy zastosować estymatę wariancji otrzymaną z wyników powtórzeń eksperymentu, wśród których jest wynik wątpliwy.

Istnieją inne metody określania poważnych błędów, spośród których najszybsza jest metoda "W ramach" na podstawie oceny maksymalnych różnic w otrzymanych wynikach. Analiza tą metodą jest przeprowadzana w następującej kolejności:

1) ułóż wyniki y k w uporządkowanym wierszu, w którym maksymalnemu wynikowi przypisana jest pierwsza liczba (y1), a maksymalnemu - największa (y m).

2) Jeśli wątpliwy wynik to y m, oblicz stosunek

(23)

jeśli wątpliwy wynik to y 1 - współczynnik

3) dla danego poziomu istotności q i znanej liczby powtórzeń m zgodnie z dodatkiem 6, tabelaryczna wartość kryterium α T.

4) jeśli α\u003e α Т, to podejrzany wynik jest błędny i należy go wykluczyć.

Po wykluczeniu dużego błędu, z tabeli znajduje się nowa wartość α T i o losie następnego wyniku „podejrzanego” decyduje porównanie α T i obliczonego dla niego α.

Jeśli istnieje powód, by przypuszczać, że 2 największe (2 najmniejsze) wyniki to „chybienia”, można je zidentyfikować w jednym kroku, używając odpowiedniej kolumny tabeli w dodatku 6 do określenia α T i obliczając α według wzoru:

(25)


Średnie ważone oszacowania wariancji. Analiza jednorodności wstępnych szacunków wariancji

Jeżeli eksperymentator ma do dyspozycji wyniki wielokrotnych pomiarów wartości kryterium optymalności w eksperymentach w różnych warunkach procesu, wówczas możliwe staje się obliczenie oszacowanie wariancji średniej ważonej jeden wynik, taki sam dla wszystkich eksperymentów eksperymentu.

W każdym z N eksperymentów (numer eksperymentu i = 1+ N ) oszacowanie wariancji pojedynczego wyniku wynosi

gdzie m i jest liczbą powtórzeń i-tego eksperymentu.

Średnia ważona oszacowania wariancji pojedynczego wyniku jest obliczana dla wszystkich oszacowań wariancji pojedynczego wyniku testu:

a) dla różnych t i


gdzie - liczba stopni swobody oszacowania średniej ważonej wariancji; t i – 1 = f u - „waga” odpowiedniego i-tego oszacowania wariancji, równa liczbie stopni swobody f u ;

nietoperz t i \u003d t \u003d konst

gdzie N (m-1) \u003d f - liczba stopnie swobody średniej ważonej oszacowania wariancji.

Przed użyciem relacji (28) i (29) do obliczenia średniej ważonej zaktualizowanych oszacowań wariancji (im większa liczba stopni swobody, tym dokładniejsze będzie oszacowanie wariancji), konieczne jest udowodnienie jednorodności początkowej oszacowania wariancji.

Definicja „jednorodny” w statystyce oznacza „bycie estymatorem tego samego parametru” (w tym przypadku wariancja σ 2).

Jeśli mierzona zmienna losowa w Wielkiej Brytanii rozłożone zgodnie z prawem normalnym w całym badanym zakresie, a następnie niezależnie od wartości i wariancja σ nie zmieni swojej wartości, a oszacowania tej wariancji muszą być jednorodne. Jednorodność tych szacunków przejawia się w tym, że mogą różnić się od siebie tylko nieznacznie, w granicach zależnych od przyjętego prawdopodobieństwa i ilości danych eksperymentalnych.

Jeśli t u \u003d t u fa = const, wówczas jednorodność oszacowań wariancji można przeanalizować za pomocą test Cochrana G kp . Oblicz maksymalny współczynnik wariancji S 2 ( y uk ) max do sumy wszystkich wariancji


i porównaj ten stosunek z wartością testu Cochrana G kp ( P. ; fa ; N ). Jeśli sol < Gkp , wtedy szacunki są jednorodne.

Tabela wartości testu Cochrana w zależności od liczby stopni swobody licznika f u , liczba porównywanych wariancji N i przyjęty poziom istotności q = 1 – R podane w załączniku.

Jeśli liczba powtórzeń w eksperymentach jest inna ( f lt const), jednorodność oszacowań wariancji można analizować za pomocą kryterium Fishera fa T. Do tego od N Szacunki wariancji wybierz 2: maksimum S 2 (y uk) maks. i minimum S 2 (y uk) min. Jeśli obliczona wartość fa ich związek jest mniejszy Ft ,

potem wszystko N oszacowania wariancji będą jednolite.

Wartości testowe Fishera F T podane w załączniku w zależności od przyjętego poziomu istotności q i liczbę stopni swobody fa 1 i fa 2 szacuje odpowiednio S 2 (y uk) max i S 2 (y uk) min.

Jeśli oszacowania wariancji bezpośrednio mierzonego parametru w okazały się niejednorodne, tj. oszacowania różnych odchyleń, nie można obliczyć średniej ważonej. A poza tym ilości do nie można już uważać, że przestrzega się normalnego prawa, w którym wariancja może być tylko jedna i niezmieniona dla dowolnego w.

Przyczyną naruszenia prawa rozkładu normalnego może być obecność pozostałych błędów rażących (analiza błędów grubych albo nie została przeprowadzona, albo nie została przeprowadzona wystarczająco dokładnie).

Innym powodem może być obecność czynnika aktywnego, błędnie zaklasyfikowanego przez badacza jako nieaktywny i nie wyposażony w system stabilizujący. Wraz ze zmianą warunków czynnik ten zaczął znacząco wpływać na proces.


9. Planowanie i przetwarzanie wyników eksperymentów jednoczynnikowych

9.1 Formalizacja danych eksperymentalnych metodą najmniejszych kwadratów

Wpływ dowolnego czynnika na wynik procesu można wyrazić zależnością w \u003d f (C). Jeśli określona wartość Z I pasuje do jedynej wartości ty i wtedy ta zależność jest nazywana funkcjonalny. Zależność tę uzyskuje się za pomocą rygorystycznych dowodów logicznych, które nie wymagają weryfikacji eksperymentalnej. Na przykład pole kwadratu ω można przedstawić za pomocą zależności funkcjonalnej od rozmiaru boku kwadratu i: ω = a 2.

Jeśli w i pozostaje niezmieniony Z I zmiany w nie zależy od OD. Na przykład kąt na wierzchołku kwadratu równy π / 2 nie zależy od rozmiaru boku a i.

Jeśli oszacować ilości w i i Z I Wykorzystywane są dane obserwacyjne, wartości są losowe, wtedy związek funkcjonalny między nimi nie może istnieć.

Mierząc oddzielnie bok i i pole ω kwadratu, można się upewnić, że otrzymanych wyników nie da się przedstawić z absolutną dokładnością zależnością ω \u003d i 2 .

Aby sformalizować dane eksperymentalne, tj. Opierając się na nich, opisując proces uzależnienia, badacz ucieka się, gdy nie może komponować heurystyczny (deterministyczny) model matematyczny z powodu niedostatecznego zrozumienia mechanizmu procesu lub jego nadmiernej złożoności.

Uzyskane w wyniku sformalizowania danych eksperymentalnych empiryczny model matematyczny ma mniejszą wartość niż heurystyczny model matematyczny, który odzwierciedla mechanizm procesu, który pozwala przewidzieć zachowanie obiektu poza badanym zakresem zmienności zmiennych.

Przystępując do eksperymentu w celu uzyskania empirycznego modelu matematycznego, badacz musi określić wymaganą ilość danych eksperymentalnych, uwzględniając liczbę przyjętych do badań czynników, powtarzalność procesu, zakładaną strukturę modelu, oraz zapewnienie możliwości sprawdzenia poprawności równania.

Jeżeli zgodnie z wynikami eksperymentu składającego się z dwóch eksperymentów otrzymamy liniowe równanie jednoczynnikowe y \u003d b 0 + b 1 OD , wówczas prosta skonstruowana zgodnie z tym równaniem będzie z konieczności przechodzić przez te punkty eksperymentalne. W konsekwencji, aby sprawdzić, jak dobrze ta zależność opisuje ten proces, konieczne jest postawienie eksperymentu jeszcze co najmniej o jeden punkt. To dodatkowe doświadczenie pozwala przeprowadzić poprawną procedurę sprawdzania odpowiedniości równania. Jednak weryfikacja jest zwykle przeprowadzana nie przez jeden dodatkowy punkt, który nie brał udziału w określaniu współczynników równania, ale przez wszystkie punkty eksperymentalne, których liczba (N) musi przekraczać liczbę współczynników równania (N ")

Dlatego N\u003e N ", rozwiązanie takiego systemu wymaga specjalnego podejścia.

9.2 Symetryczny i jednolity projekt eksperymentu jednoczynnikowego

Zadanie w w dużej mierze będzie to uproszczone, jeśli planując eksperyment będzie można podać warunek:

Przy naturalnym wymiarze czynników nie jest możliwe spełnienie warunku ΣC u \u003d 0, gdyż w tym przypadku wartość współczynnika musi mieć zarówno wartości dodatnie, jak i ujemne.

Jeśli punkt odniesienia wartości współczynnika zostanie przesunięty na środek zakresu zmienności czynnika (środek eksperymentu)

wtedy możliwe staje się spełnienie warunku w postaci, gdzie C "u \u003d C u - C 0.

Dla jednolitego projektu C u - C (u -1) \u003d λ \u003d const,

gdzie λ jest przedziałem zmienności współczynnika.

Warunek może być spełniony, jeśli do oznaczenia wartości współczynnika używane są wyrażenia bezwymiarowe:

stąd łatwo zauważyć, że warunek jest równoważny warunkowi i takie projekty nazywa się symetrycznymi.

Przy sporządzaniu planu zakres współczynnika jest z grubsza ograniczony przez wartości C min i C max, przypisane po przestudiowaniu literatury przedmiotu badań. Od eksperymentu do eksperymentu przewiduje się taką zmianę wielkości tego czynnika, która pozwoliłaby wiarygodnie uchwycić zmianę wyniku procesu za pomocą dostępnych badaczowi instrumentów.

Biorąc pod uwagę wartość λ i zakres (C max - C min), określ liczbę eksperymentów, zaokrąglając ją do nieparzystego N:


.

Następnie wyznacza się wartości współczynników w każdym z eksperymentów N i określa badany zakres współczynnika C N - C 1:

=,

gdzie x u jest bezwymiarowym wyrażeniem czynnika, podobnym do uzyskanego z relacji

Aby obliczyć współczynniki równania, używamy wzoru:

czynniki a ju i mianownik l j pochodzą z dodatku.

Liczba eksperymentów w eksperymencie może być parzysta lub nieparzysta iz reguły powinna być większa niż liczba współczynników N ”równania.

Im większa różnica (N - N ”), tym dokładniejsze jest oszacowanie współczynników tego równania i tym bardziej te oszacowania będą wolne od wpływu losowych nieokreślonych czynników.

Stworzenie modelu jest czynnością konieczną w analizie i syntezie złożonych systemów, ale daleko mu do finału. Model nie jest celem badacza, a jedynie narzędziem prowadzenia badań, instrumentem eksperymentu. W pierwszych tematach w pełni ujawniliśmy aforyzm: „Model jest przedmiotem i środkiem eksperymentu”.

Eksperyment powinien mieć charakter informacyjny, to znaczy zawierać wszystkie niezbędne informacje, które powinny być kompletne, dokładne i wiarygodne. Ale musi zostać przyjęty w akceptowalny sposób. Oznacza to, że metoda musi spełniać ograniczenia ekonomiczne, czasowe i ewentualnie inne. Tę sprzeczność rozwiązuje racjonalne (optymalne) planowanie eksperymentalne.

Teoria planowania eksperymentów powstała w latach sześćdziesiątych XX wieku dzięki pracom wybitnego angielskiego matematyka, biologa, statystyki Ronalda Eilmera Fishera (1890-1962). Jedno z pierwszych wydań krajowych: Fiodorow V. V. Teoria eksperymentu optymalnego. 1971 Nieco później opracowano teorię i praktykę planowania eksperymentów symulacyjnych, których elementy rozważono w tym temacie.

4.1. Istota i cele planowania eksperymentu

Tak więc, jak już wiemy, model jest tworzony w celu przeprowadzania na nim eksperymentów. Zakładamy, że eksperyment składa się z obserwacje, a każda obserwacja pochodzi z biegnie (realizacje) model.

Dla organizacji eksperymentów najważniejsze są następujące kwestie.

We wszystkich tych punktach eksperyment komputerowy z modelem symulacyjnym ma przewagę nad eksperymentem na pełną skalę.

Co to jest eksperyment komputerowy (maszynowy)?

Eksperyment komputerowy to proces wykorzystywania modelu do uzyskiwania i analizowania interesujących badacza informacji o właściwościach modelowanego systemu.

Eksperyment wymaga pracy i czasu, a więc kosztów finansowych. Im więcej chcemy uzyskać informacji z eksperymentu, tym jest on droższy.

Projekt eksperymentu jest sposobem na osiągnięcie akceptowalnego kompromisu między maksymalną ilością informacji a minimalnym zużyciem zasobów.

Plan eksperymentu definiuje:

  • ilość obliczeń na komputerze;
  • procedura wykonywania obliczeń na komputerze;
  • metody akumulacji i statystycznej obróbki wyników symulacji.

Planowanie eksperymentów ma następujące cele:

  • redukcja całkowitego czasu symulacji przy jednoczesnym spełnieniu wymagań dotyczących dokładności i wiarygodności wyników;
  • zwiększenie zawartości informacyjnej każdej obserwacji;
  • stworzenie strukturalnych podstaw procesu badawczego.

Tak więc plan eksperymentu na komputerze jest metodą uzyskiwania niezbędnych informacji poprzez eksperyment.

Oczywiście badania można przeprowadzić zgodnie z tym planem: zbadać model we wszystkich możliwych trybach, przy wszystkich możliwych kombinacjach zewnętrznych i parametry wewnętrzne, powtarzaj każdy eksperyment dziesiątki tysięcy razy - im więcej, tym dokładniej!

Oczywiście taka organizacja eksperymentu przynosi niewielkie korzyści, uzyskane dane są trudne do przeglądu i analizy. Ponadto koszty zasobów będą duże i zawsze ograniczone.

Cały zestaw działań służących do planowania eksperymentu podzielony jest na dwie niezależne części funkcjonalne:

  • planowanie strategiczne;
  • planowanie taktyczne.

Planowanie strategiczne - opracowanie warunków eksperymentu, określenie trybów zapewniających największą zawartość informacyjną eksperymentu.

Planowanie taktyczne zapewnia osiągnięcie określonej dokładności i wiarygodności wyników.

4.2. Elementy eksperymentów planowania strategicznego

Tworzenie planu strategicznego odbywa się w tzw czynnik przestrzeni. Przestrzeń czynnikowa to zestaw zewnętrznych i parametry wewnętrzne, jakie wartości badacz może kontrolować podczas przygotowywania i prowadzenia eksperymentu.

Przedmiotami planowania strategicznego są:

  • zmienne wyjściowe (odpowiedzi, reakcje, zmienne egzogeniczne);
  • zmienne wejściowe (czynniki, zmienne endogeniczne);
  • poziomy czynników.

Matematyczne metody planowania eksperymentów opierają się na tzw. Cybernetycznej reprezentacji procesu przeprowadzania eksperymentu (rys. 4.1).


Postać: 4.1.

- zmienne wejściowe, czynniki;

- zmienna wyjściowa (reakcja, odpowiedź);

Błąd, zakłócenia spowodowane obecnością czynników losowych;

Modelowanie działania operatora prawdziwy systemokreślenie zależności zmiennej wyjściowej od czynników

W przeciwnym razie: - model procesu w systemie.

Pierwszy problem, który rozwiązuje się w planowaniu strategicznym, to wybór odpowiedzi (reakcji), czyli określenie, jakie wartości należy zmierzyć w trakcie eksperymentu, aby uzyskać pożądane odpowiedzi. Oczywiście wybór odpowiedzi zależy od celu badania.

Na przykład podczas modelowania systemu wyszukiwania informacji badacz może być zainteresowany czasem odpowiedzi systemu na zapytanie. Ale może Cię zainteresować taki wskaźnik, jak maksymalna liczba żądań obsłużonych w przedziale czasu. A może jedno i drugie. Można zmierzyć wiele odpowiedzi: w dalszej części omówimy jedną odpowiedź

Drugi problem planowanie strategiczne to wybór (ustalenie) istotnych czynników i ich kombinacji, które wpływają na działanie modelowanego obiektu. Czynnikami mogą być napięcia zasilania, temperatura, wilgotność, rytm dostaw komponentów i wiele innych. Zwykle liczba czynników jest duża i im mniej znamy modelowany system, tym bardziej wydaje nam się, że ich liczba wpływa na działanie systemu. W teorii systemów podana jest tak zwana zasada Pareto:

  • 20% czynników decyduje o 80% właściwości systemu;
  • 80% czynników decyduje o 20% właściwości systemu. Dlatego trzeba umieć zidentyfikować istotne czynniki. I

osiąga się to poprzez dostatecznie głębokie badanie modelowanego obiektu i zachodzących w nim procesów.

Czynniki mogą mieć charakter ilościowy i / lub jakościowy.

Czynniki ilościowe to te, których wartości są liczbami. Na przykład intensywność przepływów wejściowych i usługowych, pojemność buforowa, liczba kanałów w QS, udział odrzutów w produkcji części itp.

Czynniki jakościowe - dyscypliny usługowe (LIFO, FIFO itp.) w CMO, „biały montaż”, „żółty montaż” sprzętu elektronicznego, kwalifikacje personelu itp.

Czynnik musi być możliwy do opanowania. Sterowalność czynnikowa - jest to umiejętność ustalenia i utrzymania wartości współczynnika stałej lub zmieniającej się zgodnie z projektem eksperymentu. Możliwe są również czynniki niekontrolowane, na przykład wpływ środowiska zewnętrznego.

Zestaw czynników wpływających ma dwa główne wymagania:

  • zgodność;
  • niezależność.

Zgodność czynników oznacza, że \u200b\u200bwszystkie kombinacje wartości współczynników są możliwe.

Niezależność czynników określa możliwość ustalenia wartości czynnika na dowolnym poziomie niezależnie od poziomów innych czynników.

W planach strategicznych czynniki są oznaczone literą łacińską, gdzie indeks wskazuje liczbę (rodzaj) czynnika. Istnieją również takie oznaczenia czynników: itp.

Trzeci problem planowanie strategiczne to dobór wartości każdego czynnika, tzw poziomy czynników.

Liczba poziomów może wynosić dwa, trzy lub więcej. Na przykład, jeśli jednym z czynników jest temperatura, poziomy mogą wynosić: 80 o С, 100 o С, 120 o С.

Dla wygody, a co za tym idzie, dla zmniejszenia kosztu eksperymentu, liczbę poziomów należy wybrać mniej, ale wystarczającą, aby zapewnić dokładność i wiarygodność eksperymentu. Minimalna liczba poziomów to dwa.

Z punktu widzenia wygody planowania eksperymentu wskazane jest ustawienie takiej samej liczby poziomów dla wszystkich czynników. To planowanie nazywa się symetryczny.

Analiza danych eksperymentalnych jest znacznie uproszczona poprzez przypisanie poziomów czynników w równej odległości od siebie. Taki plan nazywa się prostokątny... Ortogonalność planu zwykle uzyskuje się w następujący sposób: dwa skrajne punkty obszaru zmiany współczynnika są wybrane jako dwa poziomy, a pozostałe poziomy są ustawione tak, aby dzieliły wynikowy segment na dwie części.

Przykładowo zakres napięcia zasilania 30 ... 50 V zostanie podzielony na pięć poziomów w następujący sposób: 30 V, 35 V, 40 V, 45 V, 50 V.

Nazywa się eksperyment, w którym realizowane są wszystkie kombinacje poziomów wszystkich czynników pełny eksperyment czynnikowy (PFE).

Plan PFE jest niezwykle pouczający, ale może to być niedopuszczalne zasoby.

Jeśli pominiemy komputerową implementację projektu eksperymentalnego, to liczba pomiarów odpowiedzi (reakcji) modelu z PFE wynosi:

gdzie jest liczba poziomów tego czynnika ,; - liczba czynników w eksperymencie.

Rzetelność i dokładność w badaniu, aby przewidzieć niuanse, które są trudne do śledzenia w codziennych „spontanicznych eksperymentach”. Często w celu dostosowania planu eksperymentatorzy przeprowadzają tzw. Badanie pilotażowe, czyli próbne, które można uznać za „szkic” przyszłego eksperymentu naukowego.

Encyklopedyczny YouTube

    1 / 5

    Psychologia eksperymentalna

    Centralny plan złożony (planowanie eksperymentów DOE)

    Psychologia społeczna. Współczesny faszyzm w eksperymencie trzeciej fali Jonesa

    Psychologiczna treść znaków Augustinavichiute-Reinin. Co pokazał eksperyment (i nie tylko)

    BBC - on i ona - sekrety relacji. Część 1

    Napisy na filmie obcojęzycznym

Kluczowe pytania, na które odpowiada projekt eksperymentalny

Plan pilotażowy ma na celu udzielenie odpowiedzi na podstawowe pytania dotyczące:

Jednym z najważniejszych pytań, na jakie musi odpowiedzieć projekt eksperymentu, jest określenie, w jakiej kolejności powinny zachodzić zmiany w rozważanych bodźcach (zmiennych niezależnych) wpływających na zmienną zależną. Efekt ten może się różnić od prostego schematu „A 1 -A 2”, gdzie A 1 to pierwsza wartość bodźca, A 2 to druga wartość bodźca, do bardziej złożonych, takich jak „A 1 -A 2 - A 1 -A 2 ", itd. Bardzo ważną kwestią związaną bezpośrednio z przestrzeganiem zasadności badania jest kolejność prezentacji bodźców: na przykład, jeśli osoba jest stale prezentowana z tym samym bodźcem, może stać się mniej podatny na to.

Planowanie etapów

Planowanie obejmuje dwa etapy:

  1. Sensowne planowanie eksperymentu:
    • Określenie szeregu założeń teoretycznych i doświadczalnych, które tworzą podstawy teoretyczne Badania.
    • Formułowanie teoretycznych i eksperymentalnych hipotez badawczych.
    • Wybór wymaganej metody eksperymentalnej.
    • Rozwiązanie problemu próby tematów:
      • Określenie składu próbki.
      • Określenie wielkości próby.
      • Określenie metody pobierania próbek.
  2. Formalne planowanie eksperymentu:
    • Osiągnięcie umiejętności porównywania wyników.
    • Uzyskanie możliwości omówienia uzyskanych danych.
    • Zapewnienie ekonomicznego prowadzenia badań.

Za główny cel planowania formalnego uważa się wyeliminowanie maksymalnej możliwej liczby przyczyn zniekształcenia wyników.

Rodzaje planów

Proste plany

Proste planylub jednowymiarowa obejmuje badanie wpływu tylko jednej zmiennej niezależnej na zmienną zależną. Zaletą takich projektów jest to, że są one skuteczne w ustalaniu wpływu zmiennej niezależnej oraz że są łatwe do analizy i interpretacji. Wadą jest to, że niemożliwe jest wyciągnięcie wniosku o funkcjonalnym związku między zmiennymi niezależnymi i zależnymi.

Eksperymenty z odtwarzalnymi warunkami

Układy eksperymentów warstwowych

Jeśli w eksperymentach używana jest pojedyncza zmienna niezależna, sytuacja, w której badane są tylko dwie jej wartości, jest traktowana jako wyjątek, a nie reguła. W większości badań jednoczynnikowych często nazywane są trzy lub więcej wartości zmiennej niezależnej jednoczynnikowy wielopoziomowy... Takie projekty mogą być używane zarówno do badania efektów nieliniowych (czyli przypadków, w których zmienna niezależna przyjmuje więcej niż dwie wartości), jak i do testowania alternatywnych hipotez. Zaletą takich planów jest możliwość określenia rodzaju zależności funkcjonalnej między zmiennymi niezależnymi i zależnymi. Wadą jest jednak czas i potrzeba przyciągnięcia większej liczby uczestników.

Plany czynnikowe

Plany czynnikowe implikują więcej niż jedną zmienną niezależną. Takich zmiennych lub czynników może być dowolna liczba, ale zwykle ogranicza się do wykorzystania dwóch, trzech, rzadziej czterech.

Plany czynnikowe są opisane za pomocą systemu liczbowego przedstawiającego liczbę zmiennych niezależnych i liczbę wartości (poziomów) przyjętych przez każdą zmienną. Na przykład układ czynnikowy 2x3 („dwa na trzy”) ma dwie niezależne zmienne (czynniki), z których pierwsza przyjmuje dwie wartości („2”), a druga przyjmuje trzy wartości („3”) ; Projekt czynnikowy 3x4x5 ma trzy zmienne niezależne, przyjmując odpowiednio wartości „3”, „4” i „5”.

W eksperymencie przeprowadzonym według planu czynnikowego 2x2 powiedzmy, że jeden czynnik A może przyjmować dwie wartości - A 1 i A 2, a drugi czynnik B - B 1 i B 2. W trakcie eksperymentu zgodnie z planem 2x2 należy przeprowadzić cztery eksperymenty:

  1. A 1 B 1
  2. A 1 B 2
  3. A 2 B 1
  4. A 2 B 2

Sekwencja eksperymentów może być różna w zależności od stosowności, określonej przez zadania i warunki każdego konkretnego eksperymentu.

Projekty quasi-eksperymentalne

Projekty quasi-eksperymentalne - projekty eksperymentów, w których ze względu na niepełną kontrolę nad zmiennymi nie można wyciągnąć wniosków o istnieniu związku przyczynowego. Koncepcję projektu quasi-eksperymentalnego wprowadzili Campbell i Stanley w Experimental and quasi-experimental designs for research (Cambell, D. T. & Stanley, J. C.,). Zrobiono to w celu przezwyciężenia niektórych problemów, z którymi borykali się psychologowie, którzy chcieli prowadzić badania w mniej rygorystycznym środowisku niż laboratorium. Projekty quasi-eksperymentalne są często używane w psychologii stosowanej.

Rodzaje projektów quasi-eksperymentalnych:

1. Projekty eksperymentalne dla grup nierównomiernych

2. Plany dla dyskretnych szeregów czasowych.

Rodzaje:

1. Eksperymentuj z planem szeregów czasowych

2. Projektowanie serii próbek czasowych

3. Plan szeregu równoważnych działań

4. Planuj z nierówną grupą kontrolną

5. Zrównoważone plany.

Plany ex post facto

Badania, w których zbieranie i analiza danych odbywa się już po zaistnieniu zdarzenia, tzw badania ex post facto wielu ekspertów określa jako quasi-eksperymentalne. Takie badania są często prowadzone w socjologii, pedagogice, psychologii klinicznej i neuropsychologii. Esencja badawcza ex post facto polega na tym, że sam eksperymentator nie wywiera wpływu na badanych: oddziałuje na nie jakieś realne wydarzenie z ich życia.

Na przykład w neuropsychologii od dawna (a nawet dzisiaj) badania opierają się na paradygmacie lokalizacji, który wyraża się w ujęciu funkcji lokusu i twierdzi, że pokonanie pewnych struktur pozwala zidentyfikować lokalizację funkcje umysłowe - specyficzny substrat materialny, w którym „są”, w mózgu [zob. AR Luria, „Uszkodzenia mózgu i mózgowa lokalizacja wyższych funkcji”; takie badania można zaklasyfikować jako badania ex post facto.

Planując badanie ex post facto symuluje rygorystyczny projekt eksperymentalny z wyrównywaniem lub randomizacją grup i testowaniem po ekspozycji.

Małe projekty eksperymentów N.

Małe plany N. zwane także „planami pojedynczego przedmiotu”, ponieważ zachowanie każdego przedmiotu jest badane indywidualnie. Za jedną z głównych przyczyn stosowania eksperymentów z małym N uważa się niemożność w niektórych przypadkach zastosowania wyników uzyskanych z uogólnień do duże grupy osób, do żadnego z uczestników indywidualnie (co prowadzi do naruszenia indywidualnej ważności).

Badania korelacyjne - badanie przeprowadzone w celu potwierdzenia lub obalenia hipotezy o statystycznym związku (korelacji) między kilkoma (dwiema lub więcej) zmiennymi. Plan takiego badania różni się od planu quasi-eksperymentalnego tym, że nie ma kontrolowanego wpływu na przedmiot badań.

W badaniu korelacji naukowiec stawia hipotezę o istnieniu statystycznego związku między kilkoma właściwościami psychicznymi jednostki lub między pewnymi poziomami zewnętrznymi a stanami psychicznymi, nie dyskutuje się przy tym o założeniach dotyczących zależności przyczynowej. Przedmioty powinny znajdować się w równoważnych, niezmiennych warunkach. Ogólnie rzecz biorąc, projekt takiego badania można opisać jako PxO („tematy” x „pomiary”).

Rodzaje badań korelacyjnych

  • Porównanie obu grup
  • Badania jednowymiarowe
  • Badanie korelacji par równoważnych grup
  • Badanie korelacji wieloczynnikowej
  • Badanie korelacji strukturalnej
  • Badanie korelacji podłużnej *

* Badania podłużne są uważane za pośrednie między quasi-eksperymentem a badaniami korelacyjnymi.

Planowanie eksperymentów jest produktem naszych czasów, ale jego początki giną we mgle czasu.

Początki planowania eksperymentów sięgają czasów starożytnych i są związane z mistycyzmem numerycznym, przepowiedniami i przesądami.

Nie chodzi tu o planowanie fizycznego eksperymentu, ale planowanie eksperymentu numerycznego, tj. ułożenie liczb tak, aby były spełnione pewne ścisłe warunki, na przykład dla równości sum w wierszach, kolumnach i przekątnych kwadratowej tabeli, której komórki są wypełnione liczbami liczb naturalnych.

Takie warunki spełniają magiczne kwadraty, które najwyraźniej należą do prymatu w planowaniu eksperymentu.

Według jednej legendy około 2200 roku pne. Chiński cesarz Yu wykonał mistyczne obliczenia przy użyciu magicznego kwadratu, który został przedstawiony na skorupie boskiego żółwia.

Plac cesarza Yu

Komórki tego kwadratu są wypełnione liczbami od 1 do 9, a sumy liczb w wierszach, kolumnach i głównych przekątnych wynoszą 15.

W 1514 roku niemiecki artysta Albrecht Durer namalował magiczny kwadrat w prawym rogu swojej słynnej rycerskiej alegorii „Melancholia”. Dwie cyfry w dolnym poziomym rzędzie (A5 i 14) oznaczają rok, w którym wykonano grawerunek. To było swego rodzaju „zastosowanie” magicznego kwadratu.

Plac Dürera

Przez kilka stuleci budowanie magicznych kwadratów zajmowało umysły matematyków indyjskich, arabskich, niemieckich, francuskich.

Obecnie magiczne kwadraty są wykorzystywane do planowania eksperymentu w warunkach dryfu liniowego, planowania obliczeń ekonomicznych i zestawiania racji, w teorii kodowania itp.

Konstrukcja magicznych kwadratów jest zadaniem analizy kombinatorycznej, której fundamenty w jej współczesnym rozumieniu położył G. Leibniz. Nie tylko rozważał i rozwiązał główne problemy kombinatoryczne, ale także wskazał na wielkie praktyczne zastosowanie analizy kombinatorycznej: do kodowania i dekodowania, do gier i statystyki, do logiki wynalazków i logiki geometrii, do sztuki wojennej, gramatyka, medycyna, orzecznictwo, technologia i kombinacje obserwacji. Ostatni obszar zastosowań jest najbliższy projektowi eksperymentalnemu.

Jeden z problemów kombinatorycznych, bezpośrednio związany z planowaniem eksperymentu, był przedmiotem badań słynnego petersburskiego matematyka L. Eulera. W 1779 r. Jako matematyczną ciekawostkę zaproponował problem 36 oficerów.

Zadał pytanie, czy można wybrać 36 oficerów 6 stopni z 6 pułków, po jednym oficerze każdego stopnia z każdego pułku i ustawić ich w kwadracie tak, aby w każdym rzędzie iw każdym stopniu był jeden oficer z każdego pułku. stopień i jeden z każdego pułku ... Zadanie jest równoważne z konstruowaniem sparowanych ortogonalnych kwadratów 6x6. Okazało się, że tego problemu nie da się rozwiązać. Euler zasugerował, że nie ma pary ortogonalnych kwadratów rzędu n \u003d 1 (mod 4).

Wielu matematyków badało następnie w szczególności problem Eulera i ogólnie kwadraty łacińskie, ale prawie żaden z nich nie myślał o praktycznym zastosowaniu kwadratów łacińskich.

Obecnie kwadraty łacińskie są jednym z najpopularniejszych sposobów ograniczenia randomizacji w obecności dyskretnych źródeł niejednorodności w projekcie eksperymentu. Pogrupowanie elementów kwadratu łacińskiego, ze względu na swoje właściwości (każdy element pojawia się raz i tylko raz w każdym rzędzie iw każdej kolumnie kwadratu) pozwala zabezpieczyć główne efekty przed wpływem źródła niejednorodności. Kwadraty łacińskie są również szeroko stosowane jako sposób na zmniejszenie wyliczenia w problemach kombinatorycznych.

Pojawienie się nowoczesnych metod statystycznych planowania eksperymentów wiąże się z nazwiskiem R. Fishera.

W 1918 roku rozpoczął swoją słynną serię prac w Rochemstead Agrobiological Station w Anglii. W 1935 roku ukazała się jego monografia „Projektowanie eksperymentów”, od której wzięła się nazwa całego kierunku.

Wśród metod planowania pierwszą była analiza wariancji (nawiasem mówiąc, Fischer należy również do terminu „wariancja”). Fisher położył podwaliny pod tę metodę, opisując pełne klasyfikacje ANOVA (eksperymenty jednokierunkowe i wielowymiarowe) oraz niepełne klasyfikacje ANOVA bez ograniczeń i z ograniczeniem do randomizacji. Robiąc to, szeroko wykorzystywał łacińskie kwadraty i diagramy blokowe. Wraz z F. Yatesem opisał ich właściwości statystyczne. W 1942 roku A. Kishen rozważał planowanie z użyciem kostek łacińskich, co było dalszym rozwinięciem teorii kwadratów łacińskich.

Następnie R. Fischer niezależnie opublikował informacje o ortogonalnych hiper-grecko-łacińskich sześcianach i hiper-sześcianach. Wkrótce potem 1946-1947) R. Rao rozważył ich kombinatoryczne właściwości. Dalszy rozwój teorii kwadratów łacińskich poświęcony jest pracom H. Manna (A947-1950).

Badania R. Fischera, prowadzone w związku z pracami nad agrobiologią, stanowią początek pierwszego etapu rozwoju metod planowania eksperymentów. Fischer opracował metodę planowania czynnikowego. Yegs zaproponował prosty schemat obliczeniowy dla tej metody. Planowanie czynnikowe stało się powszechne. Cechą pełnego eksperymentu silniowego jest konieczność przeprowadzania dużej liczby eksperymentów naraz.

W 1945 roku D. Finney wprowadził ułamkowe wskazówki z eksperymentu czynnikowego. To radykalnie zmniejszyło liczbę eksperymentów i otworzyło drogę dla zastosowań planowania technicznego. Inną możliwość zmniejszenia wymaganej liczby eksperymentów wykazali w 1946 R. Plackett i D. Berman, którzy wprowadzili nasycone plany czynnikowe.

W 1951 roku prace amerykańskich naukowców J. Boxa i C. Wilsona zapoczątkowały nowy etap w rozwoju planowania eksperymentów.

Ta praca podsumowuje poprzednie. Sformułował jasno i doprowadził do praktycznych zaleceń ideę sekwencyjnego eksperymentalnego wyznaczania optymalnych warunków prowadzenia procesów z wykorzystaniem estymacji współczynników ekspansji mocy metodą najmniejszych kwadratów, ruchu po gradiencie i znalezienia wielomianu interpolacyjnego ( szereg potęgowy) w obszarze ekstremum funkcji odpowiedzi (obszar „prawie stacjonarny”) ...

W latach 1954-1955. J. Box, a następnie J. Box i P. Yule wykazali, że planowanie eksperymentu może być wykorzystane w badaniu fizykochemicznych mechanizmów procesów, jeśli zostanie sformułowana a priori jedna lub kilka możliwych hipotez. Tutaj planowanie eksperymentu zazębiało się z badaniami nad kinetyką chemiczną. Warto zauważyć, że kinetykę można postrzegać jako metodę opisu procesu za pomocą równań różniczkowych, których tradycja sięga I. Newtona. Opis procesu za pomocą równań różniczkowych, zwany deterministycznym, jest często przeciwstawiany modelom statystycznym.

Box i J. Hunter sformułowali zasadę rotacji, aby opisać „prawie stacjonarny” region, który obecnie przekształca się w ważną gałąź teorii projektowania eksperymentów. W tym samym artykule przedstawiono możliwość szeregowania z podziałem na bloki ortogonalne, wskazaną wcześniej niezależnie przez de Bauna.

Dalszym rozwinięciem tej idei było planowanie ortogonalnego do niekontrolowanego dryftu czasu, co należy uznać za ważne odkrycie techniki eksperymentalnej - znaczący wzrost możliwości eksperymentatora.

Podobne artykuły

2021 choosevoice.ru. Mój biznes. Księgowość. Historie sukcesów. Pomysły. Kalkulatory. Magazyn.