Vikipedio:Projekto matematiko/Malprogresa analitiko
El Vikipedio
Ĉi tiu artikolo montras stilajn aŭ/kaj gramatikajn aŭ/kaj strukturajn problemojn kaj bezonas poluradon por konformi al pli bona nivelo de kvalito. Post plibonigo movu la artikolon al Malprogresa analitiko (eble la nomo mem bezonas korekton) Se la ligo estas ruĝa, vi povas movi la artikolon. Se la ligo estas blua, la alia artikolo pri la temo jam ekzistas kaj tiun kaj ĉi tiun artikolon necasas kunigi. |
Malprogresa analitiko estas (ĉiu, iu) statistika maniero kie la (meznombro, signifi) de unu aŭ pli hazarda variablo estas aŭgurita (statita, kondiĉita) sur alia ((mezuris, kriteriita)) hazarda variablo. En aparta, estas lineara malprogreso, logistika malprogreso, _Poisson_ malprogreso, kontrolis lerno, kaj unuo-pezita malprogreso. Malprogresa analitiko estas pli ol kurba adaptado (elektanta kurbo (tiu, ke, kiu) plej bona adaptas donitaj datumaj punktoj); ĝi engaĝas adaptanta modelo kun ambaŭ (determinisma, determina) kaj stokasto (komponantoj, komponantas). La (determinisma, determina) komponanto estas (nomita, vokis) la antaŭdirilo kaj la stokasta komponanto estas (nomita, vokis) la eraro (termo, membro, flanko, termino).
La plej simpla (formo, formi) de malprogresa modelo enhavas dependa variablo (ankaŭ (nomita, vokis) "rezulto (variablo, varianta)," "_endogenous_ (variablo, varianta)," aŭ "Y-(variablo, varianta)") kaj sola nedependa variablo (ankaŭ (nomita, vokis) "faktoro," "_exogenous_ (variablo, varianta)," aŭ "X-(variablo, varianta)").
Tipa (ekzemploj, ekzemplas) estas la dependeco de la sangopremo Y sur la aĝo X de persono, aŭ la dependeco de la pezo Y de certa (animaloj, animalas, bestoj, bestas) sur ilia ĉiutaga porciumi de manĝo X. Ĉi tiu dependeco estas (nomita, vokis) la malprogreso de Y sur X.
Vidi ankaŭ: multvariebla normala distribuo, grava (eldonoj, eldonas) en malprogresa analitiko.
Malprogreso estas kutime afektita kiel optimumiga problemo kiel ni estas provanta al trovi solvaĵo kie la eraro estas je minimumo. La plej komuna eraro mezuri tio estas uzita estas la plej malgranda (kvadratoj, placoj, kvadratigas): ĉi tiu korespondas al Gaŭsa verŝajneco de generante observis datumoj donita la (latenta) hazarda variablo. En certa (senso, senco), plej malgranda (kvadratoj, placoj, kvadratigas) estas (optima, optimala) proksimumilo: vidi la Gaŭso-Markova teoremo.
La optimumiga problemo en malprogreso estas tipe solvita per (algoritmoj, algoritmas) kiel la gradienta descenda algoritmo, la Gaŭso-Neŭtona algoritmo, kaj la _Levenberg_-_Marquardt_ algoritmo. Probablecaj algoritmoj kiel _RANSAC_ povas kutimi trovi bona adapti por specimena aro, donita parametrigita modelo de la kurba funkcio. Por pli komplekso, ne-linearaj malprogresaj artefaritaj neŭronaj retoj estas kutime uzita.
Malprogreso povas esti esprimita kiel maksimuma verŝajneca maniero de taksanta la (parametroj, parametras) de modelo. Tamen, por malgrandaj kvantoj de datumoj, ĉi tiu taksi povas havi alta varianco. Bayes-aj manieroj povas ankaŭ kutimi taksi malprogreso (modeloj, modelas). Antaŭa estas lokita super la (parametroj, parametras), kiu _incorporates_ ĉio sciata pri la (parametroj, parametras). (Ekzemple, se unu parametro estas sciata al esti nenegativa nenegativa distribuo povas esti asignita al ĝi.) A _posterior_ distribuo estas tiam ricevis por la parametra vektoro. Bayes-aj manieroj havi la (avantaĝoj, avantaĝas) (tiu, ke, kiu) ili uzi ĉiu informa tio estas havebla kaj ili estas akurata, ne asimptota, kaj tial laboro bone por malgrandaj datumaj aroj. Iuj praktikantoj uzi maksimumo aposteriora (_MAP_) manieroj, pli simpla maniero ol plena Bayes-a analitiko, en kiu la (parametroj, parametras) estas elektita (tiu, ke, kiu) maksimumigi la _posterior_. _MAP_ manieroj estas rilatanta al _Occam_'s Razilo: estas preferaĵo por simpleco inter familio de malprogreso (modeloj, modelas) (kurboj) (justa, ĵus) kiel estas preferaĵo por simpleco inter konkuranta (teorioj, teorias).
Enhavo |
[redaktu] Celo kaj formulaĵo
La golo de malprogreso estas al priskribi aro de datumoj kiel precize kiel ebla. Al fari ĉi tiu, ni ara jena matematika ĉirkaŭteksto:
estos signifi probablospaco kaj (Γ,S) estos esti mezurhava spaco.
estas aro de koeficientoj.
Tre ofte (sed ne ĉiam), kaj
, la borelo σ-algebro sur la reelaj nombroj.
La respondo (variablo, varianta) (aŭ vektoro de (observadoj, observadas)) Y estas hazarda variablo, kio estas mezurebla funkcio:
.
Ĉi tiu (variablo, varianta) estos esti "eksplikita" uzanta alia hazarda variablo (nomita, vokis) (faktoroj, faktoras). Iu popolo diri Y estas dependa variablo (ĉar ĝi dependas sur la (faktoroj, faktoras)) kaj (voko, voki) la (faktoroj, faktoras) nedependaj variabloj. Tamen, la (faktoroj, faktoras) povas bonege esti statistike dependa (ekzemple se unu prenas X kaj X2) kaj la respondo (variabloj, variablas) povas esti statistike sendependa. Pro tio, la terminologio "dependa" kaj "sendependa" povas esti konfuzanta kaj devus esti evitita.
Estu . p estas (nomita, vokis) nombro de (faktoroj, faktoras).
.
Estu .
Ni fine difini la eraro , kiu (meznombroj, meznombras, signifas) (tiu, ke, kiu)
aŭ pli (lakone, koncize):

kie .
Ni supozi (tiu, ke, kiu) tie ekzistas 'vera parametro tia (tiu, ke, kiu)
, kiu (meznombroj, meznombras, signifas) ni supozi ni havi elektita la modelo precize ĉar la plej bona antaŭdiro ni povas fari de Y donita X estas
. Ĉi tiu vera parametro
estas nekonato kaj ĝi estas la celi de malprogreso al taksi ĝi kun la datumoj je mano.
La neceseco de ĉi tiu abstrakta formalismo _arrises_ ĉar la respondo (variabloj, variablas) Y kaj la (faktoroj, faktoras) povas esti de tre malsama naturo kaj pro tio preni (valoroj, valoras) en tre malsamaj aroj. Ekzemple, Y povis esti la nombro de (ĝusta, ĝustigi, korekti) (respondoj, respondas) al provo kaj X = X1 povita aĝi la persono (klopodanta, entreprenanta) la provo. Sed la (faktoroj, faktoras) don't (eĉ, ebena, para) devi esti nombroj: ekzemple, ili povas preni (valoroj, valoras) en finia aro kiel {low,medium,high}.
La lasta (termo, membro, flanko, termino), , estas hazarda variablo (nomita, vokis) eraro kiu estas supozita al modelo la variebleco en la eksperimento (kio estas, en akurate la samaj kondiĉoj, la (eligi, eligo) Y de la eksperimento povus diferenci malmulte de eksperimento al eksperimento). Ĉi tiu (termo, membro, flanko, termino) reale prezentas la parto de Y ne eksplikis per la modelo η.
La ĝenerala (formo, formi) de la funkcio η estas sciata. Fakte, la nur ero ni don't scii en la ekvacio (E) estas θ. La celi de malprogreso estas, donita aro de datumoj, al trovi proksimumilo de
(veriganta, kontentiganta) iu kriterio.
La unua (ŝtupo, paŝi) estas al decidi sur la (formo, formi) de la modelo. Tiam elekti proksimumilo por kaj komputi ĝi.
[redaktu] Elekto de la malprogresa funkcio
[redaktu] Lineara malprogreso
Lineara malprogreso estas la plej komuna (kesto, okazo) en praktiko ĉar ĝi estas la plej facila al komputi kaj donas bonaj rezultoj. Ja, per bridanta la variadoj de la (faktoroj, faktoras) al "malgranda sufiĉa" domajno, la respondo (variablo, varianta) povas esti aproksimita _localy_ per lineara funkcio. (Tononomo, Noto, Noti) (tiu, ke, kiu) per "lineara", ni (meznombro, signifi) "lineara en θ, ne "lineara en X". Kiam ni fari lineara malprogreso, ni estas implice supoze ke donita aro de (faktoroj, faktoras) , la plej bona proksimuma kalkulado de la respondo (variablo, varianta) Y ni povas trovi estas lineara kombinaĵo de ĉi tioj (faktoroj, faktoras)
. La celi de lineara malprogreso estas al trovi bona proksimumilo de la (ĝusta, dekstra, rajto) koeficientoj
de ĉi tiu lineara kombinaĵo.
Ni elekti η jena vojo:
[redaktu] Logistika malprogreso
Se la (variablo, varianta) y havas nur diskreta (valoroj, valoras) (ekzemple, Jes/Ne (variablo, varianta)), logistika malprogreso estas (preferita, pliamita). Ĝi estas ekvivalento al farante lineara malprogreso sur la _odds_ rilatumo. La rezulto de ĉi tiu tipo de malprogreso estas funkcio kiu priskribas kiel la probablo de donita evento (e.g. probablo de prenanta "jes") (varias, ŝanĝiĝas) kun la (faktoroj, faktoras).
Por ke solvi ĉi tiu problemo kompetente, kelkaj manieroj ekzisti. La plej komuna unu estas la Gaŭso-Markova maniero, sed ĝi postulas superfluaj hipotezoj.
[redaktu] Elekto de proksimumilo
Ni nun supozi (tiu, ke, kiu) por ĉiu faktoro , ni havi specimeno de amplekso
:
kaj (tiu, ke, kiu) ni havi la (korespondanta, respektiva) specimeno de Y:
. Tiam ni povas (masoni, ĉarpenti, konstrui) matrico
kie ĉiu linio prezentas specimeno de la p (faktoroj, faktoras), kio estas eksperimento:
![\mathbf{X}=\left[\begin{matrix}X_1^1&\cdots&X^1_p\\\vdots&&\vdots\\X^n_1&\cdots&X^n_p\end{matrix}\right]](../../../math/2/a/5/2a51502c1ca0190465e3f53c9a95c89c.png)
Ĉi tiu estas matrico de hazarda variablo ofte (nomita, vokis) dizajna matrico (por eksperimenta (dezajnoj, dezajnas, dizajnas, projektas, dizajnoj, desegnas)). Ĉiu linio prezentas eksperimento (aŭ prova) kaj ĉiu kolumno prezentas faktoro. Kiel ni havi n afliktadoj kaj p (faktoroj, faktoras), ĝi estas matrico. Ni ankaŭ havi (korespondanta, respektiva) erara vektoro (de amplekso n):
.
Bazita sur la specimeno kaj sur la dizajna matrico
, ni devus ŝati al taksi la _unkown_ (parametroj, parametras)
(unu por faktoro).
Sub (premisoj, supozoj, supozas) kiu estas renkontita relative ofte, tie ekzistas (optima, optimala) solvaĵo al la lineara malprogresa problemo. Ĉi tiuj (premisoj, supozoj, supozas) estas (nomita, vokis) Gaŭso-Markova (premisoj, supozoj, supozas). Vidi ankaŭ Gaŭso-Markova teoremo.
[redaktu] La Gaŭso-Markova (premisoj, supozoj, supozas)
Ni supozi (tiu, ke, kiu) kaj (tiu, ke, kiu)
(nekorelaciigita, sed ne bezone sendependa) kie
kaj
estas la
identa matrico.
[redaktu] Plej malgranda-(kvadratoj, placoj, kvadratigas) proksumumo de la koeficientoj
La lineara malprogresa problemo estas ekvivalento al orta projekcio: ni (projekcii, projekto) la respondo (variablo, varianta) Y sur subspaco de linearaj funkcioj generita per . (Supozanta, Konjektanta) la matrico
estas de plena rango, ĝi povas esti montrita (por pruvo de ĉi tiu, vidi plej malgranda-(kvadratoj, placoj, kvadratigas) proksumumo de linearaj malprogresaj koeficientoj) (tiu, ke, kiu) bona proksimumilo de la (parametroj, parametras)
estas la plej malgranda-(kvadratoj, placoj, kvadratigas) proksimumilo
:
kaj
[redaktu] (Alternativoj, Alternativas) al plej malgranda-(kvadratoj, placoj, kvadratigas)
La plej malgranda-(kvadratoj, placoj, kvadratigas) proksimumilo estas ege kompetenta: fakte, la Gaŭso-Markovaj teoremaj ŝtatoj (tiu, ke, kiu) sub la Gaŭso-Markova (premisoj, supozoj, supozas), de ĉiuj nedekliva (proksimumiloj, proksimumas) de la linearaj malprogresaj koeficientoj, dependanta (lineare, linie, tutece) sur , la plej malgranda-kvadrataj aĵoj estas la plej kompetentaj aĵoj (plej bona lineara nedekliva proksimumilo aŭ _BLUE_). Bedaŭrinde, la Gaŭso-Markova (premisoj, supozoj, supozas) estas ofte ne renkontita en praktika (okazoj, skatoloj, kestoj, kestas, okazas) (ekzemple, en la studi de tempa serio kaj (foriro, forveturo) de ĉi tiuj (premisoj, supozoj, supozas) povas (korupti, subaĉeti) la rezultoj sufiĉe grave. Iom _naïve_ ilustraĵo de ĉi tiu estas donita sur la (cifero, figuro) pli sube:

Ĉiuj punktoj (mensogi, kuŝi) sur rekto, escepti unu kaj la malprogresa linio estas montrita en (ruĝa, legita). Nur unu observado havas krevaĵita la tuta malprogresa linio: ĉi tiu maniero estas dirita al esti ne-fortika.
_Severall_ manieroj ekzisti al solvi ĉi tiu problemo, la plej simpla kies estas al asigni (pezoj, pezas) al ĉiu observado (vidi pezita plej malgranda-(kvadratoj, placoj, kvadratigas)). Ja, se ni scii (tiu, ke, kiu) la miOna specimeno estas verŝajna al esti _unreliable_, ni estos _downweigh_ ĝi. Ĉi tiu (supozas, konjektas) (tiu, ke, kiu) ni scii kiu (observadoj, observadas) estas krevaĵita, kiu estas ofte iom optimisma. Alia (maniero, proksimiĝi, proksimiĝo) estas al uzi rekursie _reweighted_ plej malgranda-(kvadratoj, placoj, kvadratigas) kie ni komputi la (pezoj, pezas) ripete. La malavantaĝo de ĉi tiu maniero estas (tiu, ke, kiu) ĉi tiu speco de proksimumilo ne povas esti komputita eksplicite (nur rekursie) kaj (tiu, ke, kiu) ĝi estas multa pli malfacila al certiĝi konverĝo, estu sola akurateco. La studi de tia (proksimumiloj, proksimumas) havas (plumbo, konduki) al branĉo de statistiko nun (nomita, vokis) fortika statistiko.
Fortika (proksimumiloj, proksimumas) estante iom _fiddly_ popolo flegi (altano, preteratenti) la Gaŭso-Markova (premisoj, supozoj, supozas) kaj uzi plej malgranda-(kvadratoj, placoj, kvadratigas) (eĉ, ebena, para) en (situacioj, situacias) kie ĝi povas esti malsana-konvenita.
- Se la eraro (termo, membro, flanko, termino) estas ne normala sed (formoj, formas) eksponenta funkcia familio unu povas uzi ĝeneraligitaj linearaj modeloj. Aliaj teknikoj inkluzivi la uzi de pezita plej malgranda (kvadratoj, placoj, kvadratigas) aŭ konvertanta la dependa variablo uzanta la Skatolo-_Cox_ transformo.
- Se _outliers_ estas (prezenti, aktuala) la normala distribuo povas esti (anstataŭigita, anstataŭigis) per t-distribuo aŭ, alternative, fortikaj malprogresaj manieroj (majo, povas) esti uzita.
- Se la antaŭdirilo estas ne lineara _nonparametric_ malprogreso aŭ _semiparametric_ malprogreso aŭ nelineara malprogreso (majo, povas) esti uzita.
[redaktu] Fida intervalo por proksumuma alprenanta normaleco, _homoscedasticity_, kaj nekorelacieco
Kiom fido povas ni havi en la (valoroj, valoras) de ni taksita de la datumoj? Al (respondo, respondi), ni (bezoni, bezono, necesa) al supozi (tiu, ke, kiu):
Tiam ni povas preni la distribuo de la plej malgranda-kvadrata proksumumo de la (parametroj, parametras).
Se kaj
(kun
), tiam
kie .
Por , se ni nomo sj la jOna diagonala ero de la matrico
, 1 − α fida intervalo por ĉiu θj estas pro tio:
[redaktu] (Ekzemploj, Ekzemplas)
[redaktu] Unua ekzemplo
Jena datuma aro donas la averaĝa (altoj, altas) kaj (pezoj, pezas) por Amerikaj virinoj (aĝis, aĝa) 30-39 (fonto: La Mondo (Almanako, Almanaĥo) kaj Libro de (Faktoj, Faktas), 1975).
Alto (en) | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 |
Pezo (_lbs_) | 115 | 117 | 120 | 123 | 126 | 129 | 132 | 135 | 139 | 142 | 146 | 150 | 154 | 159 | 164 |
Ni devus ŝati al vidi kiel la pezo de ĉi tiuj virinoj dependas sur ilia alto. Ni estas pro tio (aspektanta, rigardanta) por funkcio η tia (tiu, ke, kiu) , kie Y estas la pezo de la virinoj kaj X ilia alto. Intuicie, ni povas (konjekto, konjekti, diveni) (tiu, ke, kiu) se la virinoj's (proporcioj, proporcias) estas konstanto kaj ilia denseco ankaŭ, tiam la pezo de la virinoj devas dependi sur la kubo de ilia alto. Grafika prezento de la datuma aro (konfirmas, jesigas) ĉi tiu konjekto:

Ni povas supozi la (altoj, altas) de la virinoj estas memstara de unu la alian kaj havi konstanta varianco, kiu (meznombroj, meznombras, signifas) la Gaŭso-Markova (premisoj, supozoj, supozas) teni. Ni povas pro tio uzi la plej malgranda-(kvadratoj, placoj, kvadratigas) proksimumilo, kio estas ni estas (aspektanta, rigardanta) por koeficientoj θ0,θ1 kaj θ2 (veriganta, kontentiganta) kaj ankaŭ ebla (en la (senso, senco) de la plej malgranda-(kvadratoj, placoj, kvadratigas) proksimumilo) la ekvacio:
Geometrie, kio ni estos farti estas orta projekcio de Y sur la subspaco generita per la (variabloj, variablas) 1,X kaj X3. La matrico \_mathbf_{X} estas konstruita simple per metanta unua kolumno de 1's (la konstanto (termo, membro, flanko, termino) en la modelo) kolumno kun la originala (valoroj, valoras) (la X en la modelo) kaj tria kolumno kun ĉi tiuj (valoroj, valoras) kubita (X3). La kompreno de ĉi tiu matrico (kio estas por la datumoj je mano) povas esti skribita:
1 | x | x3 |
1 | 58 | 195112 |
1 | 59 | 205379 |
1 | 60 | 216000 |
1 | 61 | 226981 |
1 | 62 | 238328 |
1 | 63 | 250047 |
1 | 64 | 262144 |
1 | 65 | 274625 |
1 | 66 | 287496 |
1 | 67 | 300763 |
1 | 68 | 314432 |
1 | 69 | 328509 |
1 | 70 | 343000 |
1 | 71 | 357911 |
1 | 72 | 373248 |
La matrico (iam (nomita, vokis) "informa matrico" aŭ "varianco (ondo) matrico") estas:
Vektoro estas pro tio:
de ĉi tie η(X) = 147 − 1.98X + 4.27 * 10 − 4X3
Grafika prezento de ĉi tiu funkcio montras (tiu, ke, kiu) ĝi (mensogoj, mensogas, kuŝas) sufiĉe proksime al la datuma aro:

La fidaj intervaloj estas komputita uzanta:
kun:
Pro tio, ni povas diri (tiu, ke, kiu) kun probablo de 0.95,
[redaktu] (Sekundo, Dua) ekzemplo
Ni estas donita vektoro de x (valoroj, valoras) kaj alia vektoro de y (valoroj, valoras) kaj ni estas provanta al trovi funkcio f tia (tiu, ke, kiu) f(xi) = yi.
- estu
Estu's alpreni (tiu, ke, kiu) nia solvaĵo estas en la familio de funkcioj difinis per 3-a grada Fourier-a elvolvaĵo skribita en la (formo, formi):
- f(x) = a0 / 2 + a1cos(x) + b1sin(x) + a2cos(2x) + b2sin(2x) + a3cos(3x) + b3sin(3x)
kie ai,bi estas reelaj nombroj. Ĉi tiu problemo povas esti (prezentita, prezentis) en matrico (notacio, skribmaniero) kiel:
enspacanta ĉi tiu (formo, formi) en kun nia donita (valoroj, valoras) rendimenta problemo en la (formo, formi) _Xw_ = y
Ĉi tiu problemo povas nun esti afektita kiel optimumiga problemo al trovi la minimumo (sumo, sumi) de (kvadratita, placita, kvadratigita) eraroj.
solvanta ĉi tiu kun plej malgranda (kvadratoj, placoj, kvadratigas) rendimento:
tial la 3-a-grada Fourier-a funkcio (tiu, ke, kiu) adaptas la datumoj plej bona estas donita per:
- f(x) = 4.25cos(x) − 6.13cos(2x) + 2.88cos(3x).
[redaktu] Vidi ankaŭ
- Fida intervalo
- Ekstrapolo
- _Kriging_
- Antaŭdiro
- Antaŭdira intervalo
- Statistiko
- _Trend_ proksumumo
[redaktu] Referencoj
- _Audi_, R., _Ed_. (1996) La Kembriĝo (Britio) Vortaro de Filozofio. Kembriĝo (Britio), Kembriĝo (Britio) Universitato Premi. kurba adaptada problemo p.172-173.
- Davido _Birkes_ kaj _Yadolah_ _Dodge_, Alternativaj Manieroj de Malprogreso (1993), ISBN 0-471-56881-3
- W. _Hardle_, Aplikita _Nonparametric_ Malprogreso (1990), ISBN 0-521-42950-1
- J. Vulpo, Aplikis Malprogresa Analitiko, Lineara (Modeloj, Modelas) kaj Rilatantaj Manieroj. (1997), Salvio
[redaktu] Ekstera (ligoj, ligas)
- Kurba Kompetentulo propagaĵo
- _Zunzun_._com_ Surlinia kurbo kaj surfaco adaptanta
- _Curvefit_ surlinia dek-punkto _demo_
- _Curvefit_ surlinia kurbo-adaptanta lernolibro
- La R (Projekcii, Projekto) libera programaro
- _SixSigmaFirst_ programaro
- _TableCurve2D_ kaj _TableCurve3D_ per _Systat_ aŭtomatis malprogresa programaro
- A (ŝtupo, paŝi) per (ŝtupo, paŝi) ekzemplo Ni trovi lineara malprogresa ekvacio, (variancoj, variancas), ĉeferarujoj, koeficientoj de korelacio kaj konstato, fida intervalo kaj kaj tiel plu per _Mazoo_'s Lerna Blogo
- Malprogreso de (Lame, Malforte) _Correlated_ Datumoj - simulado de komuna eraro