New Immissions/Updates:
boundless - educate - edutalab - empatico - es-ebooks - es16 - fr16 - fsfiles - hesperian - solidaria - wikipediaforschools
- wikipediaforschoolses - wikipediaforschoolsfr - wikipediaforschoolspt - worldmap -

See also: Liber Liber - Libro Parlato - Liber Musica  - Manuzio -  Liber Liber ISO Files - Alphabetical Order - Multivolume ZIP Complete Archive - PDF Files - OGG Music Files -

PROJECT GUTENBERG HTML: Volume I - Volume II - Volume III - Volume IV - Volume V - Volume VI - Volume VII - Volume VIII - Volume IX

Ascolta ""Volevo solo fare un audiolibro"" su Spreaker.
CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Vikipedio:Projekto matematiko/Malprogresa analitiko - Vikipedio

Vikipedio:Projekto matematiko/Malprogresa analitiko

El Vikipedio

Ĉi tiu artikolo montras stilajn aŭ/kaj gramatikajn aŭ/kaj strukturajn problemojn kaj bezonas poluradon por konformi al pli bona nivelo de kvalito. Post plibonigo movu la artikolon al
Malprogresa analitiko
(eble la nomo mem bezonas korekton) Se la ligo estas ruĝa, vi povas movi la artikolon. Se la ligo estas blua, la alia artikolo pri la temo jam ekzistas kaj tiun kaj ĉi tiun artikolon necasas kunigi.


Malprogresa analitiko estas (ĉiu, iu) statistika maniero kie la (meznombro, signifi) de unu aŭ pli hazarda variablo estas aŭgurita (statita, kondiĉita) sur alia ((mezuris, kriteriita)) hazarda variablo. En aparta, estas lineara malprogreso, logistika malprogreso, _Poisson_ malprogreso, kontrolis lerno, kaj unuo-pezita malprogreso. Malprogresa analitiko estas pli ol kurba adaptado (elektanta kurbo (tiu, ke, kiu) plej bona adaptas donitaj datumaj punktoj); ĝi engaĝas adaptanta modelo kun ambaŭ (determinisma, determina) kaj stokasto (komponantoj, komponantas). La (determinisma, determina) komponanto estas (nomita, vokis) la antaŭdirilo kaj la stokasta komponanto estas (nomita, vokis) la eraro (termo, membro, flanko, termino).

La plej simpla (formo, formi) de malprogresa modelo enhavas dependa variablo (ankaŭ (nomita, vokis) "rezulto (variablo, varianta)," "_endogenous_ (variablo, varianta)," aŭ "Y-(variablo, varianta)") kaj sola nedependa variablo (ankaŭ (nomita, vokis) "faktoro," "_exogenous_ (variablo, varianta)," aŭ "X-(variablo, varianta)").

Tipa (ekzemploj, ekzemplas) estas la dependeco de la sangopremo Y sur la aĝo X de persono, aŭ la dependeco de la pezo Y de certa (animaloj, animalas, bestoj, bestas) sur ilia ĉiutaga porciumi de manĝo X. Ĉi tiu dependeco estas (nomita, vokis) la malprogreso de Y sur X.

Vidi ankaŭ: multvariebla normala distribuo, grava (eldonoj, eldonas) en malprogresa analitiko.

Malprogreso estas kutime afektita kiel optimumiga problemo kiel ni estas provanta al trovi solvaĵo kie la eraro estas je minimumo. La plej komuna eraro mezuri tio estas uzita estas la plej malgranda (kvadratoj, placoj, kvadratigas): ĉi tiu korespondas al Gaŭsa verŝajneco de generante observis datumoj donita la (latenta) hazarda variablo. En certa (senso, senco), plej malgranda (kvadratoj, placoj, kvadratigas) estas (optima, optimala) proksimumilo: vidi la Gaŭso-Markova teoremo.

La optimumiga problemo en malprogreso estas tipe solvita per (algoritmoj, algoritmas) kiel la gradienta descenda algoritmo, la Gaŭso-Neŭtona algoritmo, kaj la _Levenberg_-_Marquardt_ algoritmo. Probablecaj algoritmoj kiel _RANSAC_ povas kutimi trovi bona adapti por specimena aro, donita parametrigita modelo de la kurba funkcio. Por pli komplekso, ne-linearaj malprogresaj artefaritaj neŭronaj retoj estas kutime uzita.

Malprogreso povas esti esprimita kiel maksimuma verŝajneca maniero de taksanta la (parametroj, parametras) de modelo. Tamen, por malgrandaj kvantoj de datumoj, ĉi tiu taksi povas havi alta varianco. Bayes-aj manieroj povas ankaŭ kutimi taksi malprogreso (modeloj, modelas). Antaŭa estas lokita super la (parametroj, parametras), kiu _incorporates_ ĉio sciata pri la (parametroj, parametras). (Ekzemple, se unu parametro estas sciata al esti nenegativa nenegativa distribuo povas esti asignita al ĝi.) A _posterior_ distribuo estas tiam ricevis por la parametra vektoro. Bayes-aj manieroj havi la (avantaĝoj, avantaĝas) (tiu, ke, kiu) ili uzi ĉiu informa tio estas havebla kaj ili estas akurata, ne asimptota, kaj tial laboro bone por malgrandaj datumaj aroj. Iuj praktikantoj uzi maksimumo aposteriora (_MAP_) manieroj, pli simpla maniero ol plena Bayes-a analitiko, en kiu la (parametroj, parametras) estas elektita (tiu, ke, kiu) maksimumigi la _posterior_. _MAP_ manieroj estas rilatanta al _Occam_'s Razilo: estas preferaĵo por simpleco inter familio de malprogreso (modeloj, modelas) (kurboj) (justa, ĵus) kiel estas preferaĵo por simpleco inter konkuranta (teorioj, teorias).

Enhavo

[redaktu] Celo kaj formulaĵo

La golo de malprogreso estas al priskribi aro de datumoj kiel precize kiel ebla. Al fari ĉi tiu, ni ara jena matematika ĉirkaŭteksto:

(\Omega,\mathcal{A}, P) estos signifi probablospaco kaj (Γ,S) estos esti mezurhava spaco. \Theta\subseteq\Gamma estas aro de koeficientoj.

Tre ofte (sed ne ĉiam), \Gamma = \mathbb{R} kaj S=\mathcal{B}, la borelo σ-algebro sur la reelaj nombroj.

La respondo (variablo, varianta) (aŭ vektoro de (observadoj, observadas)) Y estas hazarda variablo, kio estas mezurebla funkcio:

Y:(\Omega,\mathcal{A})\rightarrow(\Gamma, S).

Ĉi tiu (variablo, varianta) estos esti "eksplikita" uzanta alia hazarda variablo (nomita, vokis) (faktoroj, faktoras). Iu popolo diri Y estas dependa variablo (ĉar ĝi dependas sur la (faktoroj, faktoras)) kaj (voko, voki) la (faktoroj, faktoras) nedependaj variabloj. Tamen, la (faktoroj, faktoras) povas bonege esti statistike dependa (ekzemple se unu prenas X kaj X2) kaj la respondo (variabloj, variablas) povas esti statistike sendependa. Pro tio, la terminologio "dependa" kaj "sendependa" povas esti konfuzanta kaj devus esti evitita.

Estu p\in\mathbb{N}^*. p estas (nomita, vokis) nombro de (faktoroj, faktoras).

\forall i\in \{1,\cdots,p\}, X_i:(\Omega,\mathcal{A})\rightarrow(\Gamma, S).

Estu \eta:\left\{ \begin{matrix} \Gamma^p\times\Theta&\rightarrow&\Gamma\\ (X_1,\cdots,X_p;\theta)&\mapsto&\eta(X_1,\cdots,X_p,\theta) \end{matrix} \right..

Ni fine difini la eraro \varepsilon:=Y-\eta(X_1,\cdots,X_p;\theta), kiu (meznombroj, meznombras, signifas) (tiu, ke, kiu) Y=\eta(X_1,\cdots,X_p;\theta)+\varepsilon aŭ pli (lakone, koncize):

Y=\eta(X;\theta)+\varepsilon (E)

kie X:=(X_1,\cdots,X_p).

Ni supozi (tiu, ke, kiu) tie ekzistas 'vera parametro \overline{\theta}\in\Theta tia (tiu, ke, kiu) \mathbb{E}[\varepsilon(\overline{\theta})|X]=0, kiu (meznombroj, meznombras, signifas) ni supozi ni havi elektita la modelo precize ĉar la plej bona antaŭdiro ni povas fari de Y donita X estas \eta(X;\overline{\theta}). Ĉi tiu vera parametro \overline{\theta} estas nekonato kaj ĝi estas la celi de malprogreso al taksi ĝi kun la datumoj je mano.

La neceseco de ĉi tiu abstrakta formalismo _arrises_ ĉar la respondo (variabloj, variablas) Y kaj la (faktoroj, faktoras) X_1,\cdots,X_p povas esti de tre malsama naturo kaj pro tio preni (valoroj, valoras) en tre malsamaj aroj. Ekzemple, Y povis esti la nombro de (ĝusta, ĝustigi, korekti) (respondoj, respondas) al provo kaj X = X1 povita aĝi la persono (klopodanta, entreprenanta) la provo. Sed la (faktoroj, faktoras) don't (eĉ, ebena, para) devi esti nombroj: ekzemple, ili povas preni (valoroj, valoras) en finia aro kiel {low,medium,high}.

La lasta (termo, membro, flanko, termino), \varepsilon, estas hazarda variablo (nomita, vokis) eraro kiu estas supozita al modelo la variebleco en la eksperimento (kio estas, en akurate la samaj kondiĉoj, la (eligi, eligo) Y de la eksperimento povus diferenci malmulte de eksperimento al eksperimento). Ĉi tiu (termo, membro, flanko, termino) reale prezentas la parto de Y ne eksplikis per la modelo η.

La ĝenerala (formo, formi) de la funkcio η estas sciata. Fakte, la nur ero ni don't scii en la ekvacio (E) estas θ. La celi de malprogreso estas, donita aro de datumoj, al trovi proksimumilo \widehat{\theta} de \overline{\theta} (veriganta, kontentiganta) iu kriterio.

La unua (ŝtupo, paŝi) estas al decidi sur la (formo, formi) de la modelo. Tiam elekti proksimumilo por \overline{\theta} kaj komputi ĝi.

[redaktu] Elekto de la malprogresa funkcio

[redaktu] Lineara malprogreso

Lineara malprogreso estas la plej komuna (kesto, okazo) en praktiko ĉar ĝi estas la plej facila al komputi kaj donas bonaj rezultoj. Ja, per bridanta la variadoj de la (faktoroj, faktoras) al "malgranda sufiĉa" domajno, la respondo (variablo, varianta) povas esti aproksimita _localy_ per lineara funkcio. (Tononomo, Noto, Noti) (tiu, ke, kiu) per "lineara", ni (meznombro, signifi) "lineara en θ, ne "lineara en X". Kiam ni fari lineara malprogreso, ni estas implice supoze ke donita aro de (faktoroj, faktoras) X_1,\cdots,X_p, la plej bona proksimuma kalkulado de la respondo (variablo, varianta) Y ni povas trovi estas lineara kombinaĵo de ĉi tioj (faktoroj, faktoras) X_1,\cdots,X_p. La celi de lineara malprogreso estas al trovi bona proksimumilo de la (ĝusta, dekstra, rajto) koeficientoj \overline{\theta} de ĉi tiu lineara kombinaĵo.

Ni elekti η jena vojo:

\eta(X,\theta)=\theta^0 + \sum_{j=1}^p \theta^j X_j.

[redaktu] Logistika malprogreso

Se la (variablo, varianta) y havas nur diskreta (valoroj, valoras) (ekzemple, Jes/Ne (variablo, varianta)), logistika malprogreso estas (preferita, pliamita). Ĝi estas ekvivalento al farante lineara malprogreso sur la _odds_ rilatumo. La rezulto de ĉi tiu tipo de malprogreso estas funkcio kiu priskribas kiel la probablo de donita evento (e.g. probablo de prenanta "jes") (varias, ŝanĝiĝas) kun la (faktoroj, faktoras).

Por ke solvi ĉi tiu problemo kompetente, kelkaj manieroj ekzisti. La plej komuna unu estas la Gaŭso-Markova maniero, sed ĝi postulas superfluaj hipotezoj.

[redaktu] Elekto de proksimumilo

Ni nun supozi (tiu, ke, kiu) por ĉiu faktoro X_j, j\in\{1,\cdots,p\}, ni havi specimeno de amplekso n\in\mathbb{N}^*: (X^1_j, \cdots,X^n_j) kaj (tiu, ke, kiu) ni havi la (korespondanta, respektiva) specimeno de Y: Y_1,\cdots,Y_n. Tiam ni povas (masoni, ĉarpenti, konstrui) matrico \mathbf{X} kie ĉiu linio prezentas specimeno de la p (faktoroj, faktoras), kio estas eksperimento:

\mathbf{X}=\left[\begin{matrix}X_1^1&\cdots&X^1_p\\\vdots&&\vdots\\X^n_1&\cdots&X^n_p\end{matrix}\right]

Ĉi tiu estas matrico de hazarda variablo ofte (nomita, vokis) dizajna matrico (por eksperimenta (dezajnoj, dezajnas, dizajnas, projektas, dizajnoj, desegnas)). Ĉiu linio prezentas eksperimento (aŭ prova) kaj ĉiu kolumno prezentas faktoro. Kiel ni havi n afliktadoj kaj p (faktoroj, faktoras), ĝi estas n\times p matrico. Ni ankaŭ havi (korespondanta, respektiva) erara vektoro (de amplekso n): \vec{\varepsilon}=\vec{Y}-\eta(\mathbf{X};\overline{\theta}).

Bazita sur la specimeno \vec{Y}=(Y_1,\cdots,Y_n) kaj sur la dizajna matrico \mathbf{X}, ni devus ŝati al taksi la _unkown_ (parametroj, parametras) \overline{\theta}=(\theta^1,\cdots,\theta^n) (unu por faktoro).

Sub (premisoj, supozoj, supozas) kiu estas renkontita relative ofte, tie ekzistas (optima, optimala) solvaĵo al la lineara malprogresa problemo. Ĉi tiuj (premisoj, supozoj, supozas) estas (nomita, vokis) Gaŭso-Markova (premisoj, supozoj, supozas). Vidi ankaŭ Gaŭso-Markova teoremo.

[redaktu] La Gaŭso-Markova (premisoj, supozoj, supozas)

Ni supozi (tiu, ke, kiu) \mathbb{E}\vec{\varepsilon}=\vec{0} kaj (tiu, ke, kiu) \mathbb{V}\vec{\varepsilon}=\sigma^2 \mathbf{I}_n (nekorelaciigita, sed ne bezone sendependa) kie \sigma^2<+\infty kaj \mathbf{I}_n estas la n\times n identa matrico.

[redaktu] Plej malgranda-(kvadratoj, placoj, kvadratigas) proksumumo de la koeficientoj

La lineara malprogresa problemo estas ekvivalento al orta projekcio: ni (projekcii, projekto) la respondo (variablo, varianta) Y sur subspaco de linearaj funkcioj generita per (X_1,\cdots,X_p). (Supozanta, Konjektanta) la matrico \mathbf{X} estas de plena rango, ĝi povas esti montrita (por pruvo de ĉi tiu, vidi plej malgranda-(kvadratoj, placoj, kvadratigas) proksumumo de linearaj malprogresaj koeficientoj) (tiu, ke, kiu) bona proksimumilo de la (parametroj, parametras) \overline{\theta}=(\theta^0,\cdots,\theta^p) estas la plej malgranda-(kvadratoj, placoj, kvadratigas) proksimumilo \widehat{\theta}_{LS}:

\widehat{\theta}_{LS}= (\mathbf{X}^t \mathbf{X})^{-1}\mathbf{X}^t \vec{Y}

kaj \eta(\mathbf{X};\widehat{\theta}_{LS}) = \mathbf{X}\widehat{\theta}_{LS}

[redaktu] (Alternativoj, Alternativas) al plej malgranda-(kvadratoj, placoj, kvadratigas)

La plej malgranda-(kvadratoj, placoj, kvadratigas) proksimumilo estas ege kompetenta: fakte, la Gaŭso-Markovaj teoremaj ŝtatoj (tiu, ke, kiu) sub la Gaŭso-Markova (premisoj, supozoj, supozas), de ĉiuj nedekliva (proksimumiloj, proksimumas) de la linearaj malprogresaj koeficientoj, dependanta (lineare, linie, tutece) sur \vec{Y}, la plej malgranda-kvadrataj aĵoj estas la plej kompetentaj aĵoj (plej bona lineara nedekliva proksimumilo aŭ _BLUE_). Bedaŭrinde, la Gaŭso-Markova (premisoj, supozoj, supozas) estas ofte ne renkontita en praktika (okazoj, skatoloj, kestoj, kestas, okazas) (ekzemple, en la studi de tempa serio kaj (foriro, forveturo) de ĉi tiuj (premisoj, supozoj, supozas) povas (korupti, subaĉeti) la rezultoj sufiĉe grave. Iom _naïve_ ilustraĵo de ĉi tiu estas donita sur la (cifero, figuro) pli sube:

Image:least_squares_not_robust.jpg

Ĉiuj punktoj (mensogi, kuŝi) sur rekto, escepti unu kaj la malprogresa linio estas montrita en (ruĝa, legita). Nur unu observado havas krevaĵita la tuta malprogresa linio: ĉi tiu maniero estas dirita al esti ne-fortika.

_Severall_ manieroj ekzisti al solvi ĉi tiu problemo, la plej simpla kies estas al asigni (pezoj, pezas) al ĉiu observado (vidi pezita plej malgranda-(kvadratoj, placoj, kvadratigas)). Ja, se ni scii (tiu, ke, kiu) la miOna specimeno estas verŝajna al esti _unreliable_, ni estos _downweigh_ ĝi. Ĉi tiu (supozas, konjektas) (tiu, ke, kiu) ni scii kiu (observadoj, observadas) estas krevaĵita, kiu estas ofte iom optimisma. Alia (maniero, proksimiĝi, proksimiĝo) estas al uzi rekursie _reweighted_ plej malgranda-(kvadratoj, placoj, kvadratigas) kie ni komputi la (pezoj, pezas) ripete. La malavantaĝo de ĉi tiu maniero estas (tiu, ke, kiu) ĉi tiu speco de proksimumilo ne povas esti komputita eksplicite (nur rekursie) kaj (tiu, ke, kiu) ĝi estas multa pli malfacila al certiĝi konverĝo, estu sola akurateco. La studi de tia (proksimumiloj, proksimumas) havas (plumbo, konduki) al branĉo de statistiko nun (nomita, vokis) fortika statistiko.

Fortika (proksimumiloj, proksimumas) estante iom _fiddly_ popolo flegi (altano, preteratenti) la Gaŭso-Markova (premisoj, supozoj, supozas) kaj uzi plej malgranda-(kvadratoj, placoj, kvadratigas) (eĉ, ebena, para) en (situacioj, situacias) kie ĝi povas esti malsana-konvenita.

  • Se la eraro (termo, membro, flanko, termino) estas ne normala sed (formoj, formas) eksponenta funkcia familio unu povas uzi ĝeneraligitaj linearaj modeloj. Aliaj teknikoj inkluzivi la uzi de pezita plej malgranda (kvadratoj, placoj, kvadratigas) aŭ konvertanta la dependa variablo uzanta la Skatolo-_Cox_ transformo.
  • Se _outliers_ estas (prezenti, aktuala) la normala distribuo povas esti (anstataŭigita, anstataŭigis) per t-distribuo aŭ, alternative, fortikaj malprogresaj manieroj (majo, povas) esti uzita.
  • Se la antaŭdirilo estas ne lineara _nonparametric_ malprogreso aŭ _semiparametric_ malprogreso aŭ nelineara malprogreso (majo, povas) esti uzita.

[redaktu] Fida intervalo por proksumuma alprenanta normaleco, _homoscedasticity_, kaj nekorelacieco

Kiom fido povas ni havi en la (valoroj, valoras) de \widehat{\theta}_{LS} ni taksita de la datumoj? Al (respondo, respondi), ni (bezoni, bezono, necesa) al supozi (tiu, ke, kiu):

\vec{Y}\sim\mathcal{N}(\mathbf{X}\overline{\theta},\sigma^2 \mathbf{I}_n).\,

Tiam ni povas preni la distribuo de la plej malgranda-kvadrata proksumumo de la (parametroj, parametras).

Se \eta(\mathbf{X};\hat{\theta}_{LS})=\mathbf{X}\widehat{\theta}_{LS} kaj \widehat{\sigma}^2:=\frac{1}{n-p}\|\vec{Y}-\eta(\mathbf{X};\hat{\theta}_{LS})\|^2 (kun \|u\|^2=u^t u), tiam

\widehat{\theta}_{LS}\sim\mathcal{N}(\overline{\theta}\mathbf{1},\sigma^2(\mathbf{X}^t \mathbf{X})^{-1}),

kie \mathbf{1}=(1,\cdots,1).

\frac{n-p}{\sigma^2}\widehat{\sigma}^2\sim\chi^2_{n-p},
\frac{1}{\sigma^2}\|\vec{Y}-\eta(\mathbf{X};\hat{\theta}_{LS})\|^2\sim\chi_{p}^2.

Por 1\leq j\leq p, se ni nomo sj la jOna diagonala ero de la matrico (\mathbf{X}^t\mathbf{X})^{-1}, 1 − α fida intervalo por ĉiu θj estas pro tio:

[\widehat{\theta_j}-\widehat{\sigma}\sqrt{s_j}t_{n-p;1-\frac{\alpha}{2}};\widehat{\theta_j}+\widehat{\sigma}\sqrt{s_j}t_{n-p;1-\frac{\alpha}{2}}].

[redaktu] (Ekzemploj, Ekzemplas)

[redaktu] Unua ekzemplo

Jena datuma aro donas la averaĝa (altoj, altas) kaj (pezoj, pezas) por Amerikaj virinoj (aĝis, aĝa) 30-39 (fonto: La Mondo (Almanako, Almanaĥo) kaj Libro de (Faktoj, Faktas), 1975).

Alto (en) 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72
Pezo (_lbs_) 115 117 120 123 126 129 132 135 139 142 146 150 154 159 164

Ni devus ŝati al vidi kiel la pezo de ĉi tiuj virinoj dependas sur ilia alto. Ni estas pro tio (aspektanta, rigardanta) por funkcio η tia (tiu, ke, kiu) Y=\eta(X)+\varepsilon, kie Y estas la pezo de la virinoj kaj X ilia alto. Intuicie, ni povas (konjekto, konjekti, diveni) (tiu, ke, kiu) se la virinoj's (proporcioj, proporcias) estas konstanto kaj ilia denseco ankaŭ, tiam la pezo de la virinoj devas dependi sur la kubo de ilia alto. Grafika prezento de la datuma aro (konfirmas, jesigas) ĉi tiu konjekto:

Image:data_plot_women_weight_vs_height.jpg

Ni povas supozi la (altoj, altas) de la virinoj estas memstara de unu la alian kaj havi konstanta varianco, kiu (meznombroj, meznombras, signifas) la Gaŭso-Markova (premisoj, supozoj, supozas) teni. Ni povas pro tio uzi la plej malgranda-(kvadratoj, placoj, kvadratigas) proksimumilo, kio estas ni estas (aspektanta, rigardanta) por koeficientoj θ01 kaj θ2 (veriganta, kontentiganta) kaj ankaŭ ebla (en la (senso, senco) de la plej malgranda-(kvadratoj, placoj, kvadratigas) proksimumilo) la ekvacio:

\vec{Y}=\theta^0 + \theta^1 \vec{X} + \theta^2 \vec{X}^3+\vec{\varepsilon}

Geometrie, kio ni estos farti estas orta projekcio de Y sur la subspaco generita per la (variabloj, variablas) 1,X kaj X3. La matrico \_mathbf_{X} estas konstruita simple per metanta unua kolumno de 1's (la konstanto (termo, membro, flanko, termino) en la modelo) kolumno kun la originala (valoroj, valoras) (la X en la modelo) kaj tria kolumno kun ĉi tiuj (valoroj, valoras) kubita (X3). La kompreno de ĉi tiu matrico (kio estas por la datumoj je mano) povas esti skribita:

1 x x3
1 58 195112
1 59 205379
1 60 216000
1 61 226981
1 62 238328
1 63 250047
1 64 262144
1 65 274625
1 66 287496
1 67 300763
1 68 314432
1 69 328509
1 70 343000
1 71 357911
1 72 373248

La matrico (\mathbf{X}^t \mathbf{X})^{-1} (iam (nomita, vokis) "informa matrico" aŭ "varianco (ondo) matrico") estas:

\left[\begin{matrix} 1927.3&-44.6&3.5e-3\\ -44.6&1.03&-8.1e-5\\ 3.5e-3&-8.1e-5&6.4e-9 \end{matrix}\right]

Vektoro \widehat{\theta}_{LS} estas pro tio:

\widehat{\theta}_{LS}=(X^tX)^{-1}X^{t}y= (146.6,-2.0,4.3e-4)

de ĉi tie η(X) = 147 − 1.98X + 4.27 * 10 − 4X3

Grafika prezento de ĉi tiu funkcio montras (tiu, ke, kiu) ĝi (mensogoj, mensogas, kuŝas) sufiĉe proksime al la datuma aro:

Image:Plot_regression_women.jpg

La fidaj intervaloj estas komputita uzanta:

[\widehat{\theta_j}-\widehat{\sigma}\sqrt{s_j}t_{n-p;1-\frac{\alpha}{2}};\widehat{\theta_j}+\widehat{\sigma}\sqrt{s_j}t_{n-p;1-\frac{\alpha}{2}}]

kun:

\widehat{\sigma}=0.52
s_1=1927.3, s_2=1.033, s_3=6.37*10^{-9}\;
\alpha=5\%
t_{n-p;1-\frac{\alpha}{2}}=2.1788

Pro tio, ni povas diri (tiu, ke, kiu) kun probablo de 0.95,

\theta^0\in[112.0 , 181.2]
\theta^1\in[-2.8 , -1.2]
\theta^2\in[3.6e-4 , 4.9e-4]

[redaktu] (Sekundo, Dua) ekzemplo

Ni estas donita vektoro de x (valoroj, valoras) kaj alia vektoro de y (valoroj, valoras) kaj ni estas provanta al trovi funkcio f tia (tiu, ke, kiu) f(xi) = yi.

estu \vec{x} = \begin{pmatrix} -2 \\ -1 \\ 0 \\ 1 \\ 2 \\ \end{pmatrix},  \vec{y} = \begin{pmatrix} 5 \\ 2 \\ 1 \\ 2 \\ 5 \\ \end{pmatrix}

Estu's alpreni (tiu, ke, kiu) nia solvaĵo estas en la familio de funkcioj difinis per 3-a grada Fourier-a elvolvaĵo skribita en la (formo, formi):

f(x) = a0 / 2 + a1cos(x) + b1sin(x) + a2cos(2x) + b2sin(2x) + a3cos(3x) + b3sin(3x)

kie ai,bi estas reelaj nombroj. Ĉi tiu problemo povas esti (prezentita, prezentis) en matrico (notacio, skribmaniero) kiel:

\begin{pmatrix} 1/2, & \cos(x), & \sin(x), & \cos(2x), & \sin(2x), & \cos(3x), & \sin(3x), \\ \end{pmatrix} \begin{pmatrix} a_{0} \\ a_{1} \\ b_{1} \\ a_{2} \\ b_{2} \\ a_{3} \\ b_{3} \\ \end{pmatrix} = \vec{y}

enspacanta ĉi tiu (formo, formi) en kun nia donita (valoroj, valoras) rendimenta problemo en la (formo, formi) _Xw_ = y

\begin{pmatrix} 1/2 & \cos(-2) & \sin(-2) & \cos(-4) & \sin(-4) & \cos(-6) & \sin(-6)\\ 1/2 & \cos(-1) & \sin(-1) & \cos(-2) & \sin(-2) & \cos(-3) & \sin(-3)\\ 1/2 & 1 & 0 & 1 & 0 & 1 & 0\\ 1/2 & \cos(1) & \sin(1) & \cos(2) & \sin(2) & \cos(3) & \sin(3)\\ 1/2 & \cos(2) & \sin(2) & \cos(4) & \sin(4) & \cos(6) & \sin(6)\\ \end{pmatrix} . \begin{pmatrix} a_{0} \\ a_{1} \\ b_{1} \\ a_{2} \\ b_{2} \\ a_{3} \\ b_{3} \\ \end{pmatrix} = \begin{pmatrix} 5 \\ 2 \\ 1 \\ 2 \\ 5 \\ \end{pmatrix}

Ĉi tiu problemo povas nun esti afektita kiel optimumiga problemo al trovi la minimumo (sumo, sumi) de (kvadratita, placita, kvadratigita) eraroj.

3-a grada Fourier-a funkcio
3-a grada Fourier-a funkcio
\min_{\vec{w}} \sum_{i=1}^{n} (\vec{x_{i}}\vec{w} - y_{i})^2
\min_{\vec{w}} \|X\vec{w} - \vec{y}\|^2.

solvanta ĉi tiu kun plej malgranda (kvadratoj, placoj, kvadratigas) rendimento:

\vec{w} = \begin{pmatrix} 0 \\ 4.25 \\ 0 \\ -6.13 \\ 0 \\ 2.88 \\ 0 \\ \end{pmatrix}

tial la 3-a-grada Fourier-a funkcio (tiu, ke, kiu) adaptas la datumoj plej bona estas donita per:

f(x) = 4.25cos(x) − 6.13cos(2x) + 2.88cos(3x).

[redaktu] Vidi ankaŭ

  • Fida intervalo
  • Ekstrapolo
  • _Kriging_
  • Antaŭdiro
  • Antaŭdira intervalo
  • Statistiko
  • _Trend_ proksumumo

[redaktu] Referencoj

  • _Audi_, R., _Ed_. (1996) La Kembriĝo (Britio) Vortaro de Filozofio. Kembriĝo (Britio), Kembriĝo (Britio) Universitato Premi. kurba adaptada problemo p.172-173.
  • Davido _Birkes_ kaj _Yadolah_ _Dodge_, Alternativaj Manieroj de Malprogreso (1993), ISBN 0-471-56881-3
  • W. _Hardle_, Aplikita _Nonparametric_ Malprogreso (1990), ISBN 0-521-42950-1
  • J. Vulpo, Aplikis Malprogresa Analitiko, Lineara (Modeloj, Modelas) kaj Rilatantaj Manieroj. (1997), Salvio

[redaktu] Ekstera (ligoj, ligas)

Static Wikipedia (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia February 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu