New Immissions/Updates:
boundless - educate - edutalab - empatico - es-ebooks - es16 - fr16 - fsfiles - hesperian - solidaria - wikipediaforschools
- wikipediaforschoolses - wikipediaforschoolsfr - wikipediaforschoolspt - worldmap -

See also: Liber Liber - Libro Parlato - Liber Musica  - Manuzio -  Liber Liber ISO Files - Alphabetical Order - Multivolume ZIP Complete Archive - PDF Files - OGG Music Files -

PROJECT GUTENBERG HTML: Volume I - Volume II - Volume III - Volume IV - Volume V - Volume VI - Volume VII - Volume VIII - Volume IX

Ascolta ""Volevo solo fare un audiolibro"" su Spreaker.
CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Inferenza bayesiana - Wikipedia

Inferenza bayesiana

Da Wikipedia, l'enciclopedia libera.

Stub Questa voce di statistica è solo un abbozzo: contribuisci a migliorarla secondo le convenzioni di Wikipedia.

L'inferenza bayesiana è un approccio all'inferenza statistica in cui le probabilità non sono interpretate come frequenze, proporzioni o concetti analoghi, ma piuttosto come livelli di fiducia nel verificarsi di un dato evento. Il nome deriva dal teorema di Bayes, che costituisce il fondamento di questo approccio.

Il teorema di Bayes prende a sua volta il nome dal reverendo Thomas Bayes. Ad ogni modo non è chiaro se Bayes stesso sottoscriverebbe l'interpretazione della teoria della probabilità che oggi chiamiamo bayesiana.

Indice

[modifica] Principi e strumenti dell'approccio bayesiano

[modifica] Evidenza empirica e metodo scientifico

Gli statistici bayesiani sostengono che i metodi dell'inferenza bayesiana rappresentano una formalizzazione del metodo scientifico, che normalmente implica la raccolta di dati (evidenza empirica), che corroborano o confutano una data ipotesi. In questo senso, non si può mai avere certezze riguardo a un'ipotesi, ma con l'aumentare della disponibilità di dati il grado di fiducia cambia; con sufficiente evidenza empirica, diventerà molto alto (per esempio, tendente a 1) o molto basso (tendente a 0).

Un ragionamento di questo tipo può essere:

Il sole è sorto e tramontato per miliardi di anni. Il sole è tramontato anche stanotte. Con un'elevata probabilità, il sole domani sorgerà.

Questo esempio è ripreso da una nota argomentazione di Pierre Simon Laplace, che pare sia giunto in maniera indipendente al risultato del teorema di Bayes.

Gli statistici bayesiani sostengono inoltre che l'inferenza bayesiana costituisca la base più logica per discriminare tra ipotesi alternative/in conflitto. Tramite tale approccio, si usa una stima del grado di confidenza in una data ipotesi prima dell'osservazione dei dati, al fine di associare un valore numerico al grado di confidenza in quella stessa ipotesi successivamente all'osservazione dei dati. Dal momento che si fonda su livelli di confidenza soggettivi, per contro, l'inferenza bayesiana non è interamente riducibile al concetto di induzione; si veda anche metodo scientifico.

[modifica] Teorema di Bayes

In termini più semplici, il teorema di Bayes fornisce un metodo per modificare il livello di confidenza in una data ipotesi, alla luce di nuova informazione. Denotando con \ H_{0} l'ipotesi nulla, e con \ E il dato empirico osservato, il teorema di Bayes può essere enunciato come:

\ P(H_{0}|E)=\frac{P(E|H_{0})P(H_{0})}{P(E)}

Tralasciando l'origine dell'ipotesi nulla (che potrà essere stata formulata ab initio, o dedotta da precedenti osservazioni), essa dovrà comunque essere formulata prima dell'osservazione \ E. Nella terminologia della statistica bayesiana, inoltre:

  • \ P(H_{0}) è detta probabilità a priori;
  • \ P(E|H_{0}) è detta funzione di verosimiglianza, ed è ciò su cui si fonda l'inferenza classica, o frequentista;
  • \ P(E) è detta probabilità marginale, la probabilità di osservare \ E, senza alcuna informazione pregressa; è una costante di normalizzazione;
  • \ P(H_{0}|E) è detta probabilità a posteriori di \ H_0, dato \ E.

Il fattore di scala \ P(E|H_{0})/P(E) può essere interpretato come una misura dell'impatto che l'osservazione di \ E ha sul grado di confidenza del ricercatore nell'ipotesi nulla, rappresentato a sua volta dalla probabilità a priori \ P(H_{0}); se è altamente inverosimile che \ E sia osservato, a meno che \ H_0 non sia proprio vera, il fattore di scala sarà elevato. La probabilità (confidenza) a posteriori, di conseguenza, combina le convinzioni che il ricercatore ha a priori con quelle derivanti dall'osservazione del dato empirico.

È facile mostrare che \ P(H_{0}|E) è sempre minore o al più uguale a 1, così che le consuete proprietà della probabilità sono soddisfatte; infatti:

\ P(E)\geq P(E\wedge H_{0})=P(E|H_{0})P(H_{0})

dunque se \ P(E)=P(E\wedge H_{0}), \ P(H_{0}|E)=1, e in qualunque altro caso la probabilità a posteriori sarà strettamente minore di 1.

[modifica] Probabilità oggettiva e soggettiva

Alcuni statistici bayesiani ritengono che se fosse possibile assegnare alle probabilità a priori un valore oggettivo, il teorema di Bayes potrebbe essere impiegato per fornire una misura oggettiva della probabilità di un'ipotesi. Per altri, tuttavia, non sarebbe possibile assegnare probabilità oggettive; in effetti, ciò sembrerebbe richiedere la capacità di assegnare probabilità a tutte le possibili ipotesi.

In alternativa (e più spesso, nel contesto della statistica bayesiana), le probabilità si considerano una misura del grado soggettivo di confidenza da parte del ricercatore, e si suppone che restringano le potenziali ipotesi a un insieme limitato, inquadrato in un modello di riferimento. Il teorema di Bayes dovrebbe allora fornire un criterio razionale per valutare fino a che punto una data osservazione dovrebbe alterare le convinzioni del ricercatore; in questo caso tuttavia la probabilità rimane soggettiva: dunque è possibile usare il teorema per giustificare razionalmente una qualche ipotesi, ma alle spese di rifiutare l'oggettività delle affermazioni che ne derivano.

È inoltre improbabile che due individui muovano dallo stesso grado di confidenza soggettiva. I sostenitori del metodo bayesiano argomentano che,anche con probabilità a priori molto differenti, un numero sufficiente di osservazioni possa condurre a probabilità a posteriori molto vicine. Ciò presuppone che i ricercatori non rifiutino a priori le ipotesi della loro controparte, e che assegnino probabilità condizionate (funzioni di verosimiglianza) simili.

La scuola della statistica italiana ha dato importanti contributi allo sviluppo della concezione soggettiva della probabilità, tramite il lavoro di Bruno de Finetti. Sulla distinzione tra probabilità oggettiva e soggettiva, si veda anche l'articolo sulla probabilità.

[modifica] Rapporto di verosimiglianza

Spesso l'impatto dell'osservazione empirica può essere sintetizzato da un rapporto di verosimiglianza. Quest'ultimo può essere combinato con la probabilità a priori, per rappresentare il grado di confidenza a priori e qualunque precedente risultato empirico. Per esempio, si consideri il rapporto di verosimiglianza:

\ \Lambda=\frac{L(H_{0}|E)}{L(\textrm{not}\ H_{0}|E)}=\frac{P(E|H_{0})}{P(E|\textrm{not}\ H_{0})}

Si può riscrivere l'enunciato del teorema di Bayes come:

\ P(H_{0}|E)=\frac{\Lambda P(H_{0})}{\Lambda P(H_{0})+P(\textrm{not}\ H_{0})}=\frac{P(H_{0})}{P(H_{0})+\left(1-P(H_{0})\right)/\Lambda}

Sulla base di due risultati empirici indipendenti \ E_1, \ E_2, quanto sopra può essere sfruttato per computare la probabilità a posteriori sulla base di \ E_1, e utilizzare quest'ultima come nuova probabilità a priori per calcolare una seconda probabilità a posteriori basata su \ E_2. Questo procedimento è algebricamente equivalente a moltiplicare i rapporti di verosimiglianza. Dunque:

\ P(E_{1},E_{2}|H_{0})=P(E_{1}|H_{0})P(E_{2}|H_{0})\quad \wedge\quad P(E_{1},E_{2}|\textrm{not}\ H_{0})=P(E_{1}|\textrm{not}\ H_{0})P(E_{2}|\textrm{not}\ H_{0})

implica:

\ P(H_{0}|E_{1},E_{2})=\frac{\Lambda_{1}\Lambda_{2}P(H_{0})}{\Lambda_{1}\Lambda_{2}P(H_{0})+P(\textrm{not}\ H_{0})}

[modifica] Funzione di perdita

La statistica bayesiana presenta importanti collegamenti con la teoria delle decisioni; una decisione basata sul fondamento dell'inferenza bayesiana è determinata da una funzione di perdita ad essa associata. La funzione di perdita essenzialmente riflette le conseguenze negative associate alla decisione "sbagliata". Un esempio piuttosto comune, e che porta a risultati assai vicini a quelli dell'inferenza classica o frequentista, è quello della funzione di perdita quadratica.

[modifica] Particolari distribuzioni a priori e a posteriori

[modifica] La v.c. Beta nell'inferenza bayesiana

La v.c. Beta svolge un importante ruolo nell'ambito dell'inferenza bayesiana in quanto per alcune v.c. è sia la distribuzione a priori che la distribuzione a posteriori (con parametri diversi) dei parametri di tali v.c.

[modifica] Priori coniugati e la v.c. Binomiale

Se X è distribuita come una v.c. Binomiale con parametri n e π

f(x | π) = Binom(x | n;π)

e il parametro π è distribuito a priori come una v.c. Beta con i parametri a e b

g(π) = Beta(π | a;b)

allora il parametro π è distribuito a posteriori anch'esso come una v.c. Beta, ma con parametri a+x e b+n-x

g(π | x) = Beta(π | a + x;b + nx)

Qualora la distribuzione a priori sia una variabile casuale rettangolare nell'intervallo [0;1] (ovvero ipotizzando a priori tutti i possibilii valori di π equiprobabili), e pertanto a=1 e b=1, allora la distribuzione a posteriori è una Beta con parametri x+1 e n-x+1

g(\pi|x)=(n+1) {n \choose k} \pi^k (1-\pi)^{n+k}

che ha come valore modale p (e dunque come valore più probabile)

p=k/n

[modifica] Priori coniugati e la v.c. Binomiale Negativa

Se X è distribuita come una v.c. binomiale negativa con parametri m e θ

f(x | θ) = BinNeg(x | m;θ)

e il parametro θ è distribuito a priori come una v.c. Beta con i parametri a e b

g(θ) = Beta(θ | a;b)

allora il parametro θ è distribuito a posteriori anch'esso come una v.c. Beta, ma con parametri a+m e b+x

g(θ | x) = Beta(θ | a + m;b + x)

Qualora la distribuzione a priori sia una variabile casuale rettangolare nell'intervallo [0;1] (ovvero ipotizzando a priori tutti i possibilii valori di θ equiprobabili), e pertanto a=1 e b=1, allora la distribuzione a posteriori è una Beta con parametri m+1 e x+1

che ha come valore modale t (e dunque come valore più probabile)

t=m/(m+x)

[modifica] La v.c. Gamma nell'inferenza bayesiana

La v.c. Gamma svolge un importante ruolo nell'ambito dell'inferenza bayesiana in quanto per alcune v.c. è sia la distirubuzione a priori che la distribuzione a posteriori (con parametri diversi) dei parametri di tali v.c.

[modifica] Priori coniugati e la stessa v.c. Gamma

Se X è distribuita come una v.c. Gamma con parametri α e θ

f(x | θ) = Gamma(x | α;θ)

e il parametro θ è distribuito a priori a sua volta come una v.c. Gamma con i parametri a e b

g(θ) = Gamma(θ | a;b)

allora il parametro θ è distribuito a posteriori anch'esso come una v.c. Gamma, ma con parametri a+α e b+x

g(θ | x) = Gamma(θ | a + α;b + x)

[modifica] Priori coniugati e la v.c. Poissoniana

Se X è distribuita come una v.c. poissoniana con parametr λ

f(x | λ) = Poiss(x | λ)

e il parametro λ è distribuito a priori come una v.c. Gamma con i parametri a e b

g(λ) = Gamma(λ | a;b)

allora il parametro λ è distribuito a posteriori anch'esso come una v.c. Gamma, ma con parametri a+x e b+1

g(λ | x) = Gamma(θ | a + x;b + 1)

[modifica] Priori coniugati e la v.c. Normale

[modifica] V.c. Gamma come priori coniugati della v.c. normale

Se X è distribuita come una v.c. normale con parametr μ e 1/θ

f(x | λ) = N(x | μ;1 / θ)

e il parametro θ è distribuito a priori come una v.c. Gamma con i parametri a e b

g(λ) = Gamma(λ | a;b)

allora il parametro θ è distribuito a posteriori anch'esso come una v.c. Gamma, ma con parametri a+1/2 e b+(μ-x)2/2

g(θ | x) = Gamma(θ | a + 1 / 2;b + (μ − x)2 / 2)

[modifica] Priori coniugati normale di una normale

Se X è distribuita come una v.c. normale con parametri m e σ2

f(x | m) = N(x | m;1 / r2)

e il parametro m è distribuito a priori come una v.c. normale con i parametri μ e σ2

g(m) = N(m | μ;σ2)

allora il parametro m è distribuito a posteriori anch'esso come una v.c. Normale, ma con parametri 2μ + r2x) / (σ2 + r2) e 2r2) / (σ2 + r2)

g(m | x) = N(m | (σ2μ + r2x) / (σ2 + r2);(σ2r2) / (σ2 + r2))

[modifica] La v.c. Dirichlet come priori coniugata della multinominale

Se X è distribuita come una variabile casuale multinomiale

f(x | θ) = Multinomialek12,...,θk)

e la distribuzione a priori di θ è una variabile casuale di Dirichlet

g(θ) = Dirichlet12,...,αk)

allora la distribuzione a posteriori di θ è anch'essa una v.c. di Dirichlet, ma con nuovi parametri

g(θ | x) = Dirichlet1 + x12 + xk,...,αk + xk)

[modifica] L'uniforme discreta nel caso di estrazione semplice

Se X è distribuita come in seguito ad una estrazione semplice di una popolazione dicotomica

f(x | θ) = θ / n

e il parametro θ è distribuito apriori come una variabile casuale uniforme discreta

g(θ) = 1 / n

allora la distribuzione a posteriori con la funzione di probabilità

g(θ | x) = 2θ / (n + 1)

[modifica] Popolarità dell'inferenza bayesiana

L'inferenza bayesiana ha a lungo rappresentato una corrente minoritaria nella teoria della statistica. Ciò è il larga parte dovuto alle difficoltà algebriche che essa pone; la computazione delle probabilità a posteriori è basata sul calcolo di integrali, per i quali spesso non si hanno espressioni analitiche.

Queste difficoltà hanno fino a pochi anni fa limitato la capacità della statistica bayesiana di produrre modelli realistici della realtà. Al fine di evitare di incorrere in problemi algebrici, gran parte dei risultati erano basati sulla teoria delle coniugate, particolari famiglie di distribuzioni per cui la probabilità a posteriori risulta avere la stessa forma di quella a priori. Chiaramente un approccio di questo tipo cozzava con l'ambizione dei bayesiani di fare statistica a partire da ipotesi meno restrittive di quelle dell'inferenza classica.

Grazie alla maggiore disponibilità di risorse informatiche a partire dagli anni '90, è stato possibile superare tali difficoltà. È infatti possibile risolvere gli integrali in via numerica, aggirando i problemi algebrici, nella maggior parte delle applicazioni su un qualsiasi personal computer. Questa possibilità ha inoltre stimolato l'applicazione alla statistica Bayesiana di metodi numerici sviluppati in altri contesti, come quelli basati sulla simulazione (metodo Monte Carlo, algoritmi del Gibbs sampler e di Metropolis-Hastings), nonché lo sviluppo di metodi nuovi nell'ambito della statistica bayesiana stessa (ad esempio i popolari metodi basati sul Markov Chain Monte Carlo, o MCMC). Ciò ha notevolmente incrementato la popolarità dell'inferenza bayesiana tra gli statistici; sebbene i bayesiani costituiscano ancora una minoranza, si tratta di una minoranza in rapida crescita.

Al di là delle difficoltà numeriche che hanno a lungo reso impopolare l'inferenza bayesiana o delle problematiche epistemologiche che i metodi bayesiani sollevano, l'approccio bayesiano ha il merito di aver stimolato, nella statistica come in altre discipline (un recente esempio è dato dall'economia), la riflessione su cosa sia un modello e su che lettura un ricercatore ne deve dare.

[modifica] Voci correlate

[modifica] Collegamenti esterni

Static Wikipedia (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia February 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu