Metodi di approssimazione per la soluzione di equazioni
Da Wikipedia, l'enciclopedia libera.
[modifica] Metodi di approssimazione per la soluzione di equazioni f(x)=0
I metodi per calcolare in modo approssimato le radici di una equazione (valori dell'incognita che soddisfano l'equazione) si articolano in due fasi: nella prima fase si separano le radici ovvero si determinano gli intervalli della retta reale che contengono una sola radice dell'equazione (si può utilizzare il metodo grafico), nella seconda fase si calcola un valore approssimato della radice dell'equazione applicando, ad esempio, uno dei metodi di seguito illustrati:
Quando si sono separate le radici, ad esempio, si è trovato che la radice α è compresa nell'intervallo [a,b] abbiamo due valori approssimati uno per difetto a ed uno per eccesso b della radice. Si tratta di restringere l'intervallo in modo da ottenere valori più approssimati, secondo una approssimazione fissata. I procedimenti sono iterativi. Ciò che rende un metodo più o meno efficace rispetto ad un altro, è la velocità con cui permette di arrivare a convergenza ovvero il numero di iterazioni necessarie per raggiungere la precisione voluta.
[modifica] Applicabilità dei metodi di calcolo
Si noti come non tutti i metodi possono essere applicati in tutti i casi. Ad esempio, l'equazione
ha soluzione per x=0. Se volessimo applicare il Metodo della bisezione a questa equazione dovremmo innanzitutto determinare, per iniziare l'iterazione, due punti a e b tali che f(a) e f(b) abbiano segni opposti.
Nel caso in oggetto, qualunque valore di si prenda, il valore calcolato
sarà sempre maggiore o uguale a 0. L'algoritmo della bisezione risulta quindi non applicabile.