Discuter:Métaheuristique
Un article de Wikipédia, l'encyclopédie libre.
Pourquoi avoir nommé cela des métaheuristiques ? À ce que je lis dans l'article, il s'agit simplement d'heuristiques au sens le plus courant du terme. 212.198.57.89 1 oct 2004 à 00:44 (CEST)
- C'est le terme consacré dans le milieu de la recherche. À l'origine on parlait de métaheuristiques (ou méta-heuristiques) pour des méthodes qui rassemblaient plusieurs heuristique. Le terme a maintenant une connotation un peu plus large, et fait généralement référence à des algorithmes stochastiques sans garantie de résultats. La plupart du temps ces méthodes sont utiles sur des problèmes d'optimisation difficile par opposition aux problèmes que l'on peut résoudre par des méthodes exactes ou des heuristiques. Une petite recherche sur Google sur métaheuristiques éclaircira le sujet. nojhan 1 oct 2004 à 12:28 (CEST)
J'ai pris plaisir à lire cet article. Je me permets de faire quelques suggestions :
- Attention à définir les concepts avant leur utilisation. Par exemple, qu'est ce qu'une recherche globale ou locale ?
- Je connais les métaheuristiques à travers les problèmes inverses. Donc ma vision n'est surement que partielle et déformée. Le débat sur l'utilisation de ces méthodes dans mon domaine (elles sont assez en vogue), outre la mesure quantitative de la réalisation de la convergence, est la difficulté d'estimer l'erreur et la résolution associées.
- Quel est l'influence de la dimension de l'espace de recherche (par ex. plusieurs dizaines) sur l'efficacité de ces méthodes ?
- Il est écrit dans l'article que toutes les méthodes se valent plus ou moins. En pratique surement mais d'un point de vue théorique, la convergence peut etre démontrée mathématiquement pour certaines (par ex. recuit simulé) mais pas pour d'autres (par ex. algorithme génétique). Enfin je n'ai pas de référence sous la main et c'est un souvenir lointain de mes cours.
- Il est vrai qu'il existe beaucoup de méthodes et qu'il est impossible de toutes les citer. Mais j'ai un faible pour le downhill simplex et les méthodes par tesselation progressive de l'espace de recherche.
En tout cas bel effort sur un sujet pas très facile. andre 16 février 2007 à 13:08 (CET)
- Merci, n'hésitez pas à participer à la rédaction de l'article !
- Bonne remarque, je vais tâcher d'améliorer ça.
- Oui, les méthodologies de tests et de validations étaient le parent pauvre de la recherche dans le domaine, mais un mouvement général s'opère depuis quelques années dans le bon sens. Je vais tâcher de développer un peu cette partie, d'excellents articles et un livre sont parus récemment sur le sujet.
- Très lourde. On peut considérer que maintenir une efficacité constante sur des problèmes à variables indépendantes consiste à garder la même densité d'échantillonnage. On a donc un problème de nombre de points en pv, ce qui ne facilite pas l'utilisation. Maintenant, en pratique le nb de points peut être très réduit, en acceptant une dégradation des performances, en réglant au plus fin les paramètres, en ajoutant des informations sur le problème, etc. En pratique, je dirais que jusqu'à 100 variables, ça se règle sans trop de problème.
- En fait, on peut démontrer la convergence pour à peu près n'importe quelle métaheuristique, avec juste plus ou moins de facilité (puisqu'en fait, c'est surtout l'ergodicité qui joue). Par contre, ce qui est vraiment difficile, c'est de donner une borne. Ceci étant dit, vu les problèmes sur lesquels on utilise les métaheuristiques, la convergence n'est pas forcément une condition à l'efficacité : savoir que l'algo se comportera au pire comme une recherche aléatoire ne nous dit pas s'il sera efficace en pratique.
- Il ne reste qu'à écrire les articles, je propose : Simplexe de Nelder-Mead et Tesselation (optimisation) :-) nojhan→☸ 16 février 2007 à 20:48 (CET)