Échantillonnage (signal)
Un article de Wikipédia, l'encyclopédie libre.
- Pour les articles homonymes, voir Échantillonnage.
L'échantillonnage consiste à transformer un signal analogique (continu) en signal numérique (discret), en capturant des valeurs à intervalle de temps régulier (ici temps est à prendre au sens large et s'applique à tout signal). C'est une étape nécessaire pour pouvoir enregistrer, analyser et traiter un signal par ordinateur, car celui-ci ne peut traiter que des nombres. Il faut distinguer l'échantillonnage de la quantification, mais ce sont toutes deux des étapes nécessaires à la numérisation d'un signal.
La fréquence à laquelle les valeurs sont capturées est la fréquence d'échantillonnage, appelée aussi cadence d'échantillonnage, ou taux d'échantillonnage, exprimée en Hz. Par exemple, un CD audio contient des données musicales échantillonnées à 44,1 kHz (44100 échantillons par seconde).
[modifier] Problèmes liés à l'échantillonnage
Un signal analogique est par définition d'une précision infinie, à la fois en temps et en valeur. Or l'échantillonnage, pour permettre une définition exacte en temps du signal afin de le stocker numériquement, va réduire ce signal à une suite de points discrets. Cela comporte deux conséquences distinctes :
- seule l'information présente sur le point de capture est enregistrée ;
- tout le reste est perdu.
Intuitivement, on peut se rendre compte que, si la fréquence d'échantillonnage est très faible, les acquisitions seront très espacées et, de ce fait si le signal original comporte des détails entre deux positions de capture, ils ne seront pas enregistrés. C'est pour cela que la fréquence d'échantillonnage doit être bien choisie, suffisamment grande pour restituer correctement l'ensemble des informations transportées par le signal analogique, au moins les informations utiles, sans être excessive, ce qui gaspillerait de l'espace de stockage. Le théorème de Shannon affirme que toutes les fréquences du signal inférieures à la moitié de la fréquence d'échantillonnage seraient correctement restituées. En pratique on constate cependant que les fréquences harmoniques de la fréquence d'échantillonnage sont privilégiées et qu'il y a de nombreuses pertes.
Les fréquences supérieures à la moitié de la fréquence d'échantillonnage introduisent du bruit dans le signal, en polluant les fréquences plus basses (par effet d'interférence, également appelé phénomène de repliement). Pour s'en convaincre, essayons d'imaginer un signal analogique qui comporterait des impulsions très courtes et très grandes, comme les craquements sur un disque vinyle. Ces impulsions représentent un ajout de hautes fréquences au signal de base. Si le point de capture tombe sur une portion saine, l'impulsion est ignorée, mais si le point de capture tombe au milieu de l'impulsion, c'est la valeur à cet endroit précis qui sera enregistrée, introduisant de ce fait un artéfact lors de l'enregistrement, car cette valeur sera considérée comme la valeur moyenne sur son intervalle.
Afin d'éviter ce genre de désagréments, on effectue généralement un filtrage fréquentiel passe-bas avant l'opération d'échantillonnage proprement dite, dont la fréquence de coupure sera égale à la plus haute fréquence correctement restituée, soit la moitié de la fréquence d'échantillonnage. Il est à noter que le filtre peut également être un passe-bande, par exemple si on souhaite échantillonner une source de radio FM, et dans ce cas la fréquence d'échantillonnage devra être le double de la largeur de bande, et non la fréquence de coupure, de ce filtre.
Si l'on prend le cas particulier du CD dont la fréquence d'échantillonnage a été fixée à 44,1 kHz, le théorème de Shannon affirme qu'il ne faut pas dépasser une fréquence enregistrée de 22 050 Hz. En réalité, lorsque la fréquence échantillonnée se rapproche de très près de la fréquence d'échantillonnage, on ne peut éviter un effet d'interférence générant des sons parasites indésirables. Pour les éviter, on a recours à plusieurs méthodes. Le plus simple consiste à couper délibérément les fréquences dépassant 20 kHz, au lieu de les couper à 22, avant échantillonnage, à l'aide par exemple d'un filtre anticrènelage. On évite ainsi la zone "dangereuse". Une autre méthode consiste à "corriger" les données en temps réel pour les adapter à la fréquence d'échantillonnage (par exemple le Super Bit Mapping mis au point par Sony).
Dans de nombreux cas, un filtrage est naturellement effectué lors de l'acquisition, de par l'imperfection des systèmes de capture. Prenons l'exemple d'un capteur CCD : son rôle est de transformer la lumière qu'il reçoit en une valeur d'intensité lumineuse. Il ne reçoit pas un point infiniment petit de lumière qui correspondrait mathématiquement à un point discret et physiquement à un photon, c'est physiquement impossible, mais il reçoit une zone de lumière plus ou moins grande, et ses propriétés physiques font qu'une valeur analogique d'intensité est donnée en sortie, qui correspond à une sorte de moyenne pondérée de l'ensemble des points de lumière reçus. Il peut très bien prendre davantage en compte le centre de sa zone de réception que la périphérie, voire l'inverse, la sortie en sera d'autant changée. Cependant, la plupart des capteurs agiront d'une manière proche d'un filtre passe-bas, évitant la nécessité de filtrer le signal analogique.
[modifier] Mathématiques de l'échantillonnage
À introduire : la relation du théorème de Shannon avec la largeur de bande et non la plus haute fréquence.
Pour mieux comprendre l'origine des problèmes de l'échantillonnage, un outil devient indispensable : il s'agit de la transformée de Fourier. Elle transforme un signal de l'espace temporel à l'espace fréquentiel. Dans ce dernier, une valeur correspond non plus à une valeur instantanée du signal au cours du temps mais à une valeur de fréquence, ce qui correspond à la présence d'une certaine fréquence dans le signal sous la forme d'une sinusoïde. De la transformée de Fourier d'un signal, on peut déduire le spectre, qui correspond véritablement à la décomposition d'un signal en ses bandes de fréquences, comme un prisme décompose la lumière en son spectre de couleurs.
La transformation d'un signal continu en une suite de points discrets introduit une périodisation du spectre. Pour un taux d'échantillonnage Δt (le temps écoulé entre deux échantillons, soit l'inverse de la fréquence d'échantillonnage), la période du spectre est .
Appelons la plus grande fréquence du signal F. Comme le spectre comporte autant de fréquences positives que négatives, la période nécessaire pour restituer correctement le signal est 2F. La période du spectre doit donc être supérieure à celle-ci. Si on appelle f la fréquence d'échantillonnage : . La fréquence d'échantillonnage doit donc être plus du double de la fréquence maximale du signal pour le restituer correctement. Que se passe-t-il si f < 2F ? Comme la période du spectre sera insuffisante, les hautes fréquences de la période centrée sur zéro vont empiéter sur les hautes fréquences de la période suivante, et autant d'informations seront détériorées. On sera confronté au phénomène d'aliasing, qui répercute les hautes fréquences sur le spectre des basses fréquences.
On parle aussi de repliement de spectre car les fréquences supérieures réapparaissent comme si le spectre était replié autour des multiples de la moitié de la fréquence d'échantillonnage. Un effet similaire peut être observé dans les westerns. Les roues des chariots semblent tourner à l'envers à cause d'un effet stroboscopique.