Densité spectrale de puissance maximale. Densité spectrale des signaux

Entendant par processus aléatoire un ensemble (ensemble) de fonctions temporelles, il faut garder à l'esprit que des fonctions ayant des formes différentes correspondent à des caractéristiques spectrales différentes. La moyenne de la densité spectrale complexe définie par (1.47) sur toutes les fonctions conduit à un spectre nul du processus (pour M[x(t)]=0 ) en raison du caractère aléatoire et de l'indépendance des phases des composantes spectrales dans diverses implémentations.

Il est cependant possible d'introduire la notion de densité spectrale du carré moyen d'une fonction aléatoire, puisque la valeur du carré moyen ne dépend pas du rapport des phases des harmoniques sommés. Si sous une fonction aléatoire x(t) impliquant une tension ou un courant électrique, alors le carré moyen de cette fonction peut être considéré comme la puissance moyenne dissipée dans une résistance de 1 ohm. Cette puissance est répartie sur des fréquences dans une certaine bande, en fonction du mécanisme de formation d'un processus aléatoire.

La densité spectrale de puissance moyenne est la puissance moyenne par Hz à une fréquence donnée ω . Fonction Dimension O(ω) , qui est le rapport entre la puissance et la bande passante, est

La densité spectrale d'un processus aléatoire peut être trouvée si le mécanisme de formation d'un processus aléatoire est connu. En ce qui concerne le bruit associé à la structure atomistique de la matière et de l'électricité, cette tâche sera plus tardive. Nous nous limiterons ici à quelques définitions générales.

Sélection d'une implémentation à partir de l'ensemble Xk(t) et en limitant sa durée à un intervalle fini J, nous pouvons lui appliquer la transformée de Fourier habituelle et trouver la densité spectrale X kT (ω). Ensuite, l'énergie du segment de mise en œuvre considéré peut être calculée à l'aide de la formule :

(1.152)

En divisant cette énergie en J, obtenir la puissance moyenne k-ème mise en œuvre sur le segment J

(1.153)

Avec une augmentation Jénergie EkT augmente, mais le rapport tend vers une certaine limite. Après avoir fait le passage à la limite, on obtient :

g
de

représente densité spectrale de puissance moyenne pris en considération k-ème la mise en oeuvre.

En général, la valeur O k (ω) doit être moyenné sur de nombreuses implémentations. En se limitant dans ce cas à la considération d'un processus stationnaire et ergodique, on peut supposer que la fonction trouvée en faisant la moyenne sur une réalisation O k (ω) caractérise l'ensemble du processus. En omettant l'indice k, nous obtenons l'expression finale de la puissance moyenne du processus aléatoire

Pour un processus de moyenne nulle

(1.156)

Il ressort de la définition de la densité spectrale (1.155) que O X (ω) est une fonction paire et non négative ω.

1.5.3 Relation entre densité spectrale et fonction de covariance d'un processus aléatoire

D'une part, le taux de variation X(t) dans le temps détermine la largeur du spectre. D'un autre côté, taux de changement x(t) détermine l'évolution de la fonction de covariance. Il est évident qu'entreO X (ω) et K X(τ) il existe une relation étroite.

Le théorème de Wiener-Khinchin stipule que Pour X (τ) et O X (ω) sont interconnectés par des transformées de Fourier :

(1.157)

(1.158)

Pour les processus aléatoires de moyenne nulle, des expressions similaires ont la forme :

De ces expressions découle une propriété similaire aux propriétés des transformées de Fourier pour les signaux déterministes : plus le spectre d'un processus aléatoire est large, plus l'intervalle de corrélation est petit et, par conséquent, plus l'intervalle de corrélation est grand, plus le spectre du processus est étroit (voir fig. 1.20).

Fig.1.20. Spectres large bande et bande étroite d'un processus aléatoire ; bordures de la bande centrale : ± F 1

Le bruit blanc est d'un grand intérêt lorsque le spectre est uniforme à toutes les fréquences.

Si on substitue dans l'expression 1.158 OX(ω) = O 0 = const, alors on obtient

où δ(τ) est la fonction delta.

Pour un bruit blanc à spectre infini et uniforme, la fonction de corrélation est nulle pour toutes les valeurs de τ sauf τ = 0 , auquel R X (0) tourne à l'infini. Un tel bruit, qui a une structure en aiguille avec des pointes aléatoires infiniment fines, est parfois appelé un processus delta-corrélé. La dispersion du bruit blanc est infiniment grande.

Questions pour l'auto-examen

    Quelles sont les principales caractéristiques d'un signal aléatoire.

    Comment mathématiquement la fonction de corrélation et le spectre d'énergie d'un signal aléatoire sont liés.

    Quel processus aléatoire est appelé stationnaire.

    Quel processus aléatoire est appelé ergodique.

    Comment l'enveloppe, la phase et la fréquence d'un signal à bande étroite sont déterminées

    Quel signal est appelé analytique.

Densité spectrale de puissance croisée (spectre de puissance croisée) deux réalisations et processus aléatoires ergodiques stationnaires et est défini comme la transformée de Fourier directe sur leur fonction de covariance mutuelle

ou, compte tenu de la relation entre les fréquences circulaires et cycliques,

La transformée de Fourier inverse relie la fonction de covariance mutuelle et la densité spectrale de puissance :

De manière similaire à (1.32), (1.33) nous introduisons densité spectrale de puissance (spectre de puissance) processus aléatoire

La fonction a la propriété de parité :

La relation suivante est valable pour la densité spectrale mutuelle :

où est la fonction complexe conjuguée à .

Les formules ci-dessus pour les densités spectrales sont définies pour les fréquences positives et négatives et sont appelées densités spectrales bilatérales . Ils sont pratiques dans l'étude analytique des systèmes et des signaux. En pratique, ils utilisent des densités spectrales définies uniquement pour les fréquences non négatives et appelées unilatéral (Figure 1.14) :

Figure 1.14 - Unilatéral et bilatéral

densités spectrales

Dérivons une expression reliant la densité spectrale unilatérale du SP stationnaire avec sa fonction de covariance :

Nous prenons en compte la propriété de parité pour la fonction de covariance du SP stationnaire et de la fonction cosinus, la propriété impaire pour la fonction sinus et la symétrie des limites d'intégration. En conséquence, la deuxième intégrale dans l'expression obtenue ci-dessus s'annule, et dans la première intégrale, on peut diviser par deux les limites d'intégration, en doublant le coefficient :

Évidemment, la densité spectrale de puissance d'un processus aléatoire est une fonction réelle.

De même, la relation inverse peut être obtenue :

De l'expression (1.42) à , il s'ensuit que

Cela signifie que la surface totale sous le diagramme de densité spectrale unilatéral est égale au carré moyen du processus aléatoire. En d'autres termes, la densité spectrale unilatérale est interprétée comme la distribution quadratique moyenne du processus sur les fréquences.

L'aire sous le graphique de densité unilatérale, comprise entre deux valeurs arbitraires de fréquence et , est égale au carré moyen du processus dans cette bande de fréquence du spectre (Figure 1.15) :

Figure 1.15 - Propriété de densité spectrale

La densité spectrale de puissance mutuelle est une quantité complexe, elle peut donc être représentée sous forme exponentielle en termes de module et angle de phase :


où est le module;

est l'angle de phase ;

, sont respectivement les parties réelle et imaginaire de la fonction.

Le module de la densité spectrale mutuelle est inclus dans l'inégalité importante

Cette inégalité permet de déterminer fonction de cohérence (carré de cohérence), qui est similaire au carré de la fonction de corrélation normalisée :

La deuxième façon d'introduire des densités spectrales est la transformée de Fourier directe de processus aléatoires.

Soient et deux processus aléatoires ergodiques stationnaires pour lesquels transformées de Fourier finies ème implémentations de la longueur sont définies comme

La densité spectrale mutuelle bilatérale de ces processus aléatoires est introduite à l'aide du produit par la relation

où l'opérateur d'espérance désigne l'opération de calcul de la moyenne sur l'indice .

Le calcul de la densité spectrale bilatérale d'un processus aléatoire s'effectue selon la relation

Les densités spectrales unilatérales sont introduites de la même manière :

Les fonctions définies par les formules (1.49), (1.50) sont identiques aux fonctions correspondantes définies par les relations (1.32), (1.33) comme transformées de Fourier sur les fonctions de covariance. Cette déclaration s'appelle Théorèmes de Wiener-Khinchin.

question test

1. Donner une classification des processus déterministes.

2. Quelle est la différence entre les processus polyharmoniques et presque périodiques ?

3. Formuler la définition d'un processus aléatoire stationnaire.

4. Quelle méthode de calcul de la moyenne des caractéristiques d'un processus aléatoire ergodique est préférable - calcul de la moyenne sur un ensemble de fonctions d'échantillonnage ou calcul de la moyenne sur le temps d'observation d'une réalisation ?

5. Formuler la définition de la densité de distribution de probabilité d'un processus aléatoire.

6. Écrivez une expression reliant les fonctions de corrélation et de covariance d'un processus aléatoire stationnaire.

7. Quand deux processus aléatoires sont-ils considérés comme non corrélés ?

8. Indiquez les méthodes de calcul du carré moyen d'un processus aléatoire stationnaire.

9. Par quelle transformation les fonctions de densité spectrale et de covariance d'un processus aléatoire sont-elles liées ?

10. Dans quelle mesure les valeurs de la fonction de cohérence de deux processus aléatoires changent-elles ?

Littérature

1. Sergienko, A.B. Traitement numérique du signal / A.B. Sergienko. - M : Pierre, 2002. - 604 p.

2. Sadovsky, G.A. Fondements théoriques des équipements de mesure de l'information / G.A. Sadovsky. - M. : Lycée, 2008. - 480 p.

3. Bendat, D. Application de la corrélation et de l'analyse spectrale / D. Bendat, A. Pirsol. – M. : Mir, 1983. – 312 p.

4. Bendat, D. Mesure et analyse des processus aléatoires / D. Bendat, A. Pirsol. – M. : Mir, 1974. – 464 p.

1) Dans son sens physique, le spectre de puissance est réel et non négatif :

Par conséquent, il est fondamentalement impossible de restaurer une implémentation individuelle d'un processus aléatoire à partir du spectre de puissance.

2) Puisqu'il s'agit d'une fonction paire de l'argument, le spectre de puissance correspondant est une fonction paire de la fréquence. Il s'ensuit donc que le couple de transformées de Fourier (6.14), (6.15) peut s'écrire en utilisant des intégrales dans des limites semi-infinies :

(6.17)

(6.18)

3. Il convient d'introduire le spectre de puissance dit unilatéral d'un processus aléatoire, en le définissant comme suit :

(6.19)

La fonction vous permet de calculer la variance d'un processus aléatoire stationnaire en intégrant sur des fréquences positives (fréquences physiques) :

(6.20)

4. Dans les calculs techniques, le spectre de puissance unilatéral N(f) est souvent introduit, qui est la puissance moyenne d'un processus aléatoire par intervalle de fréquence de 1 Hz de large :

(6.21)

Cependant, il est facile de voir

Très paramètre important processus aléatoires est l'intervalle de corrélation. Les processus aléatoires, en règle générale, ont les propriétés suivantes : leur fonction de corrélation tend vers zéro avec un décalage temporel croissant. Plus la fonction diminue rapidement, moins il y a de relation statistique entre les valeurs instantanées d'un signal aléatoire à deux instants non coïncidents.

Une caractéristique numérique qui permet d'apprécier le « taux de variation » de la mise en œuvre d'un processus aléatoire est l'intervalle de corrélation défini par l'expression :

(6.22)

Si des informations sont connues sur le comportement de toute implémentation "dans le passé", alors une prévision probabiliste d'un processus aléatoire est possible pour un temps de commande .

Un autre paramètre essentiel pour un processus aléatoire est la largeur effective du spectre. Soit le processus aléatoire à l'étude caractérisé par une fonction - un spectre de puissance unilatéral, et - la valeur extrême de cette fonction. Remplaçons le processus aléatoire donné mentalement par un autre processus dont la densité spectrale de puissance est constante et égale dans la bande de fréquence effective , choisi parmi la condition d'égalité des puissances moyennes des deux processus :

Cela donne la formule de la largeur de spectre effective :

(6.23)

En dehors de la bande spécifiée, la densité spectrale d'un processus aléatoire est considérée comme égale à 0.

Cette caractéristique numérique est souvent utilisée pour le calcul technique de la dispersion du signal de bruit : .



Si les implémentations d'un processus aléatoire ont la dimension de la tension (V), alors le spectre de puissance relative N a la dimension .

Le bruit blanc et ses propriétés. Processus aléatoire gaussien.

A) bruit blanc.

un processus aléatoire stationnaire avec une densité spectrale de puissance constante à toutes les fréquences est appelé bruit blanc.

(7.1)

Selon le théorème de Wiener-Khinchin, la fonction de corrélation du bruit blanc est :

est égal à zéro partout sauf au point . La puissance moyenne (variance) du bruit blanc est infiniment grande.

Le bruit blanc est un processus delta-corrélé. La non-corrélation des valeurs instantanées d'un tel signal aléatoire signifie un taux de changement infiniment élevé dans le temps - quel que soit l'intervalle, le signal pendant ce temps peut changer de n'importe quelle valeur prédéterminée.

Le bruit blanc est un modèle mathématique abstrait et le processus physique qui lui correspond, bien sûr, n'existe pas dans la nature. Cependant, cela ne nous empêche pas de remplacer approximativement de vrais processus aléatoires à bande suffisamment large par du bruit blanc dans les cas où la bande passante du circuit affecté par le signal aléatoire s'avère nettement plus étroite que la largeur effective du spectre de bruit.

L'estimation de la densité spectrale de puissance est un problème bien connu pour les processus aléatoires. Des exemples de processus aléatoires sont le bruit, ainsi que les signaux qui transportent des informations. Habituellement, il est nécessaire de trouver une estimation statistiquement stable. L'analyse du signal est traitée en détail dans le cours de traitement numérique du signal. Les premières informations sont fournies dans.

Pour des signaux dont les caractéristiques statistiques sont connues, la composition spectrale peut être déterminée à partir de l'intervalle fini de ce signal. Si les caractéristiques statistiques du signal sont inconnues pour un segment du signal, seule une estimation de son spectre peut être obtenue. Différentes méthodes utilisent des hypothèses différentes et donnent donc des estimations différentes.

Lors du choix d'une estimation, on suppose que, dans le cas général, le signal analysé est un processus aléatoire. Et il est nécessaire de choisir une estimation non biaisée avec une faible dispersion, ce qui permet de moyenner le spectre du signal. Le biais est la différence entre la valeur moyenne de l'estimation et la valeur réelle de la quantité. Un estimateur sans biais est un estimateur avec décalage zéro. Une estimation avec une petite variance localise bien les valeurs recherchées, c'est-à-dire la densité de probabilité est concentrée autour de la moyenne. Il est souhaitable d'avoir une évaluation cohérente, c'est-à-dire une estimation qui se rapproche de la valeur réelle à mesure que la taille de l'échantillon augmente (le biais et la variance tendent vers zéro). Il existe des estimations paramétriques, qui n'utilisent que des informations sur le signal lui-même, et des estimations non paramétriques, qui utilisent un modèle statistique d'un signal aléatoire et sélectionnent les paramètres de ce modèle.

Lors de l'évaluation de processus aléatoires, l'utilisation de fonctions de corrélation est courante.

Pour un processus ergodique, il est possible de déterminer les paramètres statistiques du processus en faisant la moyenne sur une implémentation.

Pour processus aléatoire stationnaire la fonction de corrélation R x (t) dépend de l'intervalle de temps pour lequel elle est déterminée. Cette valeur caractérise la relation entre les valeurs x(t) séparées par l'intervalle t. Plus R(t) diminue lentement, plus l'intervalle pendant lequel il existe une relation statistique entre les valeurs du processus aléatoire est long.

où est l'espérance mathématique x(t).

La relation entre la fonction de corrélation R(t) et la densité spectrale de puissance W(w) pour un processus aléatoire est déterminée par le théorème de Wiener-Khinchin

Pour les processus discrets, le théorème de Wiener-Khinchin établit une connexion entre le spectre d'un processus aléatoire discret W(w) et sa fonction de corrélation R x (n)

W(w)= R x (n) exp(-j w n T)

Pour estimer l'énergie du signal dans les domaines temporel et fréquentiel, l'équation de Parseval est utilisée



L'un des moyens courants d'obtenir une estimation de la densité spectrale consiste à utiliser la méthode du périodogramme.

Périodogramme Dans cette méthode, une transformée de Fourier discrète est effectuée pour le signal x(n) donné à des points d'échantillonnage discrets de longueur N échantillons et sa moyenne statistique. Le calcul proprement dit du spectre, X(k), n'est effectué qu'à un nombre fini de points de fréquence N. La transformée de Fourier rapide (FFT) est appliquée. La densité spectrale de puissance pour un échantillon échantillon est calculée :

P xx (Xk)=|X(k)| 2 /N, X(k)= , k=0,1,…,N-1.

Pour obtenir une estimation statistiquement stable, les données disponibles sont divisées en échantillons qui se chevauchent, puis en faisant la moyenne des spectres obtenus à partir de chaque échantillon. Le nombre d'échantillons par échantillon N et le décalage du début de chaque échantillon suivant par rapport au début du précédent N t sont spécifiés. Plus le nombre d'échantillons dans l'échantillon est petit, plus il y a d'échantillons et plus la variance des estimations est petite. Mais puisque la longueur d'échantillon N est liée à la résolution en fréquence (2.4), une diminution de la longueur d'échantillon conduit à une diminution de la résolution en fréquence.

Ainsi, le signal est vu à travers la fenêtre, et les données qui ne tombent pas dans la fenêtre sont prises égales à zéro. Le signal final x(n) composé de N échantillons est généralement représenté comme le résultat de la multiplication d'un signal infini dans le temps (n) sur une fenêtre rectangulaire de longueur finie w R (n) :

x(n) = (n) w R (n),

et le spectre continu X N (f) des signaux observés x(n) est défini comme la convolution des transformées de Fourier X(f), W R (f) du signal infini dans le temps (n)∙et fenêtres w R (n)



X N (f)=X(f)*W R (f)=

Le spectre d'une fenêtre rectangulaire continue (rect) a la forme d'un sinus intégral sinc(x)=sin(x)/x. Il contient le "lobe" principal et plusieurs latéraux, dont le plus grand est à environ 13 dB en dessous du pic principal (voir Fig. 15).

La transformée de Fourier (spectre) d'une séquence discrète obtenue par discrétisation à N points d'une fenêtre rectangulaire continue est illustrée à la Fig.32. Il peut être calculé en additionnant les sinus intégraux décalés (2.9), ce qui donne le noyau de Dirichlet

Riz. 32. Spectre d'une fenêtre rectangulaire discrète

Alors qu'un signal de longueur infinie concentrera sa puissance exactement à une fréquence discrète fk, un échantillon de signal rectangulaire a un spectre de puissance distribué. Plus l'échantillon est court, plus le spectre est distribué.

Dans l'analyse spectrale, les données sont pondérées à l'aide de fonctions de fenêtre, réduisant ainsi l'influence des « lobes » latéraux sur les estimations spectrales.

Pour détecter deux harmoniques f 1 et f 2 de fréquences proches, il faut que pour la fenêtre temporelle T la largeur du « lobe » principal Df -3 ≈ Df L = 0 = 1/T, déterminée à une valeur de -3 dB, être inférieur à la différence des fréquences souhaitées

Df=f 1 -f 2 > Df -3

La largeur de la fenêtre temporelle T est liée au taux d'échantillonnage f s et au nombre d'échantillons d'échantillons par la formule (2.4).

Outils d'analyse harmonique. Pour l'étude des signaux, il est très pratique d'utiliser le package MATLAB, en particulier son application (Toolbox) Signal Processing.

Périodogrammes modifiés utiliser des fonctions de fenêtre non rectangulaires qui réduisent l'effet Gibbs. Un exemple est l'utilisation de la fenêtre de Hamming. Mais en même temps, la largeur du lobe principal du spectrogramme double approximativement. La fenêtre Kaiser a été légèrement plus optimisée. L'augmentation de la largeur des lobes principaux lors de la création de filtres passe-bas entraîne une augmentation de la bande de transition (entre les bandes passe et stop).

Fonction de score de Welch (Welch). La méthode consiste à diviser les données temporelles séquentielles en segments (éventuellement superposés), puis à traiter chaque segment, puis à estimer le spectre en faisant la moyenne des résultats du traitement des segments. Des fonctions de fenêtre non rectangulaires, telles qu'une fenêtre de Hamming, peuvent être utilisées pour améliorer l'estimation. L'augmentation du nombre de segments réduit la variance, mais la résolution en fréquence de la méthode diminue. La méthode donne de bons résultats avec un léger excès du signal utile sur le bruit et est souvent utilisée en pratique.

La figure 33 montre des estimations de contenu harmonique pour des données contenant des signaux utiles à bande étroite et du bruit blanc, avec différents échantillons (N = 100, N = 67) et en utilisant différentes méthodes.

Riz. 33. Estimation des harmoniques du signal pour la conversion FFT à 1024 points

Méthodes paramétriques utiliser des modèles autorégressifs (AR). Dans les procédés, des modèles de filtre sont construits et, avec leur aide, les spectres de signal sont estimés. Toutes les méthodes en présence de bruit dans le signal donnent des estimations biaisées. Des méthodes sont conçues pour traiter des signaux avec des composantes harmoniques sur fond de bruit. L'ordre de la méthode (filtre) est fixé à deux fois le nombre d'harmoniques présents dans le signal. Plusieurs méthodes paramétriques ont été proposées.

La méthode de Burg donne une résolution à haute fréquence pour les échantillons courts. Avec un ordre de filtre important, les pics spectraux sont divisés. La position des pics spectraux dépend des phases harmoniques initiales.

La méthode de covariance permet d'estimer le spectre d'un signal contenant la somme des composantes harmoniques.

La méthode Yule-Walker donne de bons résultats sur des échantillons longs et n'est pas recommandée pour des échantillons courts.

Méthodes de corrélation . Les méthodes MISIC (Multiple Signal Classification) et EV (vecteurs propres) produisent des résultats sous forme de pseudo-spectre. Les méthodes sont basées sur l'analyse des vecteurs de la matrice de corrélation des signaux. Ces méthodes donnent une résolution en fréquence quelque peu meilleure que les méthodes d'autocorrélation.

Laissez le signal s(t) est donnée comme une fonction non périodique, et elle n'existe que sur l'intervalle ( t 1 ,t 2) (exemple - impulsion unique). Choisissons une période de temps arbitraire J, qui comprend l'intervalle ( t 1 ,t 2) (voir Fig.1).

Notons le signal périodique obtenu à partir de s(t), comme ( t). Ensuite, nous pouvons écrire la série de Fourier pour cela

Pour accéder à la fonction s(t) suit dans l'expression ( t) laisse la période tendre vers l'infini. Dans ce cas, le nombre de composantes harmoniques avec des fréquences w=n 2p/J seront infiniment grands, la distance qui les sépare tendra vers zéro (vers une valeur infiniment petite :

les amplitudes des composantes seront également infinitésimales. Il n'est donc plus possible de parler de spectre d'un tel signal, puisque le spectre devient continu.

L'intégrale interne est fonction de la fréquence. C'est ce qu'on appelle la densité spectrale du signal, ou fréquence de réponse signal et dénotent c'est-à-dire

Par généralité, les limites d'intégration peuvent être fixées à l'infini, puisqu'il en va de même où s(t) est égal à zéro, et l'intégrale est égale à zéro.

L'expression de la densité spectrale est appelée transformée de Fourier directe. La transformée de Fourier inverse détermine la fonction temporelle d'un signal à partir de sa densité spectrale

les transformées de Fourier directe (*) et inverse (**) sont collectivement appelées une paire de transformées de Fourier. Module de densité spectrale

détermine la caractéristique amplitude-fréquence (AFC) du signal, et son argument appelée caractéristique phase-fréquence (PFC) du signal. La réponse en fréquence du signal est une fonction paire et la réponse en phase est impaire.

La signification du module S(w) est défini comme l'amplitude d'un signal (courant ou tension) par 1 Hz dans une bande de fréquence infiniment étroite qui inclut la fréquence d'intérêt w. Sa dimension est [signal/fréquence].

Spectre énergétique du signal. Si la fonction s(t) a la densité de puissance de Fourier du signal ( densité spectrale d'énergie du signal) est déterminé par l'expression :

w(t) = s(t)s*(t) = |s(t)|2  |S()|2 = S()S*() = W(). (5.2.9)

Le spectre de puissance W() est une fonction paire réelle non négative, généralement appelée spectre d'énergie. Le spectre de puissance, en tant que carré du module de la densité spectrale du signal, ne contient pas d'informations de phase sur ses composantes de fréquence et, par conséquent, il est impossible de restituer le signal à partir du spectre de puissance. Cela signifie également que des signaux avec des caractéristiques de phase différentes peuvent avoir le même spectre de puissance. En particulier, le décalage du signal n'affecte pas son spectre de puissance. Ce dernier permet d'obtenir une expression du spectre d'énergie directement à partir des expressions (5.2.7). A la limite, pour des signaux identiques u(t) et v(t) avec un décalage t 0, la partie imaginaire du spectre Wuv () tend vers les valeurs nulles, et la partie réelle - vers les valeurs du module de le spectre. Avec une coïncidence temporelle complète des signaux, nous avons :

celles. l'énergie du signal est égale à l'intégrale du module au carré de son spectre de fréquence - la somme de l'énergie de ses composantes de fréquence, et est toujours une valeur réelle.

Pour un signal arbitraire s(t), l'égalité

généralement appelée égalité de Parseval (en mathématiques - le théorème de Plancherel, en physique - la formule de Rayleigh). L'égalité est évidente, puisque les représentations de coordonnées et de fréquences ne sont essentiellement que des représentations mathématiques différentes du même signal. De même pour l'énergie d'interaction de deux signaux :

De l'égalité de Parseval découle l'invariance du produit scalaire des signaux et de la norme par rapport à la transformée de Fourier :

Dans un certain nombre de problèmes purement pratiques d'enregistrement et de transmission de signaux, le spectre d'énergie du signal est d'une importance très significative. Les signaux périodiques sont traduits dans la région spectrale sous la forme de séries de Fourier. On écrit un signal périodique de période T sous la forme d'une série de Fourier sous forme complexe :

L'intervalle 0-T contient un nombre entier de périodes de tous les intégrands des exposants, et est égal à zéro, sauf pour l'exposant à k = -m, pour lequel l'intégrale est égale à T. En conséquence, la puissance moyenne signal périodique est égal à la somme des carrés des modules des coefficients de sa série de Fourier :

Spectre énergétique du signal est la distribution d'énergie des signaux de base qui composent le signal non harmonique sur l'axe des fréquences. Mathématiquement, le spectre d'énergie du signal est égal au carré du module de la fonction spectrale :

En conséquence, le spectre amplitude-fréquence montre l'ensemble des amplitudes des composantes des signaux de base sur l'axe des fréquences, et le spectre phase-fréquence montre l'ensemble des phases

Le module de la fonction spectrale est souvent appelé spectre d'amplitude, et son argument est spectre de phase.

De plus, il existe une transformée de Fourier inverse qui permet de restituer le signal d'origine, connaissant sa fonction spectrale :

Prenons par exemple une impulsion rectangulaire :

Autre exemple de spectre :

Fréquence de Nyquist, théorème de Kotelnikov .

Fréquence de Nyquist - en traitement numérique du signal, une fréquence égale à la moitié de la fréquence d'échantillonnage. Nommé d'après Harry Nyquist. Il découle du théorème de Kotelnikov que lors de l'échantillonnage d'un signal analogique, il n'y aura pas de perte d'information uniquement si le spectre (densité spectrale) (la fréquence la plus élevée du signal utile) du signal est égal ou inférieur à la fréquence de Nyquist. Sinon, lors de la restauration du signal analogique, il y aura un chevauchement des «queues» spectrales (substitution de fréquence, masquage de fréquence) et la forme du signal restauré sera déformée. Si le spectre du signal n'a pas de composants au-dessus de la fréquence de Nyquist, alors il peut être (théoriquement) échantillonné puis reconstruit sans distorsion. En fait, la «numérisation» d'un signal (la transformation d'un signal analogique en un signal numérique) est associée à la quantification des échantillons - chaque échantillon est enregistré sous la forme d'un code numérique de profondeur de bits finie, à la suite de quoi des erreurs de quantification (arrondi) sont ajoutées aux échantillons, sous certaines conditions considérées comme du « bruit de quantification ».

Les signaux réels de durée finie ont toujours un spectre infiniment large, qui décroît plus ou moins rapidement avec l'augmentation de la fréquence. Par conséquent, l'échantillonnage des signaux entraîne toujours une perte d'information (distorsion de la forme d'onde lors de l'échantillonnage-récupération), quelle que soit la fréquence d'échantillonnage. À la fréquence d'échantillonnage choisie, la distorsion peut être réduite en supprimant (pré-échantillonnage) les composantes spectrales du signal analogique au-dessus de la fréquence de Nyquist, ce qui nécessite un filtre d'ordre très élevé pour éviter le repliement. Mise en œuvre pratique un tel filtre est très difficile, car les caractéristiques amplitude-fréquence des filtres ne sont pas rectangulaires, mais lisses, et une certaine bande de fréquence de transition est formée entre la bande passante et la bande de suppression. Par conséquent, le taux d'échantillonnage est choisi avec une marge, par exemple, les CD audio utilisent un taux d'échantillonnage de 44100 Hertz, tandis que la fréquence la plus élevée du spectre signaux sonores la fréquence est considérée comme étant de 20000 Hz. La marge de fréquence de Nyquist de 44100/2 - 20000 = 2050 Hz évite la substitution de fréquence lors de l'utilisation du filtre d'ordre inférieur mis en œuvre.

Théorème de Kotelnikov

Afin de restaurer l'original signal continuà partir de discrétisés avec de petites distorsions (erreurs), il est nécessaire de choisir rationnellement le pas d'échantillonnage. Ainsi, lors de la conversion d'un signal analogique en un signal discret, la question de la taille du pas d'échantillonnage se pose nécessairement Intuitivement, il n'est pas difficile de comprendre l'idée suivante. Si le signal analogique a un spectre basse fréquence limité par une fréquence supérieure Fe (c'est-à-dire que la fonction u(t) a la forme d'une courbe variant en douceur, sans changements brusques d'amplitude), il est peu probable que cette fonction change de manière significative sur un certain petit intervalle de temps d'échantillonnage. Il est bien évident que la précision de restitution d'un signal analogique à partir d'une séquence de ses échantillons dépend de la valeur du pas d'échantillonnage : plus il est court, moins la fonction u(t) s'écartera d'une courbe lisse passant par l'échantillon points. Cependant, avec une diminution de l'intervalle d'échantillonnage, la complexité et le volume des équipements de traitement augmentent considérablement. Avec un intervalle d'échantillonnage suffisamment grand, la probabilité de distorsion ou de perte d'information augmente lorsque le signal analogique est restauré. La valeur optimale de l'intervalle de discrétisation est établie par le théorème de Kotelnikov (d'autres noms sont le théorème d'échantillonnage, le théorème de K. Shannon, le théorème de X. Nyquist : le théorème a d'abord été découvert en mathématiques par O. Cauchy, puis décrit à nouveau par D. Carson et R. Hartley), prouvé par lui en 1933. Le théorème de V. A. Kotelnikov est d'une grande importance théorique et pratique : il permet d'échantillonner correctement le signal analogique et détermine la manière optimale de le restituer à la réception à partir du valeurs de référence.

Selon l'une des interprétations les plus célèbres et les plus simples du théorème de Kotelnikov, un signal arbitraire u(t), dont le spectre est limité par une certaine fréquence Fe, peut être complètement restitué à partir de la séquence de ses valeurs de référence suivantes avec un intervalle de temps

L'intervalle d'échantillonnage et la fréquence Fe(1) sont souvent désignés dans l'ingénierie radio comme l'intervalle et la fréquence de Nyquist, respectivement. Analytiquement, le théorème de Kotelnikov est représenté par la série

où k est le numéro d'échantillon ; - valeur du signal en points de référence - fréquence supérieure spectre des signaux.

Représentation fréquentielle des signaux discrets .

La plupart des signaux peuvent être représentés par une série de Fourier :

Partager