Pourquoi les systèmes linéaires montrent-ils une fidélité sinusoïdale?


9

Je cherche une preuve de fidélité sinusoïdale. Dans DSP, nous étudions beaucoup les systèmes linéaires. Les systèmes linéaires sont homogènes et additifs. Une autre condition qu'il satisfait est que si un signal est une onde sinusoïdale ou cos, alors la sortie ne change que la phase ou l'amplitude. Pourquoi? Pourquoi la sortie ne peut-elle pas être totalement différente lorsqu'une onde sinusoïdale est donnée en entrée?


1
Bienvenue dans DSP. Grande question!
Phonon

5
Votre compréhension est incomplète. Un système linéaire (c'est-à-dire homogène et additif) n'a pas nécessairement la propriété qu'une sinusoïde d'entrée produit une sinusoïde de même fréquence mais d'amplitude et de phase éventuellement différentes. Vous devez imposer la restriction supplémentaire selon laquelle le système est également invariable dans le temps. Par exemple, si l'entrée produit la sortie , le système est homogène et additif, et donc linéaire, mais ne satisfait pas le SISO (sinusoid in- sinusoid out ) propriété. x ( t ) cos ( 2 π 10 9 t )X(t)X(t)cos(2πdix9t)
Dilip Sarwate du

Dilip (ou quelqu'un) devrait mettre comme réponse: "Ils ne le font pas." Seuls les systèmes linéaires invariants dans le temps le font.
hotpaw2

2
Tout comme une note, une autre façon de formuler cette question serait "Pourquoi les fonctions propres exponentielles des systèmes linéaires invariants dans le temps?"
Jason R

Réponses:


8

Un complément quelque peu visuel aux autres réponses

Vous parlez de systèmes linéaires et invariants dans le temps.

Les fonctions exponentielles ont une propriété particulière (et peuvent être réellement définies par elle): faire une traduction temporelle entraîne la même fonction multipliée par une constante. Donc

et-t0=e-t0et

Graphiques Mathematica

L'exponentielle rouge pourrait aussi bien être la bleue divisée par ou déplacée d'une seconde vers la droitee

En général, cela vaut également pour les exponentielles complexes

Pouvez-vous imaginer dans votre esprit l'intrigue d'une harmonique complexe telle que ? Si c'est le cas, vous verrez que c'est comme un ressort: il tourne le long du plan complexe au fil du temps.x(t)=ej2πt

Graphiques Mathematica

Faire tourner ce ressort (multiplier par un nombre complexe dans le cercle unitaire) revient à le traduire. Vous êtes probablement entré dans cet effet visuel à un moment de votre vie

entrez la description de l'image ici

C'est aussi le principe de toute vis standard.

Supposons que nous saisissions cela dans un système linéaire invariant dans le temps. Vous obtenez une sortie Maintenant, saisissez une version pivotée de ce printemps. En raison de la linéarité, la sortie doit être y mis en rotation par le même montant. Mais comme une rotation est équivalente à une translation de temps et que le système est invariant dans le temps, la sortie doit également être convertie dans le temps y de la même quantité. Donc, y doit satisfaire la même propriété que l'entrée: sa rotation doit être équivalente à une translation de temps particulière. Cela ne se produit que lorsque la sortie est un multiple du ressort d'origine.yyyy

Combien de traduction? Eh bien, c'est directement proportionnel à la rotation, comme cela se produirait avec un ressort. Plus les boucles du ressort sont serrées (plus il tourne vite), moins il se traduit par le temps pour une certaine rotation. Plus les boucles d'une vis sont serrées, plus vous devez faire de rondes pour qu'elle s'adapte parfaitement. Et, lorsque la moitié des tours sont terminés, la vis sera à mi-chemin ... La sortie doit satisfaire la même relation donc, le ressort de sortie tourne à la même fréquence que l'entrée.y

Enfin, un rappel

cos(t)=ejt+ejt2

sin(t)=ejtejt2j

Donc, cette chose qui se produit avec les exponentielles n'a pas besoin de se produire avec les cosinus et les sinus dans le cas le plus général. Mais si le système est également réel, c'est une autre histoire ...

En général, selon ce même raisonnement, toute exponentielle est une "fonction propre" (la sortie est proportionnelle à l'entrée) des systèmes invariants temporels linéaires. C'est pourquoi pour ces systèmes, les transformées en Z et les transformées de Laplace sont si utiles


Comment / d'où avez-vous obtenu cette animation?
Spacey

@Mohammad l'a tiré de la page wikipedia sur la vis d'Archimède
Rojo

Où avez-vous obtenu ce complot de tire-bouchon? :) math.stackexchange.com/q/144268/2206
endolith

@endolith oh je viens de le faire dans Mathematica. Les vôtres sont plus gentils;)
Rojo

4

Considérons un système avec l'entrée et la sortie y ( t ) . En empruntant la notation de la réponse de Lars1, nous désignons cette relation x ( t ) y ( t ) . Le système serait un système linéaire invariable dans le temps (LTI) s'il satisfait aux propriétés suivantes:x(t)y(t)x(t)y(t)

H. Si , alors α x ( t ) α y ( t ) .x(t)y(t)αx(t)αy(t)

A. Si et x 2 ( t ) y 2 ( t ) , alors x 1 ( t ) + x 2 ( t ) y 1 ( t ) + y 2 ( t ) .x1(t)y1(t)x2(t)y2(t)x1(t)+x2(t)y1(t)+y2(t).

T. Si , alors x ( t - τ ) y ( t - τ ) pour tout nombre réel τ .x(t)y(t)x(tτ)y(tτ)τ

Les propriétés H et A ensemble sont équivalentes à la propriété L

L. Si et x 2 ( t ) y 2 ( t ) , alors α x 1 ( t ) + β x 2 ( t ) α y 1 ( t ) + β y 2 ( t ) .x1(t)y1(t)x2(t)y2(t)αx1(t)+βx2(t)αy1(t)+βy2(t)


L'entrée périodique dans un système invariant dans le temps produit une sortie périodique
Supposons que est un signal périodique de période T , c'est-à-dire x ( t - n T ) = x ( t ) pour tous les entiers n . Puis, de la propriété T , il suit immédiatement que y ( t ) est également un signal périodique de période T . Ainsi, nous pouvons exprimer y ( t ) comme une série de Fourier:x(t)Tx(tnT)=x(t)ny(t)Ty(t)

ω=2π/Test la fréquence fondamentale.

y(t)=a02+n=1ancos(nωt)+bnsin(nωt)
ω=2π/T

Puisque et sin ( ω t ) sont des signaux périodiques, nous avons cela pour tout système invariant dans le temps, qu'il soit linéaire ou non, cos ( ω t )cos(ωt)sin(ωt) En fait, pourlinéairesystèmes invarianttemps (LTI),touslespn,qn,rn,etsnsont égauxzérosauf pourp1,q1,r1,s

cos(ωt)p02+n=1pncos(nωt)+qnsin(nωt)sin(ωt)r02+n=1rncos(nωt)+snsin(nωt).
pn,qn,rn,sn . Pour voir pourquoi il en est ainsi, calculons la réponse du système LTI à cos ( ω t - θ ) de deux manières différentes et comparons les résultats.p1,q1,r1,s1cos(ωtθ)

Puisque , nous obtenons de la propriété L et des équations ci-dessus que cos ( ω t - θ )cos(ωtθ)=cos(θ)cos(ωt)+sin(θ)sin(ωt) D'autre part, puisquecos(ωt-θ)=cos(ω(t-θ/ω)) n'est qu'une version retardée decos(ωt), de Property

cos(ωtθ)p0cos(θ)+q0sin(θ)2+n=1(pncos(θ)+rnsin(θ))cos(nωt)+n=1(qncos(θ)+snsin(θ))sin(nωt).
cos(ωtθ)=cos(ω(tθ/ω))cos(ωt)T on obtient que Ces deux séries de Fourier doivent être les mêmes quelle que soit la valeur deθ quenous choisissons. Coefficients comparant, on voit que p0/2ne peut pas égaler(p0cos(θ)+r0cos(θ
cos(ωtθ)p02+n=1pncos(nωtnθ)+qnsin(nωtnθ)=p02+n=1(pncos(nθ)qnsin(nθ))cos(nωt)+n=1(qncos(nθ)+pnsin(nθ))sin(nωt).
θp0/2 pour tout θ sauf si p 0 = r 0 = 0 . De même, pour tout n > 1 , p n cos ( n θ ) - q n sin ( n θ ) ne peut pas être égal à p n cos ( θ ) + r n sin ( θ ) etc. pour tout θ sauf si p n = q(p0cos(θ)+r0cos(θ))/2θp0=r0=0n>1pncos(nθ)qnsin(nθ)pncos(θ)+rnsin(θ)θ . Cependant, pour n = 1 , p 1 cos ( θ ) - q 1 sin ( θ ) = p 1 cos ( θ ) + r 1 sin ( θ ) implique que r 1 = - q 1 , et de même, s 1 = p 1 . En d'autres termes, pour un système LTI, pn=qn=rn=sn=0n=1p1cos(θ)q1sin(θ)=p1cos(θ)+r1sin(θ)r1=q1s1=p1 Maintenant,p1cos(ωt)+q1sin(ωt)=Bcos(ωt-ϕ)B=
cos(ωt)p1cos(ωt)+q1sin(ωt)sin(ωt)q1cos(ωt)+p1sin(ωt).
p1cos(ωt)+q1sin(ωt)=Bcos(ωtϕ) etϕ=arctan(q1/p1). Par conséquent, les propriétésTetHnous donnent Acos(ωt-θ)ABcos(ωt-ϕ-θ). Toutesinusoïde de fréquenceωrad / s peut être exprimée enAcos(ωtB=p12+q12ϕ=arctan(q1/p1)
Acos(ωtθ)ABcos(ωtϕθ).
ω pour un choix approprié de A et θ , et donc le résultat ci-dessus est ce dont nous avons besoin.Acos(ωtθ)Aθ

Propriété SISO des systèmes linéaires invariants dans le temps: si l'entrée d'un système LTI est une sinusoïde, la sortie est une sinusoïde de même fréquence mais d'amplitude et de phase éventuellement différentes.

Ce n'est pas tout à fait le résultat que l'OP voulait - il voulait une preuve qu'un système linéaire (dans lequel les propriétés H et A (de manière équivalente, la propriété L ) détiennent mais pas nécessairement la propriété T ) a la propriété SISO, mais comme développement montre ci-dessus, la propriété T doit tenir afin de prouver même le résultat le plus faible qu'une entrée périodique entraîne une sortie périodique.


Enfin, notez qu'il n'est pas nécessaire d'utiliser des nombres complexes ou des théorèmes de convolution ou des transformées de Fourier ou LaPlace, des impulsions, des fonctions propres, etc. pour prouver la propriété SISO. Il découle des propriétés L et * T et de l'identité trigonométrique

cos(αβ)=cos(α)cos(β)+sin(α)sin(β).

Que se passerait-il si n'était pas périodique (non périodique pourrait se produire pour des fréquences incommensurables)? Besoin T finie? Pourrions-nous gagner quelque chose en termes de généralité en exigeant que x ( t ) soit carré intégrable dans l'intervalle de temps d'observation? x(t)Tx(t)
Lars1

@ Lars1 Si l'entrée d'un système LTI n'est pas périodique , la sortie n'est pas périodique non plus. Comme cas spécifique, si ω 1 / ω 2 est irrationnel (et donc l'entrée n'est pas périodique), alors à partir de la propriété L on a que A 1 cos ( ω 1 t ) + \ A 2 cos (x(t)=A1cos(ω1t)+\A2cos(ω2t)ω1/ω2 dont la sortie n'est pas périodique non plus. Il n'y a donc aucun problème.
A1cos(ω1t)+\A2cos(ω2t)A1B1cos(ω1tϕ1)+\A2B2cos(ω2tϕ2)
Dilip Sarwate

@Sarwate: Pas tout à fait ce que je voulais dire, désolé. Je me demandais si par exemple x(t)=cos(πt)+cos(2t)tT=[0;T]TTt\ont

[0,T]x(t)y(t)y(t)[0,T]y^(t)x^(t)t<t<
x^(t)=x(tmodT).
Tx(t)T

E.g. in nonlinear RF systems we often choose a sum of incommensurate sinusoidals to ensure a unique frequency mapping from input to output. These result in a non-periodic signal, and I just was curious to why you had to assume periodicity above which to me seems to exclude most practically relevant signals. Square integrable x(t) and y(τ) in finite observation intervals can be written as Fourier series. I did not (intend to) claim that t was defined on the same interval for x and y BTW and y could be a time offset version. I'll stop here to avoid further confusion.
Lars1

3

Here's the idea of the proof. Let's assume we can describe the output of a system by a convolution,

y(t)=kt(tτ)f(τ)dτ

Notice that the function (aka "kernel") kt(t) as I've written it here may change as t varies. However, we usually make an important assumption about kt(t) - that it doesn't change with time. This is called "linear time-invariance" (also check out the Wikipedia page on Toeplitz matrices). If our system is linear time-invariant, kt is the same for any t, and so we'll just ignore the subscript and write

y(t)=k(tτ)f(τ)dτ

Now, let's say f(t) is a sinusoid, say f(t)=eiωt. So, we have

y(t)=k(tτ)eiωτdτ=k(τ)eiω(tτ)dτ=eiωtk(τ)eiωτdτ

Notice that the last equation has no dependence on t! As a result, let's define K(ω):=k(τ)eiωτdτ.

Thus, we've discovered that

y(t)=K(ω)eiωt

or, in other words, y(t) is a sinusoid oscillating at the same frequency as the input, but weighted by a complex number K(ω) which is constant with respect to t (and thus may shift the amplitude and phase of the output with respect to the input).

EDIT: The comments noted this answer was pretty loose. My goal was to avoid details like different forms of the Fourier transform, but I ended up conflating the Fourier and Laplace transforms. What I called Fourier transform previously was only the Fourier transform if s was purely imaginary. I decided that clarifying this route would necessarily add too much notation, so I'm relegating it to italics.

Now, take the Laplace transform, to end up with (since Laplace transform takes convolution to multiplication),

Y(s)=K(s)F(s)

Now, if f is a sinusoid, say f(t)=eiωt, its Laplace transform is a delta function at that ω. That is, F(s)=δw(s). So, the Laplace transform of the output is also a delta function at that frequency:

Y(s)=K(s)δω(s)=K(ω)δω(s)

Since K(ω) is just some complex number that depends on the input frequency, the output y(t) will be a sinusoid with the same frequency as the input, but with potentially different amplitude and phase.

Incidentally, I just noticed you can find the same idea written out in the time domain at Wikipedia. A higher-level explanation (which you can ignore if it's too mathy) is that linear systems theory is defined through the convolution operation, which is diagonalized by the Fourier transform. Thus, a system whose input is an eigenvector of the Fourier transform operator will output only a scaled version of its input.


-1 What is s and how does it relate to ω? And could you explain what is meant by δω(s)? Your equation Y(s)=K(s)δωs) is sheer nonsense.
Dilip Sarwate

@DilipSarwate I suspect he's using Laplace transform notation instead of Fourier notation.
Jim Clay

@sydeulissie The problem is that you assert that K(w) is "just some complex number", but you haven't said why it's just a complex number at each frequency. That's the heart of the proof.
Jim Clay

3
This has a correct outline but many problems in the details. Not downvoting, but it should be fixed.
Phonon

1

Say we have a system with input x1(t) which generates the output y1(t)=G(x1(t)), and with an input x2(t) we get the output y2(t)=G(x1(t)). The system is linear if:

ax1(t)+bx2(t)y(t)=G(ax1(t)+bx2(t))=aG(x1(t))+bG(x2(t))=ay1(t)+by2(t)

where a and b are (real or complex) constants. If the equations above are not fulfilled the system is nonlinear. The equation can be used for real and complex signals in time and frequency domains. This is the same as the superposition principle must be valid. As Sarwate illustrates in a comment this does not prevent the system from generating new frequencies. We are probably often just used to indirectly assume time invariance. The reason is likely that it is often possible to map a time varying system to a time invariant system by applying one or more external controlling signals.

From the definition of linearity and further requiring a time invariant system we can directly see that two (or more signals) can not interfere and generate new frequency components while still complying with the linearity requirement. The principle of superposition also follows directly from the linearity definition.

Also from the linearity definition the concept of convolution for linear time invariant systems follow. For nonlinear systems we for example have Volterra series which is a multi-dimensional convolution integral - the 1-dimensional convolution integral is a special case of the Volterra series. This is way more complicated than linear techniques though. But based on the convolution integral for a linear system the derivation follows the one shown by @sydeulissie.

To demonstrate a simple counter example of a nonlinear relation where new frequencies are generated we could use G:y(t)=x2(t). Let us first show that this is indeed nonlinear. If we apply the input x1(t) we get the output y1(t)=x12(t) and if we apply the input x2(t) we get the output y2(t)=x22(t). The output y(t) is then:

y(t)={ax1(t)+bx2(t)}2=a2x12(t)+b2x22(t)+2abx1(t)x2(t)

or:

y(t)=a2y1(t)+b2y2(t)±2aby1(t)y2(t)ay1(t)+by2(t)

and we have thus proved x2 to be nonlinear (which can hardly be surprising). If we apply a single sinusoidal signal x(t)=Acos(2πf0t+ϕ0) to the system G we have the output:

y(t)=x2(t)=A2cos2(2πf0t+ϕ0)=A22+A22cos(2π2f0t+2ϕ0)

The output here contains a DC component and another component at the frequency 2f0. The nonlinear function x2 thus generates new frequency components.

In conclusion it can be observed that a linear system may generate frequency components not present in the input (if the system is time variant). If the system is linear time invariant the output can not include frequency components not present in the input.

Thanks to @Sarwate for the most relevant comment.


You are right. I forgot to mention that I refer to time invariant systems. The example you provide is a time varying system where your example does not hold. Normally such a signal as the cos(t) is applied at an external port as a signal in which case the linearity is not fulfilled. I have noted the time invariant part in the answer above.
Lars1

@DilipSarwate So is that that only LTI systems have that property?
Phonon

Just checked a couple of books to be on the safe side. Actually there seems to be some difference in the details. One definition in Yang and Lee's book on circuit systems from 2007 says: "A system is said to be linear if the superposition principle holds, i.e. its output to a linear combination of several arbitrary inputs is the same as the linear combination of the outputs to individual inputs". In that respect Sarwate's example is linear - but not time invariant. Other refs are less precise though. Thanks to @Sarwate.
Lars1

1
Comment referred to by Lars1 with typographical errors corrected: Consider the system that produces output x(t)cos(t) from input x(t). Then, ax1(t)+bx2(t) produces output
(ax1(t)+bx2(t))cos(t)=ax1(t)cos(t)+bx2(t)cos(t)
so that the system is linear but without the claimed property.
Dilip Sarwate

@Sarwate How is the system which produces output x(t) cos(t) time varying? I am a beginner in DSP's
Hobyist

1

Comme l'a souligné Dilip Sarwate, seuls les systèmes linéaires invariants (LSIV) ont la propriété SISO (sinusoid in- sinusoid out).

La réponse courte à votre question est que les exponentielles complexes eȷωtCe sont les fonctions propres d'un système LSIV. Selon la définition de la fonction propre, si l'entrée est une fonction propre (le sinus / cos peut être représenté par une exponentielle complexe selon la formule d'Euler), la sortie est simplement le produit de l'entrée et la valeur propre correspondante, qui pourrait être un nombre complexe, et c'est d'où viennent les changements de phase / amplitude.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.