Mir ist bekannt, dass in jeder Schaltung, die aus linearen passiven Elementen und einem sinusförmigen Eingang besteht, alle Spannungen und Ströme durch und über ein Element dasselbe sinusförmige Verhalten und dieselbe Frequenz wie der Eingang aufweisen. So funktionieren passive Filter in der Tat. Aber ich kann nicht herausfinden oder einen konkreten / einfachen Beweis dafür finden, warum dies geschieht, wenn nicht eine einfache Beobachtung.
circuit-analysis
passive-filter
passive-components
mjtsquared
quelle
quelle
Antworten:
Ich habe meinen Verstand ausgeschüttet und schließlich einen netten mathematischen Ansatz gefunden, um dies zu beweisen, und beschlossen, meine eigene Frage zu beantworten. In einer solchen Schaltung führt das Auflösen nach Spannung / Strom über / durch eine Komponente (ich nenne das ) immer dazu, dass Sie eine Differentialgleichung konstruieren, die immer linear ist und konstante Koeffizienten aufweist (aufgrund der linearen Eigenschaften passiver Komponenten). und inhomogen (aufgrund des sinusförmigen Eingangs). Eine solche Differentialgleichung hat immer die Form: a d n ff wobeia. . . ksind Konstanten (Kombinationen aus Induktivität, Widerstand usw.),nist die Ordnung der Differentialgleichung (die die Anzahl der Energiespeicherelemente in der Schaltung widerspiegelt) undCsin(ωt+θ)ist eine verallgemeinerte Sinusfunktion das beschreibt die Eingabe. Eine allgemeine Lösung dieser Differentialgleichung hat immer folgende Form:f=(allgemeine homogene Lösung)
quelle
Dies gilt nur für LTI-Schaltungen (Linear Time-Invariant). Wenn Sie eine nicht ideale Komponente haben (und alle sind zu einem gewissen Grad oder einem anderen Grad), sehen Sie Harmonische der Eingangsfrequenz im Ausgang. Induktivitäten sind in der Regel die schlechtesten, aber alle passiven Teile weisen ein solches Verhalten auf. Kondensatoren können beispielsweise einen starken Spannungskoeffizienten aufweisen und sind aufgrund der dielektrischen Absorption nicht zeitinvariant.
Für einen einfachen mathematischen Beweis (unter der Annahme von mathematischen Kenntnissen der Universität im 2. Jahr) können Sie diese Berkeley-Kursnotizen (EECS20N: Signals and Systems) lesen . Sie können den gesamten Text hier herunterladen .
quelle
Dies geschieht, weil eine Sinuswelle nur eine Linie im Frequenzspektrum ist und unabhängig davon, was Sie mit einem linearen Filter oder Verstärker tun, lediglich die Phasen- oder Amplitudenverschiebung auftritt.
Wenn es sich um eine Rechteckwelle (unendliche Harmonische) handeln würde, würde das Anwenden eines Filters einige Frequenzen stärker abschwächen oder akzentuieren als andere, und die Rechteckwelle würde ihre erkennbare Rechteckform verlieren.
Rechteckwellen-Oberschwingungen: -
Gif-Quelle
quelle
Der Hauptgrund ist, dass die Konstituentengleichungen der idealen R-, L- und C-Komponenten lineare, zeitinvariante Gleichungen sind, an denen nur Ableitungen und Integrale (beide lineare Operationen) beteiligt sind, und dass sich Sinus und Cosinus in andere Sinus und Cosinus ändern, wenn auf solche linearen Operatoren eingewirkt wird.
Die Ableitung und das Integral einer Sinusfunktion ist eine andere Sinusfunktion derselben Frequenz (sie kann sich nur in Amplitude und Phase ändern). KCL und KVL können nur zu algebraischen Summen solcher Sinusfunktionen führen, und diese Operation kann nur eine andere Sinusfunktion erzeugen. Wenn Sie also letztendlich R, L und C in einem Netzwerk verbinden, führt ein sinusförmiger Eingang immer zu einem sinusförmigen Ausgang.
Siehe meine andere Antwort hier .
All dies ist eine direkte Konsequenz der Selbstähnlichkeit der Exponentialfunktion (bezogen auf Sinus und Cosinus nach der Euler-Gleichung). Vielleicht möchten Sie das erste Kapitel in Giorgi, Die Physik der Wellen , lesen , um eine vollständige Erklärung dafür zu erhalten.
(Beachten Sie, dass diese Eigenschaft sich in einem Intervall von in eine skalierte und zeitversetzte Kopie von umwandeltt = - ∞ zu t = + ∞ Es ist einzigartig für verallgemeinerte sinusförmige Funktionen - alle anderen Funktionen werden durch den linearen zeitinvarianten Schaltkreis "deformiert". Lösungen eines linearen Systems, die skalierte Kopien von sich sind wie inA x = λ x
(wo λ ist ein komplexer Skalar, der Informationen über Dämpfung und Phasenverschiebung enthält. Sie können verwendet werden, um eine orthogonale Basis mit der Eigenschaft zu bilden, dass jede andere (wohlerzogene) Funktion als eine verallgemeinerte Summe solcher elementaren Bausteine zerlegt werden kann - und dies führt Sie direkt in das Gebiet der Fourier-Reihen, aber das ist eine andere Geschichte).
Die erste Antwort auf diese Frage zu Math SE enthält eine kurze Erklärung: Warum verwenden wir Triggerfunktionen in Fourier-Transformationen und keine anderen periodischen Funktionen?
quelle
This is true only when restricting passive elements to R,L,C, and maybe crystals that are properly driven - and even then, there are two exceptions, see below. Intentional and unintentional diodes, varistors, thermistors with a thermal mass, and other non-linear elements can quickly introduce distortions to a pure sinusoidal inputs. Overdriven crystals or ceramic filters might also behave rather nonlinear. If including two-terminal elements with negative resistance (gas discharge tubes, tunnel diodes) in the passive category, even more possibilities exist.
The exceptions:
Real-world parts tend to have imperfections that make them behave a bit like some nonlinear elements. Resistors can have "thermistor with a thermal mass" and even "varistor" behaviour. Capacitors can have voltage dependency in their value due to piezoelectric effects, electric fields yielding mechanical force, chemical effects (in electrolytics). Also, some electret-like effects seem to be documented for capacitors. Metal to metal joints can develop diode-like behaviour. Inductors can become nonlinear through core saturation, interaction of the magnetic field with nearby metal objects, etc...
All resistive components carrying a current exhibit some noise generating behaviours, the lower limits of which are defined by hard physics.
Mind that all real-life seemingly non-sinusoidal, repetitive signals can be perfectly described as a sum of sine waves of varying frequencies and phases.
Looking for the connection to nature will have you going in circles: Sine waves are the principal ingredient in making circles and ovals and round things, according to maths geeks (if you want to draw a circle on a computer, you will usually either use sine/cosine functions or use pythagoras' theorem directly in some way...) . Nature makes a lot of round things (hair, plant stalks, cherries, cherry stains, tornadoes, etc) and keeps an ample supply of sine waves around for that purpose.
quelle
multiple
sines.A 'circuit' is usually considered a network of components, with an 'input' and an 'output' port. With network theory, such as Ohms Law, you can derive an equation, the 'transfer function', that describes the output in terms of the input. With 'linear' components, you will always find a 'linear' transfer function.
Let's describe some linear components with functions like
output = F(input)
,output2 = G(input2)
, etc. Then the combination of such components leads to a combined function likeoutput2 = G(F(input1))
. Because both functions are linear, thus of the formy = a * x + b
, then those combinations are also linear.When applying a sinusoidal input signal to the linear network, the output can be amplified by the factor a, and shifted by voltage b. With complex math, or differential equations you can even get 'phase shift', but not a different frequency, because the derivative of a sine has the same frequency.
Do you want this even more formal?
quelle
Either your premise is false or you have not properly articulated the boundary conditions.
Consider a simple passive device such as a diode. It will exhibit a non-linear transfer characteristic resulting in a non-sinusoidal output for a given
Also consider an ideal resonant (LC) circuit with a transfer function resulting in zero output - thus non-sinusoidal.
quelle
The eigenfunctions of linear time invariant systems (and passive networks generally are of that kind) are complex exponentials, and their real superpositions are sinoids of arbitrary phase.
An eigenfunction is a function which will only change by a constant (in this case, complex) factor when put through a system. Linear systems are those where the output corresponding to the sum of several inputs corresponds to the sum of the output of the individual inputs, so you can always analyze them by expressing their input as a convenient sum. If this sum can be a sum expressed in an orthogonal eigenfunction basis, things become so much easier.
Hello Fourier analysis.
quelle