Sistema dinamico lineare stazionario

Da Wikipedia, l'enciclopedia libera.
Se riscontri problemi nella visualizzazione dei caratteri, clicca qui.

In teoria dei sistemi, un sistema dinamico lineare stazionario, anche detto sistema lineare tempo-invariante o sistema LTI, è un sistema dinamico lineare tempo-invariante la cui risposta a una generica sollecitazione in ingresso riveste particolare importanza in numerose applicazioni, in particolare in elettronica e nella teoria del controllo.

Un sistema lineare stazionario è particolarmente importante perché, oltre ad offrire innumerevoli risultati pratici e teorici, si usa spesso per linearizzare anche sistemi non lineari o non stazionari in modo da facilitare il calcolo e le applicazioni. Nel caso di variabili continue i sistemi lineari e stazionari sono descritti da equazioni algebriche nel dominio del tempo se statici, altrimenti si hanno equazioni differenziali ordinarie se dinamici. Inoltre, i sistemi lineari e stazionari possono essere studiati anche nel dominio della frequenza.

Nel caso generale e con la sola dipendenza da una variabile temporale, sia \mathbf{u}_{in}(t) una qualsiasi sollecitazione di ingresso. Sia \mathbf{Z} un operatore che riassume tutte le operazioni che il sistema può compiere sulla sollecitazione di ingresso \mathbf{u}_{in}(t). Allora la relazione che lega ingresso e uscita di un sistema è in generale:

\mathbf{u}_{out}(t) = \mathbf Z (\mathbf{u}_{in}(t))

I sistemi lineari sono soggetti al principio di sovrapposizione, ovvero un sistema è lineare se valgono le seguenti proprietà:

\mathbf Z (\mathbf{u}_{in_1} + \mathbf{u}_{in_2}) = \mathbf{Z} (\mathbf{u}_{in_1}) + \mathbf Z (\mathbf{u}_{in_2}) \qquad \mathbf Z (c \mathbf{u}_{in}) = c \mathbf{Z} (\mathbf{u}_{in})

dove c è un numero arbitrario. I sistemi tempo invarianti, anche detti stazionari o statici, sono inoltre quei sistemi per i quali la risposta dipende solo dai valori istantanei dell'ingresso:

\mathbf{u}_{out}(t-t_0) = \mathbf Z \mathbf{u}_{in}(t-t_0)

anche nel caso in cui i parametri del sistema sono indipendenti dal tempo.

Esistono anche sistemi statici in elettronica digitale e sono chiamati combinatori. In contrapposizione esistono sistemi dinamici lineari nei quali l'uscita è dipendente sia dai valori istantanei dell'ingresso che dalla storia passata del segnale in ingresso. Allo stesso modo in elettronica digitale esistono sistemi dinamici che sono chiamati sequenziali. In elettronica, tra i sistemi lineari sono notevolmente importanti elementi circuitali quali resistori, condensatori, induttori, mentre tra i sistemi non lineari vi sono il Diodo e i transistor.

Sistemi a tempo continuo[modifica | modifica sorgente]

L'uscita y(t) di un sistema dinamico lineare tempo-invariante a tempo continuo soggetto a un segnale in ingresso x(t) è descritta dalla convoluzione:

y(t) = x(t) * h(t) = \int_{-\infty}^{\infty} x(t-\tau)\cdot h(\tau) \, \operatorname{d}\tau = \int_{-\infty}^{\infty} x(\tau)\cdot h(t-\tau) \,\operatorname{d}\tau

dove h(t) è la risposta del sistema quando l'ingresso x(t) è una funzione a delta di Dirac. L'uscita y è quindi proporzionale alla media dell'ingresso x pesata dalla funzione  h(-\tau), traslata di un tempo t.

Se la funzione h(\tau) è nulla quando \tau < 0 allora y(t) dipende soltanto dai valori assunti da x precedentemente al tempo t, ed il sistema è detto causale.

Per mostrare come la risposta all'impulso determini completamente il comportamento del sistema LTI, sia O_t l'azione del sistema al tempo t. Per l'invarianza temporale si ha:

O_t\{x(u-\tau)\} = y(t-\tau) \equiv O_{t-\tau}\{x\} \qquad h(t) \equiv O_t\{\delta(u)\}

da cui:

h(t-\tau) \equiv O_{t-\tau}\{\delta(u)\} = O_t\{\delta(u-\tau)\}

in modo che si ottiene:

x(t) * h(t) = \int_{-\infty}^{\infty} x(\tau)\cdot h(t-\tau) \operatorname{d}\tau = \int_{-\infty}^{\infty} x(\tau)\cdot O_t\{\delta(u-\tau)\} \operatorname{d}\tau = O_t\left\{\int_{-\infty}^{\infty} x(\tau)\cdot \delta(u-\tau) \operatorname{d}\tau \right\} = O_t\left\{x(u) \right\}= y(t)

Funzione di trasferimento[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Funzione di trasferimento.

Un'autofunzione f di un operatore lineare H è una funzione che viene trasformata dall'operatore nella stessa funzione moltiplicata per un numero \lambda, detto autovalore:

\mathcal{H}f = \lambda f

Per un sistema LTI a tempo continuo le autofunzioni sono le funzioni esponenziali A e^{s t}, con A e s in \mathbb{C}. Infatti, sia x(t) = A e^{s t} l'ingresso e h(t) la risposta del sistema alla delta di Dirac. L'uscita è data da:

\int_{-\infty}^{\infty} h(t - \tau) A e^{s \tau}\, \operatorname{d} \tau = \int_{-\infty}^{\infty} h(\tau) \, A e^{s t} e^{-s \tau} \, \operatorname{d} \tau = A e^{s t} \int_{-\infty}^{\infty} h(\tau) \, e^{-s \tau} \, \operatorname{d} \tau = A e^{s t} H(s)

La trasformata di Laplace:

H(s) \equiv \mathcal{L}\{h(t)\} \equiv \int_{-\infty}^\infty h(t) e^{-s t} \, \operatorname{d} t

è la funzione di trasferimento del sistema, che permette così di ottenere gli autovalori a partire dalla risposta all'impulso di Dirac. Per ogni A e s in \mathbb{C} l'uscita è dunque il prodotto dell'ingresso A e^{st} per una costante dipendente solo dal parametro s, autovalore del sistema LTI relativo all'autovettore A e^{st} (elemento di uno spazio vettoriale funzionale). Di particolare interesse è il caso in cui l'ingresso è un esponenziale complesso \exp({j \omega t}), con \omega \in \mathbb{R} e j \equiv \sqrt{-1}. La funzione di trasferimento è data in tal caso dalla trasformata di Fourier:

H(j \omega) = \mathcal{F}\{h(t)\}

Mentre la trasformata di Laplace è utilizzata per segnali che sono nulli prima di un certo tempo t_0, solitamente lo zero, la trasformata di Fourier consente di trattare funzioni di durata infinita, con la richiesta (a differenza della trasformata di Laplace in sistemi stabili) di essere a quadrato sommabili.

Grazie alle proprietà della convoluzione, nel dominio della trasformata l'integrale si riduce ad una moltiplicazione:

y(t) = (h*x)(t) \equiv \int_{-\infty}^\infty h(t - \tau) x(\tau) \, \operatorname{d} \tau \equiv \mathcal{L}^{-1}\{H(s)X(s)\}

Tale fatto consente di trasformare le equazioni differenziali ed integrali che solitamente governano i sistemi dinamici LTI in equazioni algebriche.

Risposta nel dominio della frequenza[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Rappresentazione spettrale dei segnali.
Descrizione di un sistema LTI nel dominio del tempo (in blu) e nel dominio delle frequenze (la trasformata di Laplace è mostrata in rosso).

I sistemi lineari e stazionari possono essere studiati nel dominio della frequenza analizzandone la risposta ad ingressi sinusoidali puri, la cui frequenza non viene cambiata in seguito alla trasformazione lineare compiuta dal sistema (ad esempio, la derivazione o l'integrazione del segnale). Questo permette di rappresentare un segnale periodico come combinazione lineare di segnali sinusoidali tramite la serie di Fourier. Nel caso di funzioni non periodiche si utilizzano la trasformata di Fourier o la trasformata di Laplace.

Lo studio dei sistemi lineari e stazionari nel dominio della frequenza passa attraverso i metodi simbolico e/o il metodo operatoriale. Lo scopo è determinare una o più funzioni di rete o di trasferimento che determinano completamente la risposta del sistema. Sono anche utili per studiare sistemi in cascata.

Il legame tra la risposta nel dominio del tempo e la risposta nel dominio della frequenza è di importanza notevole. Tali relazioni si ricavano esattamente solo in casi semplici, e sono in particolare i legami tra gli ingressi impulsivi o unitari e le varie frequenza di taglio o di risonanza, e i valori dell'ampiezza e fase in termini di frequenza. Ancora più in particolare, ci sono connessioni semplici tra i tempi di salita dei segnali, la banda passante e la fase di un sistema. Nel caso di sistemi del primo ordine sono connessioni esatte, nel caso di sistemi del secondo ordine o superiori al secondo sono utili per un'approssimazione.

Sistemi a tempo discreto[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Sistema dinamico lineare stazionario discreto.

Un sistema a tempo discreto trasforma la successione in ingresso \{x\} in un'altra successione \{y\}, data dalla convoluzione discreta con la risposta h alla delta di Kronecker:

y[n] = \sum_{k=-\infty}^{\infty} x[k]\cdot h[n-k] = \sum_{k=-\infty}^{\infty} x[n-k]\cdot h[k]

Gli elementi di \{y\} possono dipendere da ogni elemento di \{x\}. Solitamente y[n] dipende maggiormente dagli elementi in prossimità del tempo n.

La maggior parte dei segnali a tempo discreto sono ottenuti da un segnale a tempo continuo considerandone il valore assunto in precisi istanti di tempo, solitamente separati da un intervallo temporale fisso T. La procedura che permette di ottenere un segnale discreto a partire da uno continuo è detta campionamento, ed è alla base della conversione analogico-digitale (ADC). Essa trasforma una funzione continua x(t) nel segnale discreto:

x[n] \equiv x(nT) \qquad \forall \, n \in \mathbb{Z}

con 1 / T la frequenza di campionamento. Il teorema del campionamento pone un limite alla massima frequenza del segnale continuo, che non può essere superiore ad 1/(2T) se si vuole evitare perdita di informazione (fenomeno di aliasing).

Come nel caso di sistemi a tempo continuo, se O_n è l'operatore di trasformazione al tempo n:

y[n] \equiv O_n\{x\}

la successione:

h[n] \equiv O_n\{\delta[m]\}

caratterizza completamente il sistema. Per mostrare questo, considerando l'invarianza temporale:

O_n\{x[m-k]\} = y[n-k] \equiv O_{n-k}\{x\}

e dato che vale l'identità:


x[m] \equiv \sum_{k=-\infty}^{\infty} x[k]\cdot \delta[m-k]

si ha:


y[n] = O_n\{x\} = O_n\left\{\sum_{k=-\infty}^{\infty} x[k]\cdot \delta[m-k]\right\} = \sum_{k=-\infty}^{\infty} x[k]\cdot O_n\{\delta[m-k]\} = \sum_{k=-\infty}^{\infty} x[k]\cdot O_{n-k}\{\delta[m]\} = \sum_{k=-\infty}^{\infty} x[k]\cdot h[n-k]

L'operatore O_n restituisce un'uscita proporzionale alla media pesata di x[k] con funzione peso data da h[-k]. Se h[k]=0 per valori di k negativi il sistema è causale.

Funzione di trasferimento[modifica | modifica sorgente]

Gli esponenziali del tipo z^n = e^{sT n}, con n \in \mathbb{Z}, sono autofunzioni di un operatore lineare tempo-invariante. Infatti, detto T \in \mathbb{R} il periodo di campionamento e z = e^{sT}, con z e s in  \C, si supponga x[n] = \,\!z^n l'ingresso del sistema. Se h[n] è la risposta impulsiva, si ha:

y[n] = \sum_{m=-\infty}^{\infty} h[n-m] \, z^m = \sum_{m=-\infty}^{\infty} h[m] \, z^{(n - m)} = z^n \sum_{m=-\infty}^{\infty} h[m] \, z^{-m} = z^n H(z)

La funzione:

H(z) \equiv \sum_{m=-\infty}^\infty h[m] z^{-m}

dipende solo dal parametro z, ed è l'autovalore associato all'autovettore (autofunzione) z^n del sistema LTI.

La trasformata zeta:

H(z) = \mathcal{Z}\{h[n]\} = \sum_{n=-\infty}^\infty h[n] z^{-n}

è la funzione di trasferimento del sistema. Di particolare interesse è il caso in cui le autofunzioni siano sinusoidi pure e^{j \omega n}, con \omega \in \mathbb{R}, che possono essere scritte come z^n, dove z = e^{j \omega}. Per funzioni di questo tipo la funzione di trasferimento è data dalla trasformata di Fourier a tempo discreto:

H(e^{j \omega}) = \mathcal{F}\{h[n]\}

Grazie alle proprietà della convoluzione, nel dominio della trasformata si ottiene una moltiplicazione:

y[n] = (h*x)[n] = \sum_{m=-\infty}^\infty h[n-m] x[m] = \mathcal{Z}^{-1}\{H(z)X(z)\}

che analogamente al caso continuo risulta di notevole utilità nell'analisi dei sistemi LTI.

Descrizione matematica[modifica | modifica sorgente]

Un sistema stazionario (o tempo invariante) è un sistema i cui parametri non dipendono dal tempo. Il processo fisico di cui il sistema è il modello matematico, pertanto, è un sistema di equazioni differenziali, derivate rispetto al tempo, a coefficienti costanti:

\frac{dx(t)}{dt}=\,f(x(t),x_0,u(t)) \qquad y(t)=\,h(x(t),x_0,u(t))

dove x(t), x_0, u(t) e y(t) sono vettori colonna.

Nello specifico, il vettore x(t) rappresenta le variabili di stato in funzione del tempo t, che in generale non possono essere fissate né osservate direttamente, il vettore x_0 rappresenta le variabili di stato all'istante iniziale t_0, u(t) sono gli ingressi, cioè le variabili su cui si agisce per modificare l'andamento o traiettoria dello stato, e y(t) sono le uscite, cioè le variabili misurate da cui si deduce, a seconda delle caratteristiche di osservabilità del sistema, il valore o la stima dello stato. Ci possono essere particolari variabili di ingresso, dette disturbi o rumori, su cui non si può agire in alcun modo. Il termine dx(t) / dt è inoltre la derivata in t di x(t), e le funzioni f e h non dipendono direttamente da t.

Un sistema è lineare quando dipende linearmente dalle variabili di stato e dalle variabili di ingresso:

\frac{dx(t)}{dt}=A(t)x(t)+B(t)u(t) \qquad y(t)=C(t)x(t)+D(t)u(t)

dove A, B, C e D sono matrici di dimensioni opportune che premoltiplicano x(t) e u(t).

Il processo LTI è dunque descritto da equazioni matriciali lineari, in cui A, B, C e D non sono funzione del tempo:

\left\{\begin{matrix} \frac{dx(t)}{dt}=Ax(t)+Bu(t)\\y(t)=Cx(t)+Du(t)\end{matrix} \right.\,

con x(t) vettore di dimensione n, u(t) vettore di dimensione q, y(t) vettore di dimensione p, A matrice di dimensione n \times n, B matrice di dimensione n \times q, C matrice di dimensione p \times n e D matrice matrice di dimensione p \times q.

Nel caso del circuito elettrico lineare mostrato in figura il vettore di stato x(t) è costituito dalla corrente x_1 che passa attraverso l'induttore di induttanza L e dalla tensione x_2 ai capi del condensatore di capacità C_1, dove l'ingresso u(t) è la tensione del generatore mentre il vettore delle uscite y(t) è dato, ad esempio, dalle correnti che passano attraverso il resistore di resistenza R_1 e resistore di resistenza R_2. Applicando le leggi di Kirchhoff si ha:
\begin{array}{c} u(t)=L\frac{d(x_{1}(t))}{dt}+R_{1}i_{2}(t)\\R_{1}i_{2}(t)=R_{2}C_{1}\frac{d(x_{2}(t))}{dt}+x_{2}(t)\\
i_{2}(t)=x_{1}(t)-C_{1}\frac{d(x_{2}(t))}{dt}\end{array}
Pertanto, sostituendo l'ultima relazione nelle precedenti e ponendo:
x(t)=\left(\begin{array}{c} x_{1}(t)\\x_{2}(t)\end{array}\right)
in tal caso si ha che:
A=\left(\begin{array}{cc}
\frac{{-R}_{1}R_{2}}{L(R_{1}+R_{2})} & \frac{{-R}_{1}}{L(R_{1}+R_{2})}\\
\frac{R_{1}}{C_{1}(R_{1}+R_{2})} & \frac{-1}{C_{1}(R_{1}+R_{2})}\end{array}\right)
B=\left(\begin{array}{c}\frac{1}{L}\\
0\end{array}\right)
C=\left(\begin{array}{cc}
\frac{R_{2}}{(R_{1}+R_{2})} & \frac{1}{(R_{1}+R_{2})}\\
\frac{R_{1}}{(R_{1}+R_{2})} & \frac{-1}{(R_{1}+R_{2})}\end{array}\right)
D=0

Proprietà dei sistemi LTI[modifica | modifica sorgente]

Lo stato x(t) di un sistema LTI può essere esplicitato in funzione dell'ingresso u(t) applicando la trasformata di Laplace all'equazione differenziale che lo definisce:

\frac{dx(t)}{dt}=Ax(t)+Bu(t)

Ovvero, trasformando e ipotizzando che x(0^{-})=0, si ha:

sX(s)=AX(s)+BU(s)

da cui:

(sI-A)X(s)=BU(s)

e quindi:

X(s)=(sI-A)^{-1}BU(s)

essendo X(s) e U(s) le trasformate di x(t) e u(t), I la matrice unità di dimensione n \times n, e (sI-A)^{-1} la matrice inversa di (sI-A). Lo stato può essere ricavato antitrasformando:

(sI-A)^{-1}BU(s)

Poiché l'uscita del sistema è data da y(t) = Cx(t) + Du(t), trasformando si ha:

Y(s)=CX(s)+DU(s)

ovvero:

Y(s)=(C(sI-A)^{-1}B+D)U(s)

La matrice C(sI-A)^{-1}B+D è la matrice di trasferimento o funzione di trasferimento del sistema.

Una proprietà fondamentale dei sistemi LTI è la stabilità, studiata a partire dalle caratteristiche della funzione di trasferimento. Vi sono inoltre le proprietà di raggiungibilità e di osservabilità: se sono verificate allora per il sistema di controllo (cioè il sistema ottenuto retroazionando il sistema dinamico LTI con un controllore LTI) esite sempre un controllore che rende il sistema di controllo asintoticamente stabile.

Stabilità[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Stabilità (sistema).

Nei sistemi causali LTI, ovvero nei sistemi in cui le uscite non dipendono dai valori futuri degli ingressi, gli elementi della matrice di trasferimento sono frazionari ed hanno un polinomio a denominatore di grado non inferiore al grado del polinomio a numeratore. Se gli zeri dei denominatori, che sono i poli della trasformata, appartengono al semipiano a parte reale positiva del piano complesso, il sistema è instabile e la risposta all'impulso tende ad un valore infinito al crescere del tempo. Se invece i poli della trasformata appartengono al semipiano a parte reale negativa del piano complesso, il sistema è asintoticamente stabile e la risposta impulsiva tende asintoticamente a zero al crescere del tempo. Se, infine, i poli della trasformata appartengono alla retta verticale a parte reale nulla del piano complesso ed hanno molteplicità singola, il sistema è semplicemente stabile e la risposta all'impulso è maggiorata in valore assoluto da un certo valore al crescere del tempo.

Per determinare come variano le posizioni dei poli e degli zeri al variare della funzione di trasferimento del compensatore che si vuole progettare si usano particolari grafici, quali il diagramma di Bode, il diagramma di Nyquist e il luogo delle radici.

Raggiungibilità[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Controllabilità.

Un sistema lineare tempo invariante è raggiungibile se per ogni stato iniziale x_0 lo stato generico x è raggiungibile, cioè se per ogni stato iniziale x_0 esiste un ingresso u(t) che permette al sistema di raggiungere lo stato generico x.

Il criterio di Kalman stabilisce che un sistema LTI di dimensione n è completamente raggiungibile se e solo se:

\operatorname{rk}(R)=\operatorname{rk}[\begin{matrix} B | AB | A^{2}B | ... | A^{n-1}B\\ \end{matrix}]=n

dove \operatorname{rk}(R) indica il rango di R, che se è pari a n rende il determinante diverso da zero. Qualora risulti che \operatorname{rk}(R) = p < n allora vi sono autovalori raggiungibili, quindi modificabili (in numero pari a n-p) e autovalori non raggiungibili, detti autovalori fissi (in numero pari a p). Il sistema si dice in tal caso non completamente raggiungibile.

Ad esempio, in un sistema con un ingresso (m=1) ed una variabile di stato (n=1) le matrici A e B si riducono a scalari e l'equazione di stato relativa è:

x'(t)=Ax(t)+Bu(t)

avendo indicato con x'(t) la derivata prima di x(t) rispetto al tempo. Anche la matrice di raggiungibilità (o matrice di Kalman) è uno scalare b: se b \ne 0 il sistema è completamente raggiungibile poiché \operatorname{rk}(R)=n, mentre se è nullo il sistema non è completamente raggiungibile e l'equazione di stato diventa:

x'(t)=Ax(t)

Un'equazione differenziale di questo tipo è un sistema autonomo.

Un sistema lineare tempo invariante è quindi raggiungibile quando tutti i suoi stati sono raggiungibili, ovvero quando la matrice di raggiungibilità ha rango massimo. Un modo per stabilirlo è il test di Popov-Belevitch-Hautus, anche detto PBH test di raggiungibilità, il quale stabilisce che il rango della matrice ottenuta affiancando la matrice degli ingressi sullo stato B alla matrice sI, a cui è sottratta la matrice della dinamica del sistema lineare A, deve essere pari al numero totale degli stati n al variare di s:

rk[\begin{matrix} sI-A | B\\ \end{matrix}]=n \qquad \forall s \in \mathbb{C}

Esso deriva dalla trasformata di Laplace dell'equazione:

\frac{dx(t)}{dt}=Ax(t)+Bu(t)

ovvero:

sX(s)-x(0-)=AX(s)+BU(s)

da cui, essendo sempre possibile moltiplicare uno scalare per la matrice identità:

(sI-A)X(s)=x(0^-) + BU(s)

essendo X(s) e U(s) le trasformate di x(t) e u(t). Lo stato del sistema, nel dominio di Laplace, è quindi definito come:

X(s)=(sI-A)^{-1} x(0^-) + (sI-A)^{-1} B U(s)

Stabilizzabilità[modifica | modifica sorgente]

Un sistema lineare tempo invariante è stabilizzabile se esiste una matrice di retroazione dallo stato che rende asintoticamente stabile il sistema complessivo. Questo è possibile se e solo se:

  • Il sistema è completamente raggiungibile.
  • Il sistema non è completamente raggiungibile e gli autovalori non raggiungibili sono asintoticamente stabili.

Gli autovalori si dicono asintoticamente stabili se hanno parte reale negativa (nei sistemi a tempo continuo) o se hanno modulo minore di 1 (nei sistemi a tempo discreto). In particolare, la completa raggiungibilità di un sistema garantisce la stabilizzabilità in quanto il sottosistema non raggiungibile non esiste e quindi con la retroazione dallo stato è possibile allocare arbitrariamente gli autovalori della matrice A.

Osservabilità e rilevabilità[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Osservabilità.

Un sistema si dice completamente osservabile se e solo se ogni stato non nullo genera un'uscita libera non identicamente nulla, ovvero quando la matrice di osservabilità ha rango massimo, ed in tal caso è verificato il PBH test di osservabilità. L'uscita di un sistema è somma del contributo dell'evoluzione libera, dipendente dallo stato iniziale, ed evoluzione forzata, dipendente unicamente dall'ingresso.

Un sistema LTI di dimensione n è completamente osservabile se e solo se:

rk(O)=rk\begin{vmatrix} C\\ CA\\ CA^{2}\\ ... \\CA^{n-1}\\ \end{vmatrix}=n

oppure se è soddisfatto il PBH test di osservabilità:

rk\begin{vmatrix} sI-A \\C \end{vmatrix}=n  \qquad \forall s \in \mathbb{C}

Se i test di osservabilità di cui sopra falliscono, non necessariamente non si può osservare il sistema. Con riferimento alla decomposizione di Kalman rispetto alla osservabilità, se gli autovalori della parte inosservabile A_{11} si trovano già in una parte del piano complesso delimitata da un'ascissa passante per -a, detto \mathbb{C}b, allora il sistema è detto \mathbb{C}b rilevabile.

Risposta al gradino di Heaviside[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Rappresentazione dinamica dei segnali e Gradino di Heaviside.

Se \sigma (t) è il gradino di Heaviside unitario di ingresso e \mathbf Z è l'insieme delle operazioni che il sistema effettua su tale ingresso, si definisce la risposta unitaria:

g(t) = \mathbf Z \sigma (t)

Ricordando che la funzione delta di Dirac è la derivata del gradino di heaviside:

\delta (t) = \frac{d \sigma(t)}{dt}

e che quindi la risposta impulsiva è legata alla risposta unitaria da:

h(t) = \mathbf Z \left(\frac{d\sigma (t)}{dt} \right) = \left(\frac{d \mathbf{Z} \sigma (t)}{dt} \right) = \frac{dg(t)}{dt}

la risposta unitaria è data dall'integrale:

g(t) = \int_{- \infty}^{t} h(\tau) \, d\tau

Nella rappresentazione dinamica dei segnali ogni segnale deterministico può essere rappresentato mediante gradini di Heaviside:

u_{in}(t) = u_{in}(0) \sigma (t) + \int_{-\infty}^{t} \frac{du_{in}(t)}{d\tau} \cdot \sigma(t - \tau) \cdot d\tau

allora la risposta ad un tale segnale rappresentato secondo la funzione di Heaviside è:

u_{out}(t) = u_{in}(0) g(t) + \int_{-\infty}^{t} \frac{du_{in}(t)}{d\tau} \cdot g(t - \tau) \cdot d\tau

Dopo aver ottenuto la funzione di trasferimento del sistema tramite l'applicazione della trasformata di Laplace, applicare un ingresso a gradino corrisponde a moltiplicare la F. di T. per \frac{1}{s}

Bibliografia[modifica | modifica sorgente]

  • (EN) Phillips, C.l., Parr, J.M., & Riskin, E.A, Signals, systems and Transforms, Prentice Hall, 2007, ISBN 0-13-041207-4.
  • (EN) Hespanha,J.P., Linear System Theory, Princeton university press, 2009, ISBN 0-691-14021-9.
  • E. Fornasini, G. Marchesini, Appunti di Teoria dei Sistemi, Edizioni Libreria Progetto, Padova, 2003.
  • A. Ruberti, S. Monaco, Teoria dei Sistemi - Appunti dalle lezioni, Pitagora Editrice, Bologna, 1998.
  • O. M. Grasselli, Proprietà strutturali dei sistemi lineari e stazionari, Pitagora Editrice, Bologna, 1978.

Voci correlate[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]

Controlli automatici Portale Controlli automatici: accedi alle voci di Wikipedia che trattano di Controlli automatici