Sistema dinamico lineare tempo invariante: differenze tra le versioni

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Riga 24: Riga 24:
:<math>\mathbf{u}_{out}(t-t_0) = \mathbf Z \mathbf{u}_{in}(t-t_0)</math>
:<math>\mathbf{u}_{out}(t-t_0) = \mathbf Z \mathbf{u}_{in}(t-t_0)</math>


cioè anche se i parametri del sistema sono indipendenti dal tempo. Inoltre esistono anche sistemi statici in [[elettronica digitale]] e sono chiamati [[Circuitcombinatorio|combinatori]]. In contrapposizione esistono [[sistemi dinamici lineari]] nei quali l'uscita è dipendente sia dai valori istantanei dell'ingresso che dalla storia passata del segnale in ingresso. Allo stesso modo in [[elettronica digitale]] esistono sistemi dinamici che sono chiamati [[Circuito sequenziale|sequenziali]].
cioè anche se i parametri del sistema sono indipendenti dal tempo. Inoltre esistono anche sistemi statici in [[elettronica digitale]] e sono chiamati [[Circuito combinatorio|combinatori]]. In contrapposizione esistono [[sistemi dinamici lineari]] nei quali l'uscita è dipendente sia dai valori istantanei dell'ingresso che dalla storia passata del segnale in ingresso. Allo stesso modo in [[elettronica digitale]] esistono sistemi dinamici che sono chiamati [[Circuito sequenziale|sequenziali]].


Tra i sistemi lineari sono notevolmente importanti elementi circuitali quali [[Resistore|resistori]], [[Condensatore (elettrotecnica)|condensatori]], [[Induttore|induttori]] ecc. Tra i sistemi non lineari vi sono il [[Diodo]] e i [[transistor]].
Tra i sistemi lineari sono notevolmente importanti elementi circuitali quali [[Resistore|resistori]], [[Condensatore (elettrotecnica)|condensatori]], [[Induttore|induttori]] ecc. Tra i sistemi non lineari vi sono il [[Diodo]] e i [[transistor]].

Versione delle 23:05, 7 nov 2011

Template:Avvisounicode

Disambiguazione – Se stai cercando una proprietà dei processi stocastici, vedi processo stazionario.

I sistemi dinamici lineari tempo invarianti (LTI) sono una sottoclasse dei sistemi dinamici a tempo continuo largamente studiati per le tantissime proprietà di cui godono, dovute alla proprietà di linearità e di stazionarietà (o tempo invarianza).

Lo studio dei sistemi ha applicazioni disparate e fa parte della teoria dei sistemi. In via del tutto generale, un sistema fisico è un concetto astratto che utilizziamo per rappresentare il comportamento di un processo fisico nello spazio e nel tempo. Perché un processo possa essere rappresentato, esso deve essere osservato e su di esso devono potersi effettuare operazioni. In generale possiamo descrivere un processo fisico come studio di una sollecitazione applicata ad un sistema che fornisce una risposta.

Un sistema lineare e stazionario è particolarmente importante perché oltre ad offrire innumerevoli risultati pratici e teorici, si usa spesso per linearizzare anche sistemi non lineari e non stazionari in modo da facilitare il calcolo e le applicazioni. Nel caso di variabili continue i sistemi lineari e stazionari sono descritti da equazioni algebriche nel dominio del tempo se statici, altrimenti si hanno equazioni differenziali ordinarie se dinamici. Bisogna anche dire che i sistemi lineari e stazionari possono essere studiati anche nel dominio della frequenza.

Nel caso generale che ci interessa, seppur con la sola dipendenza da una variabile temporale, sia una qualsiasi sollecitazione di ingresso, chiamiamo invece un operatore che riassume tutte le operazioni che il sistema può compiere sulla sollecitazione di ingresso , allora la relazione che lega ingresso ed uscita di un sistema è in generale:

(1)

I sistemi si possono classificare in diversi modi, di particolare interesse in elettronica, sono i sistemi lineari, che definiscono anche il principio di sovrapposizione, cioè un sistema è lineare se valgono:

dove c è un numero arbitrario.

Inoltre sono importanti in elettronica i sistemi stazionari o statici: cioè quei sistemi per i quali la risposta dipende solo dai valori istantanei dell'ingresso:

cioè anche se i parametri del sistema sono indipendenti dal tempo. Inoltre esistono anche sistemi statici in elettronica digitale e sono chiamati combinatori. In contrapposizione esistono sistemi dinamici lineari nei quali l'uscita è dipendente sia dai valori istantanei dell'ingresso che dalla storia passata del segnale in ingresso. Allo stesso modo in elettronica digitale esistono sistemi dinamici che sono chiamati sequenziali.

Tra i sistemi lineari sono notevolmente importanti elementi circuitali quali resistori, condensatori, induttori ecc. Tra i sistemi non lineari vi sono il Diodo e i transistor.

Formalismi

Un sistema stazionario (o tempo invariante), come detto, è un sistema i cui parametri non dipendono dal tempo, ma sono costanti: in altre parole il processo fisico, di cui il sistema è il modello matematico, è un sistema di equazioni differenziali a coefficienti costanti.

dove sono vettori colonna composti rispettivamente da:

  • le variabili di stato in funzione del tempo t, che, in generale, non possono essere fissate né osservate direttamente
  • le variabili di stato all'istante iniziale
  • gli ingressi, cioè le variabili su cui si agisce, a seconda delle caratteristiche di controllabilità del sistema, per modificare l'andamento o traiettoria dello stato (sempre in funzione del tempo t). Ci possono essere particolari variabili di ingresso, dette disturbi o rumori, su cui non si può agire in alcun modo
  • le uscite, cioè le variabili misurate da cui si deduce, a seconda delle caratteristiche di osservabilità del sistema, il valore o la stima dello stato (sempre in funzione del tempo t).

Inoltre è la derivata in t di x(t). Le funzioni f e h non dipendono direttamente da t.

Un sistema è lineare quando dipende linearmente dalle variabili di stato e dalle variabili di ingresso.

dove A, B, C e D sono matrici di dimensioni opportune che premoltiplicano x(t) e u(t).

Unendo le precedenti si ha il processo LTI, descritto da equazioni matriciali (matrici costanti) lineari in cui A, B, C e D non sono funzione del tempo t.

con x(t) vettore di dimensione n, u(t) vettore di dimensione q, y(t) vettore di dimensione p, A matrice n per n, B matrice n per q, C matrice p per n e D matrice p per q.

Ad esempio nel caso del circuito elettrico lineare in figura il vettore di stato x(t) è costituito dalla corrente x1 che passa attraverso l'induttore di induttanza L e dalla tensione x2 ai capi del condensatore di capacità C1, dove l'ingresso u(t) è la tensione del generatore mentre il vettore delle uscite y(t) è dato ad esempio dalle correnti che passano attraverso il resistore di resistenza R1 e resistore di resistenza R2 per cui applicando le leggi di Kirchhoff si ha:

Pertanto, sostituendo la (4) nella (2) e nella (3) e ponendo

in tal caso si ha che:

Soluzione dell'equazione differenziale matriciale data dalla (1)

Volendo risolvere tale equazione bisogna distinguere i seguenti casi:

  • A ammette soltanto autovalori reali con molteplicità algebrica uguale alla molteplicità geometrica per ogni autovalore,
  • A ammette soltanto autovalori complessi coniugati,
  • A ammette sia autovalori reali che complessi coniugati,
  • A non è diagonalizzabile.

1º Caso: A ammette soltanto autovalori reali con molteplicità algebrica uguale alla molteplicità geometrica per ogni autovalore

In tal caso considerata la trasformazione di coordinate x(t) = Pz(t) con P matrice n per n le cui colonne sono gli autovettori di A linearmente indipendenti che generano ciascun autospazio relativo ad ogni autovalore e z(t) vettore di dimensione n si ha: , dove è la matrice inversa di P, mentre

Dalla teoria della diagonalizzazione delle matrici si ha che:

dove è la matrice diagonale in cui sulla diagonale principale vi sono gli autovalori di A ripetuti eventualmente ciascuno con la propria molteplicità pertanto si ottiene la seguente equazione differenziale matriciale:

In particolare se gli autovalori di A sono reali e distinti sulla matrice diagonale vi saranno gli n autovalori distinti di A.

Moltiplicando ambo i membri dell'equazione per la matrice esponenziale dove sulla diagonale principale vi sono gli esponenziali con gli autovalori di A si ha la seguente equazione differenziale:

da cui si ricava integrando, scegliendo come primitive quelle che si annullano in e moltiplicando l'eq. per :

quindi

da cui si ricava il vettore c pertanto la soluzione dell' equazione differenziale matriciale è:

Ma è costante rispetto a pertanto si ha:

Si nota che la risposta libera nello stato ottenuta ponendo u(t)=0 è:

cioè basta moltiplicare la matrice P degli autovettori di A per la matrice esponenziale per l'inversa di P, per il vettore di stato mentre la risposta forzata nello stato ottenuta ponendo è:

Inoltre la risposta libera nell'uscita per u(t)=0 è:

mentre la risposta forzata nell'uscita per è:

2º Caso: A ammette soltanto autovalori complessi coniugati

Volendo analizzare il caso in cui A ammette autovalori complessi coniugati, supponiamo che A sia una matrice 2 per 2 e siano (j è l'unità immaginaria) e i 2 autovalori complessi coniugati di A e e i due autovettori complessi coniugati corrispondenti. Allora applicando la definizione di autovalore e di autovettore si ha la seguente equazione algebrica:

(I è la matrice identica 2 per 2, essendo anche A 2 per 2) che si puo' scrivere separando parte reale e parte immaginaria nella forma:

Affinché l'equazione sia vera è necessario che parte reale e parte immaginaria si annullino entrambe pertanto si ha il sistema:

che puo' essere posto nella forma:

Pertanto se si pone uguale alla matrice le cui colonne sono la parte reale e immaginaria dei 2 autovettori complessi coniugati si ha che:

per cui ragionando come nel caso degli autovalori reali e distinti si ottiene:

e quindi in tal caso la soluzione dell'equazione differenziale matriciale e':

Ora sviluppando in serie di Taylor la matrice esponenziale

ed i termini

per l'identità di Eulero si ha che:

Per cui andando a sostituire nel caso della suddetta matrice A 2 per 2 si ha:

3º Caso: A ammette sia autovalori reali che complessi coniugati

Supponiamo che la matrice A di ordine n ammetta k autovalori reali distinti a cui corrispondono k autovettori distinti allora si hanno le seguenti equazioni:

Supponiamo inoltre che la matrice A ammetta p coppie di autovalori complessi coniugati la cui p-esima coppia è: e a cui corrisponde la coppia di autovettori complessi coniugati e allora per quanto visto nel caso precedente si ha per la p-esima coppia:

Ora posto uguale alla matrice le cui colonne sono i k autovettori corrispondenti agli autovalori reali e le parti reali e immaginarie delle p coppie di autovettori complessi coniugati cioè: allora dalle precedenti equazioni si ha la matrice diagonale a blocchi:

pertanto:

Proprietà dei sistemi LTI

Lo stato x(t) di un sistema LTI può essere esplicitato in funzione dell'ingresso u(t) applicando la trasformata di Laplace all'equazione differenziale che lo definisce

ovvero, trasformando e ipotizzando che , si ha

da cui

e quindi

essendo X(s) e U(s) le trasformate di x(t) e u(t), essendo I la matrice unità n per n ed essendo l'inversa di (sI-A). Lo stato può essere ricavato antitrasformando

.

Poiché però l'uscita del sistema è data da y(t) = Cx(t) + Du(t), trasformando si ha

ovvero

è detta matrice o funzione di trasferimento del sistema.

Stabilità

Nei sistemi causali LTI, quali i sistemi fisici LTI, ovvero nei sistemi LTI le cui uscite non dipendono dai valori futuri degli ingressi, gli elementi di questa matrice sono frazionari ed hanno un polinomio a denominatore di grado non inferiore al grado del polinomio a numeratore. Se gli zeri dei denominatori, detti poli della trasformata, appartengono al semipiano a parte reale positiva del piano complesso, il sistema è instabile e la risposta all'impulso yδ(t) tende all'infinito al crescere di t. Se invece i poli della trasformata appartengono al semipiano a parte reale negativa del piano complesso, il sistema è asintoticamente stabile e yδ(t) tende asintoticamente a 0 al crescere di t. Se, infine, i poli della trasformata appartengono alla retta verticale a parte reale nulla del piano complesso ed hanno molteplicità singola, il sistema è semplicemente stabile e yδ(t) è maggiorata in valore assoluto da un certo valore al crescere di t. Per determinare come variano le posizioni dei poli e degli zeri al variare della funzione di trasferimento del compensatore che si vuole progettare, si usano particolari grafici, quali il diagramma di Bode, il diagramma di Nyquist e il luogo delle radici.

Due proprietà fondamentali dei sistemi LTI sono la raggiungibilità e la osservabilità. Se queste due proprietà sono verificate allora per il sistema di controllo (cioè il sistema ottenuto retroazionando il sistema dinamico LTI con un controllore LTI) esite sempre un controllore che rende il sistema di controllo asintoticamente stabile

Raggiungibilità

Un sistema è raggiungibile quando tutti i suoi stati sono raggiungibili, ovvero quando la matrice di raggiungibilità ha rango pieno, ovvero quando è verificato il PBHtest di raggiungibilità.

  • Un sistema LTI è raggiungibile se per ogni stato , lo stato generico è raggiungibile, cioè se per ogni stato esiste un controllo u(t) che permette di arrivare allo stato generico .
  • Test di raggiungibilità

Il sistema LTI è raggiungibile se e solo se:

dove rk(M) indica il rango di una matrice M, mentre '|' è l'operatore di giustapposizione tra matrici.


Osservabilità

Un sistema è osservabile quando nessuno dei suoi stati è inosservabile dall'uscita, ovvero quando la matrice di osservabilità ha rango pieno, ovvero quando è verificato il PBHtest di osservabilità.

  • Un sistema LTI è osservabile se ogni stato è non inosservabile, cioè se non esiste alcuno stato che è inosservabile in uscita, cioè che sia indistinguibile da un altro stato.
  • Test di Osservabilità

Il sistema LTI è osservabile se e solo se:

Risposta dei segnali deterministici

Abbiamo visto che i segnali deterministici continui nella rappresentazione dinamica dei segnali fanno uso essenzialmente della funzione gradino di Heaviside o gradino unitario e della funzione delta di Dirac o impulso unitario. Vogliamo vedere come un segnale deterministico possa essere trattato in risposta ad un sistema lineare e stazionario, tramite la rappresentazione dinamica di un segnale secondo queste due rappresentazioni.

Risposta di un sistema lineare e stazionario alla delta di Dirac

Secondo la (1) allora se è l'impulso unitario di ingresso e è l'insieme delle operazioni che il sistema effettua su tale ingresso chiamiamo risposta impulsiva:

(2)

Siccome nella rappresentazione dinamica dei segnali abbiamo visto che ogni segnale deterministico può essere rappresentato mediante delta di Dirac, in questo modo:

allora la risposta del sistema lineare e stazionario è:

ma secondo la (2) abbiamo che entro l'integrale:

(3)

questo integrale si chiama integrale di Duhamel. Possiamo dire che il segnale di uscita di un sistema lineare e stazionario è il prodotto di convoluzione tra l'ingresso e la riposta impulsiva:

(3')
Lo stesso argomento in dettaglio: Convoluzione.

L'integrale di Duhamel si può scrivere anche:

(4)

Risposta di un sistema lineare e stazionario al gradino di Heaviside

Seguendo ancora la (1), se è il gradino unitario di ingresso e è l'insieme delle operazioni che il sistema effettua su tale ingresso chiamiamo risposta unitaria:

(5)

Ricordando che la funzione delta di dirac non è altro che la derivata del gradino di heaviside:

(6)

e che quindi la risposta impulsiva è legata alla risposta unitaria da:

(7)

Questo vuol dire che la risposta unitaria è data dall'integrale:

(8)

Siccome nella rappresentazione dinamica dei segnali abbiamo visto che ogni segnale deterministico può essere rappresentato mediante gradini di Heaviside:

(9)

allora la risposta ad un segnale (9) rappresentato secondo la funzione di Heaviside è:

(10)

Note

Da notare che qualunque sia il segnale di ingresso, rappresentato con delta di Dirac o con gradini di Heaviside, la risposta non può essere in anticipo sull'ingresso, cioè gli integrali vanno limitati superiormente al tempo t attuale e non all'infinito.

Risposta nel dominio della frequenza

In genere i sistemi lineari e stazionari possono essere studiati anche nel dominio della frequenza attraverso la risposta del sistema a ingressi sinusoidali puri. La scelta delle funzioni sinusoidali o esponenziali è dettata dal fatto che molti segnali sono trasformabili o rappresentabili tramite la serie di Fourier o la trasformata di Fourier anche se non sono segnali sinusoidali o addirittura se non sono periodici. Inoltre le funzioni sinusoidali sono invarianti per traslazione temporale e sono ancora invarianti nel caso di derivazioni e integrazioni dei segnali.

Nei sistemi lineari e stazionari soggetti ad un ingresso sinusoidale puro ha una risposta sempre della stessa frequenza di quella in ingresso. Per questi segnali si può usare una rappresentazione in termini di serie di Fourier. Nel caso di segnali non periodici, si usa invece la rappresentazione in forma di trasformata di Fourier. In genere lo studio in frequenza di un sistema può essere fatto anche tramite la trasformata di Laplace che interviene nel metodo operatoriale.

Lo studio dei sistemi lineari e stazionari nel dominio della frequenza passa attraverso i metodi simbolico e/o il metodo operatoriale, a cui si rimanda. Lo scopo è determinare una o più funzioni di rete o di trasferimento che determinano completamente la risposta del sistema. Sono anche utili per studiare sistemi in cascata.

Il legame tra la risposta nel dominio del tempo e la risposta nel dominio della frequenza sono di importanza notevole. Essi si ricavano esattamente solo in casi semplici e sono in particolare i legami tra gli ingressi impulsivi o unitari e le varie frequenza di taglio o di risonanza e i valori dell'ampiezza e fase in termini di frequenza. Ancora più in particolare ci sono connessioni semplici tra i tempi di salita dei segnali e la banda passante e la fase di un sistema nel caso di sistemi del primo ordine sono anche esatte e nel caso di sistemi del secondo ordine o superiori al secondo sono utili per approssimazione.

Voci correlate

Bibliografia

  • E. Fornasini, G. Marchesini, Appunti di Teoria dei Sistemi, Edizioni Libreria Progetto, Padova, 2003.
  • A. Ruberti, S. Monaco, Teoria dei Sistemi - Appunti dalle lezioni, Pitagora Editrice, Bologna, 1998.
  • O.M. Grasselli, Proprietà strutturali dei sistemi lineari e stazionari, Pitagora Editrice, Bologna, 1978.
  Portale Controlli automatici: accedi alle voci di Wikipedia che trattano di Controlli automatici