Visual servoing

Da Wikipedia, l'enciclopedia libera.

Visual servoing, abbreviato con VS, anche conosciuto come asservimento visivo basato sull'immagine, è una tecnica di controllo in retroazione che usa come feedback l'informazione estratta dai sensori visivi per controllare il movimento di un robot. Uno dei primi articoli che ha introdotto il Visual Servoing fu pubblicato dai laboratori SRI International Labs[1]. Un primo tutorial sul Visual Servoing fu pubblicato nel 1996 da S. A. Hutchinson, G. D. Hager e P. I. Corke[2], mentre più recenti tutorial sono stati pubblicati nel 2006 e nel 2007 da F. Chaumette e S. Hutchinson[3][4].

Visual Servoing Methodology[modifica | modifica sorgente]

In generale le tecniche di Visual Servoing sono classificate secondo le seguenti tipologie:[2][3]

  • Image Based (IBVS), basato sull'immagine
  • Position Based (PBVS), basato sulla posizione
  • Hybrid Approach, un approccio ibrido

L'IBVS fu proposto da Weiss e Sanderson[5]. La legge di controllo è basata sull'errore calcolato sulla base della differenza tra una determinata caratteristica sul piano immagine attuale e una posizione desiderata sempre sul piano immagine della medesima caratteristica. Questa tecnica non coinvolge in nessun modo la stima della posizione dell'oggetto nello spazio o in un qualche sistema di riferimento che non sia l'immagine stessa. Le caratteristiche in esame possono essere linee, punti, momenti geometrici, ecc.

Il PBVS, qualche volta chiamato Pose-Based VS, è una tecnica (ad una telecamera) basata su un modello. Infatti, la posizione dell'oggetto viene stimata rispetto alla telecamera. È importante notare la differenza con la tecnica precedente. Mentre prima si utilizzava solo l'errore sul piano immagine e non veniva effettuato nessun tipo di calcolo di stima della posizione, in questo caso si ha una ricostruzione della posizione dell'oggetto nello spazio 3D (in un piano cartesiano desiderato) e con questa posizione viene impartito il comando al controllore che fa muovere il robot. Per questo motivo questa tecnica viene anche chiamata visual servoing 3D.

Infine, gli approcci ibridi combinano insieme alcuni aspetti del visual servoing 2D e 3D. Ci sono stati pochi tipi di approcci ibridi:

  • 2-1/2-D Servoing[6]
  • Motion Partition Based
  • Partitioned DOF Based[7]

Software[modifica | modifica sorgente]

Tutorial[modifica | modifica sorgente]

Note[modifica | modifica sorgente]

  1. ^ Agin, G.J., "Real Time Control of a Robot with a Mobile Camera". Technical Note 179, SRI International, Feb. 1979.
  2. ^ a b S. A. Hutchinson, G. D. Hager, and P. I. Corke. A tutorial on visual servo control. IEEE Trans. Robot. Automat., 12(5):651--670, Oct. 1996.
  3. ^ a b F. Chaumette, S. Hutchinson. Visual Servo Control, Part I: Basic Approaches. IEEE Robotics and Automation Magazine, 13(4):82-90, December 2006
  4. ^ F. Chaumette, S. Hutchinson. Visual Servo Control, Part II: Advanced Approaches. IEEE Robotics and Automation Magazine, 14(1):109-118, March 2007
  5. ^ A. C. Sanderson and L. E. Weiss. Adaptive visual servo control of robots. In A. Pugh, editor, Robot Vision, pages 107–116. IFS, 1983
  6. ^ E. Malis, F. Chaumette and S. Boudet, 2.5 D visual servoing, IEEE Transactions on Robotics and Automation, 15(2):238-250, 1999
  7. ^ P. Corke and S. A. Hutchinson. A new partitioned approach to image-based visual servo control. IEEE Trans. Robot. Autom., 17(4):507–515, Aug. 2001.
  8. ^ E. Marchand, F. Spindler, F. Chaumette. ViSP for visual servoing: a generic software platform with a wide class of robot control skills. IEEE Robotics and Automation Magazine, Special Issue on "Software Packages for Vision-Based Control of Motion", P. Oh, D. Burschka (Eds.), 12(4):40-52, December 2005.

Voci correlate[modifica | modifica sorgente]

Altri progetti[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]