|
|
1.1. Définitions
- Automatique :
science et technique des méthodes et moyens d’étude et de conception des
systèmes automatisés (agencement de parties qui se coordonnent pour atteindre
un résultat). En anglais terme générique plus précis : « automatic control » soit commande automatique.
- Système : « boîte »
qui possède des entrées (actions gérées et subies) et des sorties (réactions
induites).
- Systèmes à événements
discrets : commande logique combinatoire et séquentielle (API)
- Systèmes continus :
commande en temps continu (analogique) ou discret (numérique)
- Régulation : un
système régulé a pour but essentiel de maintenir une ou plusieurs grandeurs
physiques de sorties à une valeur constante ou de leur faire suivre un cycle
d’évolution et ceci indépendamment des entrées perturbatrices.
- Asservissement : un système asservi doit permettre de faire suivre à une ou plusieurs grandeurs
de sortie une loi évolutive et non fixée à l’avance. La recopie doit être la
plus fidèle possible sans influence des perturbations. Le système est
nécessairement bouclé.
Remarque : Dans ces fiches, seuls les systèmes
continus seront traités.
|
|
|
|