Introduction générale
Introduction générale Les réseaux de neurones artificiels présente une alternative prometteuse pour de nombreux domaines ; à savoir la reconnaissance de formes, le traitement d’images, le control industriel et l’identification [1]. S’inspirant des règle s de la génétique, les techniques neuronales interviennent dans un contexte où les outils courants ont atteint leurs limites.
Grace à leurs propriétés d’approximation universelle, les réseaux de neurones on vu leur champ d’application s’étaler à de nouvell es classe de problèmes, réputés de complexe avec succès. Les études antérieures ont montré qu’avec un réseau neuronal à une seule couche cachée et un nombre suffisant de neurones cachés on peut identifier n’importe quel système avec n’importe quelle précision [2]. Dans ce travail, les réseaux de neurones sont utilisés pour la modélisation d’une machine asynchrone commandée en tension. Le mémoire est organisé en trois chapitres : Le premier chapitre est consacré à la présentation du modèle neuronal, l’ architecture du réseau et au processus d’apprentissage effectué par celui -ci. Le deuxième chapitre traite la mise en équation de la machine en présentant la transformation de Park, et la simulation en boucle ouverte.
Le troisième chapitre est consacré à l’app lication des réseaux de neurones à la machine asynchrone, en simulant la sortie du réseau neuronal et la sortie de la machine. Une conclusion générale clôture le mémoire.
1
Chapitre I
Réseaux de neurones
I.1 Introduction Les réseaux de neurones, fabriqués de structures cellulaires artificielles, constituent une approche permettant approche permettant d’aborder sous des angles nouveaux les problèmes de perception, de mémoire, d’apprentissage et de raisonnement. Grâce à leur traitement parallèle de l’information l’information et à leurs mécanismes inspirés inspirés des cellules nerveuses (neurones), (neurones), ils infèrent des propriétés émergentes permettant de solutionner des problèmes complexes.
I.2 Histoire La première application concrète des réseaux de neurones artificiels est survenue vers la fin des années 1950 avec l’invention du réseau dit perceptron par Frank Rosenblatt. Rosenblatt et ses collègues ont construit un réseau et démontré ses habilités à reconnaitre des formes. Vers la fin des années 1960, un livre publié par Marvin Minsky et Seymour Papert sur les réseaux de neurones. Ces deux auteurs ont démontré les limitations des réseaux développés par Rosenblatt et Widrow-Hoff. Dans les années 1980, ils ont inventés l’algorithme de rétropropagation rétropropagation des erreurs. erreurs. C’est ce nouveau développement, généralement attribué à David Rumelhart et James McClelland, mais aussi découvert plus ou moins en même temps par Paul Werbos et par Yann LeCun, qui a littéralement ressuscité le domaine des réseaux de neurones. Depuis ce temps, c’est un domaine où bouillonne constamment de nouvelles théories, de nouvelles structures et de nouveaux algorithmes. I.3 Application «
»
Les réseaux de neurones servent aujourd’ hui à toutes sortes d’applications dans divers domaines. Par exemple, on a développé un autopilote pour avion, ou encore un système de guidage pour automobile, on a conçu des systèmes de lecture automatique de chèques bancaires et d’adresses postales, on produit des systèmes de traitement du signal pour différentes applications militaires, un système pour la synthèse de la parole, des réseaux sont aussi utilisés pour bâtir des systèmes de vision par ordinateur, pour faire des prévisions sur les marchés monétaires, pour évaluer le risque financier ou en assurance, pour différents l’exploration pétrolière ou gazière, processus manufacturiers, manufacturiers, pour le diagnostic médical, mé dical, pour l’exploration en robotique, en télécommunication etc...
I.4 Modèle de neurone et réseau I.4.1 Modèle d’un neurone
Le modèle mathématique d’un neurone artificiel est illustré à la figure 1. Un neurone est essentiellement constitué d’un intégrateur qui effectue la somme pondérée de ses entrées. Le résultat de cette somme est ensuite transformé t ransformé par une fonction de transfert qui produit ] , la sortie du neurone. Les entrées du neurone correspond au vecteur p = [ 1 2
… −
alors que w = [
…
] représente le vecteur des poids du neurone. La sortie l’intégrateur est donnée par l’équation suivante : =
=1
1,1
1,2
1,
1,
de
(1.1)
Que l’on peut aussi écrire sous forme matricielle :
2
Chapitre I
Réseaux de neurones
T
=w p
–
(1.2)
Cette sortie correspond à une somme pondérée des poids et des entrées moins le biais du neurone. Le biais s’appelle aussi le seuil d’activation. Lorsque le niveau d’activation atteint ou dépasse le seuil, alors l’argument de devient positif (ou nul). Sinon, il est négatif.
Figure 1.1. Modèle d’un neurone artificiel. On peut faire un parallèle entre ce modèle mathématique mat hématique et certaines informations que l’on connait à propos du neurone biologique. Ce dernier possède trois principales l’ax one (figure 2). Les dendrites forment un composantes : les dendrites, le corps cellulaire et l’axone maillage de récepteurs nerveux qui permettent d’acheminer vers le corps du neurone des signaux électriques en provenance d’autres neurones. Celui-ci Celui -ci agit comme une espèce d’intégrateur en accumulant des charges électriques. Lorsque le neurone devient suffisamment excité (lorsque la charge accumulée dépasse un certain seuil), par un processus électrochimique, il engendre un potentiel électrique qui se propage à travers son axone pour éventuellement venir exciter d’autres neurones. Le point de contact entre l’axone d’un neurone et la dendrite d’un autre neurone s’appelle s’ appelle la synapse. synapse.
Figure 1.2. Schéma d’un neurone biologique. Un autre facteur limitatif dans le modèle que nous nous sommes donnés concerne son caractère discret. En effet, pour pouvoir simuler un réseau de neurones, nous allons rendre le temps discret dans nos équations. Autrement dit, nous allons supposer que tous les neurones
3
Chapitre I
Réseaux de neurones
–
c’est-à-dire dire qu’à chaque temps , ils vont simultanément calculer leur sont synchrones, c’est-à-
=
somme pondérée et produire une sortie On ajoutant la fonction d’activation
=
T
.
pour obtenir la sortie du neurone :
= (wT p
)
(1.3)
T
En remplaçant w par une matrice W = w d’une seule ligne, on obtient une forme générale
− = (W p
)
(1.4)
L’équation 4.4 nous amène à introduire introduire un schéma de notre modèle modèle plus compact que celui de la figure 4.1. La figure 4.3 illustre celui-ci. On y représente les entrées comme un rectangle. De ce rectangle sort le vecteur p. Ce vecteur est multiplié par une matrice W qui contient les poids synaptique. Finalement, la sortie du neurone est calculée par la fonction d’activation .
Figure 1.3. Représentation 1.3. Représentation matricielle du modèle d’un neurone artificiel. I.4.2 Fonction de transfert Différentes fonctions fonctions de transfert transfert pouvant être utilisées comme fonction d’activation du neurone sont énumérées au tableau ci-dessous. Les trois les plus utilisées sont l es fonctions « seuil », « linéaire », et « sigmoïde ».
4
Chapitre I
Réseaux de neurones
Relation d’entrée/sortie =0 <0 =1 0
Nom de la fonction seuil
≥ − ≥ −
Seuil symétrique
= 1 =1
linéaire
Icône
Nom Matlab hardlim hardlims
<0 0
purelin
=
Sigmoïde
=
1
Logsig
1+
Tableau 1.1. Fonctions de transfert =
.
La figure 4.4 illustre ces fonctions :
(a)
(b)
(c)
Figure 1.4. Fonction de transfert : (a) du neurone « seuil » ; (b) du neurone « linéaire » ; (c) du neurone « sigmoïde ». I.4.3- Architecture de réseau Un réseau de neurones est un maillage de plusieurs neurones, généralement organisé en couches. Pour construire une couche de neurones, il s’agit simplement de les assembler comme à la figure 4.5. Les neurones d’une même couche sont tous branchés aux entrées.
L’ensemble des poids d’une couche forme une matrice W de dimension
⋮ ⋯⋱ ⋮ ⋯ 1,1
1,
,1
,
∗
:
5
Chapitre I
Réseaux de neurones
Figure 1.5. Couche de
neurones.
Pour construire un réseau il ne suffit plus que de combiner des couches comme à la figure 1.6. Cet exemple comporte entrées et trois couches de neurones. Chaque couche k k k k possède sa propre matrice de poids W , où k est l’indice de couche. Les vecteurs b , n et a sont associés à la couche k. Les réseaux multicouches sont beaucoup plus puissants que les réseaux simples à une seule couche. En utilisant deux couches (une couche cachée et une couche de sortie), à condition d’employer une fonction d’activation sigmoïde sur la couche cachée, on peut entrainer un réseau à produire une approximation de la plupart des fonctions, avec une précision arbitraire (cela peut cependant requérir un grand nombre de neurones sur la couche cachée). Sauf dans de rares cas, les réseaux de neurones artificiels exploitent deux ou trois couches.
Figure 1.6. Représentation 1.6. Représentation matricielle d’un réseau de trois couches.
6
Chapitre I
Réseaux de neurones
I.5 processus d’apprentissage Parmi les propriétés désirables pour un réseau de neurones, la plus fondamentale est surement la capacité d’apprendre de son environnement, d’améliorer sa performance à travers un processus d’apprentissage. Mais qu’est -ce donc que l’apprentissage ?
L’apprentissage est un processus dynamique et itératif permettant de modifier les paramètres d’un réseau en réaction avec les stimuli qu’il reçoit de son environn ement. Le type d’apprentissage est déterminé par la manière dont les changements de paramè tre surviennent. Cette définition implique qu’un réseau se doit d’être stimulé par un environnement, qu’il subisse des changements en réaction avec cette stimula tion, et que ceux-ci provoquent dans le futur une réponse nouvelle vis-à-vis vis-à- vis de l’environnement. Ainsi, le réseau peut s’améliorer avec le temps. L’apprentissage se traduit par une modification de l’efficacité synaptique, c’est -à-dire par un changement changem ent dans la valeur des poids qui relient les neurones d’une couche à l’autre. Soit le poids , reliant le neurone à son entrée .Au temps , un changement , ( ) peut s’exprimer par : par : = , +1 (1.5) , ,
∆ −
∆
Nous allons voir un apprentissage utilisé pour effectuer des taches d’apprentissage tel que l’approximation des fonctions et la commande appelé apprentissage « supervisé ». Ce type d’apprentissage est basé sur la correction de d e l’erreur. l’erreur.
I.5.1 Correction d e l’erreur
Soit ( ) la sortie que l’on obtient pour le neurone au temps . Cette sortie résulte d’un stimulus ( ) que l’on applique aux entrées du réseau dont un des neurones correspond au neurone . Soit ( ) la sortie que l’on désire obtenir pour ce même neurone au temps . Alors, ( ) et ( ) seront généralement différents et il est naturel de calculer l’erreur ( ) entre ce qu’on obtient et ce qu’on voudrait obtenir : = (1.6)
−
et de chercher un moyen de réduire autant que possible cette erreur. Sous forme vectorielle, on obtient :
− … … =
( )
(1.7)
=[ 1 ] désigne le vecteur des erreurs observé sur les Avec 2 neurones de sortie. L’apprentissage par correction des erreurs consiste à minimiser un indice de performance basé sur les signaux d’erreur , dans le but de faire fair e converger les sorties du réseau avec ce qu’on voudrait qu’elles soient. Un critère très populaire est la somme des erreurs quadratiques :
7
Chapitre I
Réseaux de neurones
∇∆ ∇ ∇∆ ∇ −∇ −∇ ∆ =
2
( )
(1.8)
=1
=
Pour minimiser
= ( ), nous allons commencer par choisir des poids
initiaux ( = 0) au hasard, puis nous allons les modifier de la manière suivante :
+1 =
+
( )
(1.9)
Où le vecteur désigne la direction dans laquelle nous allons chercher le minimum et est une constante positive déterminant l’amplitude du pas dans cette direction (la vitesse d’apprentissage). L’objectif est de faire en sorte que + 1 < ( ), donc on doit choisir la direction pour que la condition précédente soit vérifiée. Considérons la série de Taylor de 1er ordre autour de
+1 =
( ):
+
( )
(1.10)
( ) désigne le gradient de F par rapport à ses paramètres (les poids) au temps . Or, Où pour que + 1 < ( ), il faut que la condition suivante soit soit respectée : =
<0
(1.11)
Donc,
=
( )
(1.12)
Ce qui engendre la règle dite « descente du gradient » :
=
( )
(1.13)
I.5.2 L’apprentissage supervisé L’apprentissage dit superviser est caractérisé par la présence d’un «professeur» qui possède une connaissance approfondie de l’environnement dans lequel évolue le réseau de neurones. En pratique, les connaissances de ce professeur prennent la forme d’un ensemble de couples de vecteurs d’entrée et de sortie que nous noterons , , , où désigne un stimulus et la cible pour ce stimulus. 1, 1 , 2, 2 L’apprentissage supervisé est illustré d’une manière conceptuelle à la figure 5.1. L’environnement est inconnu du réseau. Celui -ci produit un stimulus qui est acheminé à la fois au professeur et au réseau. Grace à ses connaissances intrinsèques, le professeur produit une sortie désirée ( ) pour ce stimulus. On suppose que cette réponse est optimale. Elle est ensuite comparée (par soustraction) avec l a sortie du réseau pour produire un signal d’erreur ( ) qui est réinjecté dans le réseau pour modifier son comportement via une procédure itérative qui, éventuellement, lui permet de simuler la réponse du professeur. Autrement dit, la connaissance de l’environnemen l’environnementt par le professeur est graduellement transférée vers le réseau jusqu’à jusqu’à l’atteinte d’un certain critère d’arrêt. Par la suite, on peut éliminer le professeur et laisser le réseau fonctionner de façon autonome.
…
8
Chapitre I
Réseaux de neurones
Figure 1.7 apprentissage supervisé. I.6 La rétropropagation rétropropagation des des erreurs Cette méthode consiste à minimiser un indice de performance F basé sur l’erreur quadratique moyenne. On peut propager vers l’ avant un vecteur ( ) pour obtenir une sortie ( ). Ceci nous permet de calculer l’erreur entre la sortie désirée et la sortie du réseau.
I.7 Exemple illustratif (approximation d’une fonction) La tache d’approximation consiste à concevoir un réseau de neurone capable d’associer les éléments des couples entr éeentr ée-sortie. sortie. Ce problème peut être résolu à l’aide d’un apprentissage supervisé. On a introduit 10 neurones dans la couche cachée et 1 neurone dans la couche de sortie. La fonction de transfert dans la couche cachée est sigmoide et dans la couche de sortie est linaire. li naire. Le réseau est créé avec la fonction « newff » (feed-forward). (feed- forward). C’est un réseau multicouche avec un apprentissage par rétropropagation, cette commande crée le réseau et initialise ces poids. En prenant une fonction à deux entrées, on peut la simuler avec et sans entrainement et voir l’erreur avant avant et après apprentissage. Z = X .* exp(-X.^2 - Y.^2);
0.5
0
-0.5 2 1
2 1
0 0
-1
-1 -2
-2
fonction à entrainée
Figure 1.8 fonction à entrainée
9
Chapitre I
Réseaux de neurones
0.1
0.05
0
-0.05
-0.1 2 1
2 1
0 0 -1
-1 -2
-2
Figure 1.9 erreur avant apprentissage.
1.5 1 0.5 0 -0.5 -1 -1.5 2 1
2 1
0
0
-1
-1 -2
-2
erreur après apprentissage
Figure 1.10 erreur après apprentissage.
On remarque d’après d’après les figures que l’erreur a diminuée après l’entrainement du réseau. La figure ci-dessous ci-dessous montre l’évolution de l’indice de performance en fonction du nombre d’itération.
10
Chapitre I
Réseaux de neurones
Performance is 3.87326e-005, Goal is 0
0
10
-1
10
-2
e 10 u l B g n i n i a -3 r T 10
-4
10
-5
10
0
2
4
6
8
10 12 20 Epochs
14
16
18
20
Figure 1.10 Evolution 1.10 Evolution de l’indice de performance
Le réseau a bien appris la fonction en modifiant ses poids c'est-à- dire qu’il a optimisé l’indice de performance afin que sa sortie converge vers la sortie désirée.
11
Chapitre II
modélisation de la machine asynchrone
II.1 modélisation de la machine asynchrone Le comportement électrique d’un système système ne peut être étudié que s’il s’il est possible de le définir par un modèle mathématique, c’est ce qu’on appelle la modélisation, c’est pour ça que c’est une étape indispensable pour concevoir concevoir des systèmes de commande performants p erformants Généralement la transformation de Park est utilisée pour modéliser les machines alternatives. En décrivant décrivant la machine tournante dans un référentiel adéquat, adéquat, les équations de la machine sont simplifiées. Cela rend leur étude et leurs exploitations plus aisées et permet l’étude des régimes régimes transitoires. Un certain nombre d’hypothèses d’hypothèses simplificatrices peuvent être adoptées, pour une mise en équations particulièrement simple.
II.1.1 définition et principe de fonctionnement Une machine asynchrone est une machine a induction, sans collecteur et dont une partie des enroulements est reliée au réseau, l’autre travaillant par induction . Elle est constituée de deux parties principales : une fixe appelée « STATOR ». une mobile appelée « «ROTOR ».
Ces deux parties sont séparée par un espace appelé « entrefer ». Le « STATOR »et le « ROTOR » sont des circuits composés d’enroulements formants des spires électromagnétiques. Sièges d’un champ magnétique. Le « STATOR »représente le circuit récepteur triphasé, il permet de créer un champ magnétique dans l’enceinte de la machine. Ce champ évolue à la fréquence de la source d’alimentation triphasée. Le « ROTOR » est un circuit fermé sur lui-même il se trouve immergé dans le champ magnétique tournant créé par le « STATOR », il est alors, le siège des courants induits de Foucault tentent alors s’opposer à la cause qui leur à donner naissance, soit une rotation.
11
Chapitre II
modélisation de la machine asynchrone
Figure 2.1 Représentation shématique de la machine asynchrone II.1.2 problèmes posés Dans la machine asynchrone asynchrone le courant statorique sert à la fois à générer le flux et le couple, le découplage naturel de la machine à courant continus n’existe plus. D’autre part, on peut connaitre les variables internes du rotor qu’à travers le stator. L’inaccessibilité du rotor nous amènera à modifier l’équation l’équ ation vectorielle rotorique pour exprimer les grandeurs rotoriques à travers leurs actions act ions sur le stator.
II.1.3 hypothèses simplificatrices La modélisation s’appuie sur un certain certai n nombre d’hypothèses : entrefer d’épaisseur uniforme et d’effet d’encochages négligé. Perte magnétique négligeable. Distribution spatiale et sinusoïdale des forces magnétomotrices. magnétomotrices.
II.1.4 Equation de de la MAS a) Equation en tension Stator: Rotor:
Avec : Ø
=
+
=
+
= Ø
Ø
Ø
Ø
Ø
(2.1) (2.2) (2.3)
12
Chapitre II
modélisation de la machine asynchrone
∗ ∗ − ∗ − − Ø
= Ø
Ø
Ø
(2.4)
=
(2.5)
=
(2.6)
=
1 0 0
0 1 0
0 0 1
(2.7)
=
1 0 0
0 1 0
0 0 1
(2.8)
,
: Résistances par phase du stator et du rotor
,
: Vecteurs de phases statoriques et rotoriques. r otoriques.
Ø , Ø : Vecteurs des flux statoriques et rotoriques. ,
: Vecteurs des courants par phases statoriques et rotoriques.
b) Equation de flux
Stator: Ø
=
+
(2.9)
Rotor: Ø
=
+
(2.10)
Les matrices
,
et
sont définies par :
=
(2.11)
=
(2.12)
cos
=
cos cos
2 /3 + 2 /3
cos
+ 2 /3 cos cos 2 /3
cos cos
2 /3 + 2 /3 cos
(2.13)
ls, lr : inductances propres, inductances propres, statoriques et rotoriques, d’une phase ;
ms, mr : inductances i nductances mutuelles entre phases, statoriques et rotoriques ;
∶
: Maximum de l’inductance mutuelle entre une phase de stator et la phase correspondante du rotor ; Angle entre l’axe rotorique et l’axe statorique correspondant. Angle
c) Equation mécanique
13
Chapitre II
modélisation de la machine asynchrone Le second principe de la dynamique nous donne :
− − Ω
=
(2.14)
Ω
: Moment d’inertie de l’ensemble des éléments tournants ;
Ω
: vitesse angulaire du rotor ; : Couple résistant ;
: Coefficient de frottement visqueux ; Le couple magnétique est donné par la formule :
=
1
(2.15)
2
II.2 transformation de Park Pour simplifier la présentation dans les équations précédentes, on introduit la transformation de Park, obtenue à l’aide de la matrice P, qui consiste à passer d’un enroulement triphasé à un enroulement biphasé Le changement de variables relatif aux courants, aux tensions et aux flux est donné par la transformation :
− − − − − =
(2.16)
0
=
0
1
(2.17)
0
P est une matrice définit comme suit :
=
2
cos sin
cos sin
2 /3 2 /3
3
1
1
2
2
« X » : tension courant ou flux ;
cos sin
+ 2 /3 + 2 /3
(2.18)
1 2
« O » : indice de l’axe homopolaire ;
14
Chapitre II
modélisation de la machine asynchrone
− − − −∶ −∶ ∶ ∶ =
: Lorsqu’il s’agit des grandeurs statoriques ;
=
: Lorsqu’il s’agit des grandeurs rotoriques ; L’application de la transformation de Park donne lieu aux équations :
0
=
0
0
=
0
+
+
Ø Ø
Ø Ø
+
+
Ø Ø
0
0
(2.19)
Ø Ø
0
0
(2.20)
Ø Ø
=
(2.21)
Ø Ø
=
(2.22)
Ø
= .
Ø
(2.23)
Avec :
=
Inductances propres cyclique du stator.
=
Inductances propres cyclique du rotor.
=
3 2
Inductance mutuelle mutuelle cyclique entre entre stator et rotor.
Nombres de paire de pôles de la machines.
II.2.1 Choix du système d’axe de référence
Il existe plusieurs possibilités concernant l’orientation de repère d et q qui dépendent des objectifs de l’application
− − −
Référentiel lié au stator :(
=0),
Il se traduit par la condition : Référentiel lié au rotor :(
=
,
=
(2.24)
=0),
= ,
Il se traduit par la condition :
=ω
(2.25)
Référentiel lié au champ tournant,
Il se traduit par la condition
=
ωsωs- ωr= ω
Ce référentiel est le seul qui n’introduit pas de simplification dans la formation des équations, il est cependant, la solution pour réaliser le pilotage vectoriel du fait que les grandeurs de réglage deviennent continues dans ce référentiel. Il permet aus si d’obtenir une expression scalaire du couple électromagnétique en analogie avec le couple des machines à courant continu.
15
Chapitre II
modélisation de la machine asynchrone
Dans ces conditions, le modèle de la machine asynchrone asynchrone devient :
– – – – − − Ø
=
+
=
+
Ø
Ø
0=
+
0=
+
Ø
ωs Ø
(2.26)
ωs Ø
(2.27)
ωr Ø
ωr Ø
(2.28)
II.2.1 Expression du couple magnétique = .
= .
Ø
Ø
(2.29) (2.30)
II.2.3 Equation mécanique
ω=PΩ
− =
+ ω
(2.31) (2.32)
II.3 Simulation de la machine machine alimentée directement sur le réseau Le but de la simulation est de valider le modèle de la machine asynchrone.
16
Chapitre II
modélisation de la machine asynchrone Figure 2.2 Modèle Simulink de la machine asynchrone avec TP et TPI
II.3.1 Création du bloc de simulation La modélisation de la machine asynchrone est basée sur les équations obtenues avec la transformation de Park que nous rappelons ci-dessous
– – – – − Ø
=
+
Ø
=
+
Ø
0=
Ø
+
(2.33)
ωs Ø
(2.34)
ωr Ø
(2.35)
ωr Ø
(2.36)
+
0=
ωs Ø
Ø
=
+
(2.37)
Ø
=
+
(2.38)
Ø
=
+
(2.39)
Ø
=
+
(2.40)
L’expression du couple est :
Ø
= .
(2.41)
et ωs grandeurs de commande
,
,
grandeurs de contrôle mesurable
Ø
Ø
,Ø
grandeurs de contrôle non mesurable
En remplaçant les équations précédentes par :
Ø
=
Ø
= = =
Avec
+
(2.42)
+
(2.43)
− − − −
Ø
(2.44)
Ø
(2.45)
− =1
2
(coefficient de Blondel),
=
On trouve :
17
Chapitre II
modélisation de la machine asynchrone
– – – =(
+
. )
+
=(
+
. )
+
Ø
1+
.
=
Ø
1+
.
=
+
– – .
Ø
ωs
Ø
ωs
.
Ø
(2.46)
Ø
(2.47)
Ø
(2.48)
Ø
(2.49)
A partir de ces équations, on réalise le modèle de la machine :
Figure 2.3 Modèle Simulink de la machine asynchrone
A partir de ces équations, on réalise le modèle de la machine : On alimente la machine asynchrone par une tension triphasée sinusoïdale, et on crée un bloc qui représente la transformation de Park (figure 2.4) et un bloc de transformation inverse de Park (figure 2.5). On rappelle que la matrice de Park s’écrit :
− − −− =
0
2
cos sin
cos sin
2 /3 2 /3
cos sin
+ 2 /3 + 2 /3
3
1
1
1
2
2
2
,θ=
(2.50)
18
Chapitre II
modélisation de la machine asynchrone
La transformation de Park inverse est :
− − − − − − − cos
=
2 3
2
cos
1
sin
3
2
2
sin
3
1
,θ=
2
(2.51)
0
cos
+
2
3
sin
+
2
3
1 2
Figure 2.4 Bloc Simulink de la transformation de Park inverse On applique la source de tension à l’instant t=0 s, et à t=2.5 s on applique un couple résistant de 20N.m égal au couple de la machine.
19
Chapitre II
modélisation de la machine asynchrone
II.3.2 Résultats de simulation On applique la source de tension à l’instant t=0 s, et à t=2.5 s on applique un couple résistant de 20N.m égal au couple de la machine. Réponse de la vites se 350
300
250 ) s / 200 m ( e s s e 150 t i v
100
50
0
0
1
2
3
4
5 temps (s)
6
7
8
9
10 10
8
9
10 10
Figure 2.5 Réponse de la MAS : Vitesse
Réponse du couple 35 30 25 20 ) m . N ( e l p u o c
15 10 5 0 -5 -10
0
1
2
3
4
5 temps (s)
6
7
Figure 2.7 Réponse de la MAS : couple
20
Chapitre II
modélisation de la machine asynchrone Réponse du courant 40 30 20
) A ( t n a r u o c
10 0 -10 -20 -30 -40
0
1
2
3
4
5 temps (s)
6
7
8
9
10
Figure 2.8 Réponse de la MAS : courant
II.3.3 Commentaires On remarque sur la figure (2-6) (2- 6) qu’en appliquant directement la tension alternative aux bornes de machine asynchrone, l’apparition d’un couple transitoire de 32(N .m) environ et pour la figure (2-7) On remarque que la vitesse passe de 320 (m/s) à 280 (m/s), après avoir appliqué un couple résistant de 20 (N.m). Concernant le courant de phase (2-8), (2- 8), on remarque qu’il est environ 35(A) lors du démarrage, de 4(A) En régime permanant et de11(A) Apres application du couple résistant On peut conclure à ce niveau que la machine asynchrone simulée présente un comportement très proche de la machine réelle
21
Chapitre III
application à la machine asynchrone
III.1 Modélisation par réseaux de neurones Les réseaux de neurones sont considérés comme des approximateurs universels. Il a été démontré qu’un réseau de neurones avec une structure convenable peut approximer n’importe quelle correspondance entre espace d’entrée et espace de sortie. L’entrainement n’exige que les données entrées/sorties. Le principe de la modélisation neuronale consiste à placer un réseau neuronal en parallèle avec le système et l’entrainer pour émuler le comportement dynamique de ce dernier. Il existe deux types d’identification :
Identification série-parallèle Dans cette structure (figure 3.1), le réseau est placé en parallèle avec le système. En plus des valeurs du signal de commande, le réseau reçoit les valeurs passé de système à modéliser.
Figure 3.1 identification série-parallèle Identification parallèle Dans cette structure structure (figure 3.2), le réseau est complètement complètement en parallèle parallèle avec le système. En plus des valeurs du signal de commande, le réseau reçoit les valeurs valeurs passé de sa propre sortie.
22
Chapitre III
application à la machine asynchrone
Figure 3.2 identification parallèle III.2 Modélisation de la machine asynchrone Dans ce qui suit nous nous allons s’intéresser à l’identification de la machine asynchrone par réseau de neurones. La figure 3.3 illustre le l e schéma sché ma de principe d’identification. Le réseau reçoit par ses entrées les trois tensions triphasées appliquées à la machine ainsi que la vitesse de rotation du rotor décalée d’une période d’échantillonnage. Il s’agit de la structure d’identification sériesérie- parallèle. L’erreur entre la vitesse réelle de la machine et celle du réseau neuronal permet d’ajuster les poids de connexions lors de la phase d’apprentissage. Le réseau comporte une seule couche cachée à 10 neurones et une couche d’entrée de 4 neurones. Un seul neurone constitue la couche de sortie. La fonction de transfert de la couche cachée est une fonction sigmoide, tendis que la fonction de transfert de la couche de sortie est linéaire.
Figure 3.3 principe d’ identification. identification.
23
Chapitre III
application à la machine asynchrone
La séquence d’apprentissage est obtenue à partir du modèle de la machine en appliquant les tensions sur un intervalle [0 :10] seconde.
III.2.1 Résultat de simulation
erreur après apprentissage 100
50
0
-50
-100
-150
0
200
400
600
800
1000
1200
Figure 3.4 évolution de l’erreur après apprentissage.
320
300
280 ] s /
d a r [ e s s e t i v
260
240
sortie réseaux neurones neurones sortie machine asynchrone
220
200 0
0. 5
1
1.5
2 temps [s]
2. 5
3
3. 5
Figure 3.5 Sorties de la machine asynchrone et du réseau de neurones.
24
Chapitre III
application à la machine asynchrone
III.2.2 Commentaire On remarque d’après la figure 3.4 que l’erreur diminue au fil de la séquence d’apprentissage cela montre que le réseau de neurone a bien assimilé la sortie qui est la vitesse de rotation de la machine. Dans la figure 3.5 la vitesse de la machine machine et du réseau sont presque identique, identique, ce qui démontre l’efficacité du réseau à apprendre de son environnement. III.2.3 influence des paramètres du réseau de neurone sur l’erreur quadratique :
La modification du nombre de neurone ou la modification du nombre de couche couch e cachée entraine la modification de l’erreur. La performance du réseau est élevée en augmentant augmentant le nombre de neurone dans la couche couche cachée ou en ajoutant une autre couche cachée au réseau, c'est-à- dire l’indice de performance est minimisé dans plus en plus. Mais remarquons qu’un excès dans le nombre de neurone peut détériorer le réseau c'est-à-dire qu’il peut perdre ces performance.
25
Conclusion générale
Conclusion générale Le travail présenté dans ce mini projet a porté sur la modélisation de la machine asynchrone et cela à l’aide d’un out il qui est le réseau de neurone. Nous avons commencé par s’initier au monde des réseaux de neurones en exposant leurs principales caractéristiques. Ce qui leurs a permis de s’intégrer dans plusieurs domaines tel que la reconnaissance de forme, la classification et la modélisation. La modélisation de la machine par la transformation de Park nous a permis de remplacer les variables alternatives par des grandeurs évoluant continument ainsi on a pu simuler le comportement de la machine asynchrone en boucle ouverte. Dans le cas des réseaux neurones nous avons optés pour l’algorithme de rétropropagation , ce dernier permet l’apprentissage de l’ensemble des paramètres du réseau a partir d’un jeu de donné entré-sortie Pour l’application on a testé les performances de l’algorithme pour la modélisation de la machine asynchrone, les résultats obtenus sont très satisfaisants et montre l’influence du nombre de couche cachées et du nombre de neurones dans chaque couche.
L’étude s’est limité théoriquement, cependant on à montré par simulation l’intérêt des réseaux neurones pour la modélisation des machines alternatives.
26
Références bibliographiques
Recherche bibliographique [1 ] Renders J.M. « Algorithme génétique et réseaux de neurones ». Hermes Science Publications, 1995. [2]Hornik K. Stinchcombe M. et White H. «Multilayer feedforwardnetworks are universal approximators» approximators». Neural Networks, vol. 2, n 5, pp. 359-366, 1989. [3] J.Gognat . « Modélisation et simulation d’une commande vectorielle sous le logiciel Matlab » stage DEES Génie électrique, Aix Marseille III, 1999. [4] I.Salim et M.Ali. « La commande multimodèle par les réseaux de neurones artificiels d’un bioprocédé » Mémoire de fin d’étude.UAM de Bejaia, promotion 2002 . [5] JEAN PIERRE CARRON, JEAN PAUL HAUTIER. « Modélisation et commande de la machine asynchrone » Ed Téchnip 1995-Paris. [6] I.abdelhakim et Y.nadjib. « La commande supervisée de la machine asynchrone à résistance rotorique variable » Mémoire de fin d’étud e.UAM e.UAM de de Bejaia, promotion 2003. [7] MARC PARIZEAU. « Réseaux de neurones » université Laval, 2004. [8] LOTFI BAGHLI . « Contribution à la commande de la machine asynchrone, utilisation de la logique floue, des réseaux de neurones, et des algorithme génétique » Thèse doctorat, université Henri Poincaré, Nancy-I.