Opérations sur les applications linéaires et les matrices :
Maintenant que nous savons représenter une application linéaire à travers une matrice, voyons les opérations que nous pouvons effectuer sur ces dernières.
Tout d’abord, commençons par les propriétés de certaines opérations simples et d’autres plus spécifiques :
- Propriété sur la somme de matrices d’applications linéaires :
Soit, deux applications linéaires de
dans
.
Soitune base de
et
une base de
.
Attention, ceci implique de considérer la même base des applications sur l’espace de départ et l’espace d’arrivée. En effet, par exemple, cela n’a pas de sens d’additionner deux matrices n’ayant pas le même nombre de lignes et de colonnes.
Prenons un exemple.
Soit, deux espaces vectoriels et soit
et
deux applications linéaires telles que
et
.
Soitet
.
Vous l’avez compris, on exprime ici la représentation matricielle des applications.
Montrons que la matrice de la somme deet
est la somme des matrices de
et
:
On voit bien que les bases des deux applications doivent être les mêmes sur l’espace de départ, et les mêmes sur l’espace d’arrivée. - Propriété sur le produit de la matrice d’une application linéaire avec un scalaire :
De manière analogue, ceci implique de considérer également la même base de l’applicationsur l’espace de départ et l’espace d’arrivée.
Je pense que vous avez compris le principe, sinon, entraînez vous. Prenez un scalaire quelconque, et montrez que la matrice du produit de ce scalaire avec une application quelconque, est équivalent au produit du scalaire avec la matrice de l’application linéaire. - Propriétés sur la composition d’applications linéaires :
Soientet
et
une base de
,
une base de
et
une base de
. Alors :
Rappelez vous, l’ordre de composition est inversé, car il faut prendre en compte le fait qu’on applique d’abord la première applicationà notre vecteur, puis la deuxième
, mais ceci revient à écrire (pour tout vecteur
)
. On applique d’abord
à
, puis
.
Exemple :
Soit, trois
-espaces vectoriels, avec
,
et
.
Soit égalementet
On définit la matricede l’application linéaire
, et
, la matrice de l’application linéaire
telles que :
et
Par conséquent,
Pourquoi ? Si on pose tranquillement, on a :
Donc :
En fait, ceci revient à faire :
Par conséquent, la propriétéest vérifiée.
- A présent, montrons que
n’implique pas que
soit définie.
Soient
Définissonset
est définie, mais on voit clairement que
ne l’est pas. Pourquoi ? En fait, on voit bien qu’appliquer
à un vecteur de
n’a pas de sens. L’application
ne prend et ne transforme que des vecteurs de
.
- Propriétés sur les matrices d’endomorphismes :
Si une applicationde
dans
est linéaire (endomorphisme), alors la matrice
de l’application
est inversible.
Exemple :
Soitet
, une application linéaire définie par
, la matrice de l’application
.
En résolvant le système linéaire (ou la matrice augmentée), on trouve :
A présent, si on applique notre application à un vecteur quelconque de:
Maintenant, si on applique l’inverse deau vecteur auquel que nous avons trouvé :
On retombe bien sur un vecteur de.
- La matrice de l’application linéaire identité est définie par la matrice identité :
Exemple, si on se place dans, avec sa base canonique, alors :
Donc, - La matrice d’une homothétie par rapport à lambda, un scalaire quelconque, est égale au produit de lambda et de la matrice identité :
Nul besoin de prendre d’exemple, ceci étant trivial. - La matrice de l’application linéaire d’une symétrie centrale est l’opposée de la matrice identité (Attention, on ne parle pas ici d’une symétrie vectorielle , qui se fait par rapport à un axe, mais bien d’une symétrie par rapport à l’origine).
Soit, et
, alors :
.
Par conséquent,. En fait, ceci est une également une homothétie de rapport
.
- La matrice de l’application linéaire d’une rotation d’angle
et centrée à l’origine de
dans
, muni de la base canonique
, est définie par :
.
On a vu dans le chapitre « applications linéaires », qu’un vecteur pouvait s’écrire de plusieurs manières, dépendant du système de coordonnées. Avec des coordonnées polaires par exemple, un vecteurquelconque s’écrit comme ceci :
L’applicationn’étant qu’une rotation, on suppose donc que l’application ne fait qu’ajouter un angle théta à notre vecteur, tel que :
On connait les propriétés des sommes des cosinus et des sinus, on développe alors :
On voit qu’on peut remplaceret
par
et
respectivement :
Par conséquent, - Propriétés sur les occurrences d’endomorphismes :
Soient, un endomorphisme et
une base de
.
Alors,:
La matrice associée àest
Exemple :
Ceci découle de la formule de Moivre. - Dernière propriété importante des matrices d’endomorphismes, la composition d’applications inverses. Considérons
Notre postulat est :
. Montrons cela :
On va poser, ou
est l’identité de
. Si on arrive à montrer que le terme de gauche est égal à
, alors on a terminé la preuve. C’est en réalité très simple :
En fait, l’ordre inversé dans la composition inverse d’applications est due à la non commutativité des matrices 🙂 - Propriétés sur les matrices d’isomorphismes :
Soientet
, deux
-ev de même dimension finie.
Soit, une application de
dans
et
une base de
,
une base de
.
Soit
On dit queest bijective (est un isomorphisme), si et seulement si
est inversible.
Dans ce cas là, en plus, la matrice deest
.
Nous allons prendre un exemple ou une construction et un certain niveau d’abstraction seront nécessaires.
Pourquoi ce choix ? Tout simplement parce que dans la majorité des cours ou des exemples que vous trouverez sur internet concernant les matrices représentatives d’isomorphismes, ces exemples seront en réalité des exemples de matrices d’endomorphismes, donc d’automorphismes.
Soit deux espaces vectorielset
de dimension
sur un corps
.
Soit, un isomorphisme.
Soientla base canonique de
et
, la base canonique de
.
Comment pourrions-nous définir, la matrice de l’application linéaire
?
Il n’y a à priori pas de solution simple, en effet, quelle matrice, multipliée par un vecteur depourrait donner un vecteur dans les matrices carrées
? Aucune, c’est impossible, pour les multiplier, la première matrice doit avoir autant de colonnes que la deuxième matrice à de lignes… Ici, ce n’est pas le cas ? Alors, cette matrice n’existe pas ?
Ce serait absurde, car nous avons affirmé plus haut que notre application est linéaire, et possède donc nécessairement une représentation matricielle…
C’est ici qu’un peu d’abstraction est nécessaire pour bien comprendre.
On veut trouver la matrice représentative detel que :
On a dit que, contrairement aux endomorphismes, trouver une matrice entre deux espaces isomorphes peut être compliqué.
On sait que notre isomorphisme se défini ainsi :.
L’idée ici, c’est d’associer le vecteurde la base de départ, avec le vecteur
de la base d’arrivée,
avec
etc… Ce qui nous donne :
En fait, nous imposons une forme de relation d’équivalence entre les vecteurs de la base de départ et ceux de la base d’arrivée, deux à deux. Ceci étant dit, la matrice de notre isomorphisme, compte tenu de nos deux bases canoniques et de l’équivalence de ces dernières, il s’agit simplement de :
On pourrait prendre à présent, une base différente pour, par exemple
Dans ce cas là, on aurait :