Tout est dit dans le théorème 24.21 du chapitre 24...si on se fixe une base $e=({{e}_{1}}.....{{e}_{p}})$ de E et une base
$f=({{f}_{1}}.....{{f}_{p}})$de F alors une application linéaire u ∈ L(E,F) est entièrement déterminée par les composantes des vecteurs
u (ei ) dans la base f . Ces pq scalaires définissent complètement u. Il est tentant de les représenter dans un tableau. Si on
les note pq scalaires et si pour tout $j\in \left[\!\left[ 1 \right.,\left. p \right]\!\right],u({{e}_{j}})=\sum\limits_{i=1}^{q}{{{a}_{ij}}{{f}_{j}}}$ alors on peut écrire :
\begin{equation*} $\begin{align} & u({{e}_{1}})......u({{e}_{j}})......u({{e}_{p}}) \\ & ...\downarrow .........\downarrow ............\downarrow \\ & \left( \begin{align} & {{a}_{11}}.........{{a}_{1j}}...........{{a}_{1p}} \\ & {{a}_{i1}}.........{{a}_{ij}}............{{a}_{ip}} \\ & {{a}_{q1}}.........{{a}_{qj}}...........{{a}_{qp}} \\ \end{align} \right)\left. \begin{align} & \leftarrow {{f}_{1}} \\ & \leftarrow {{f}_{i}} \\ & \leftarrow {{f}_{q}} \\ \end{align} \right| \\ \end{align}$ \end{equation*}
Ce tableau est la matrice de u dans les bases e de E et f de G. Se posent alors des questions naturelles : 1) Si on effectue cette manipulation pour deux applications linéaires u et v, comment se calcule la matrice correspondante à αu +βv ? On verra qu’on peut définir une addition entre les matrices et une multiplication par un scalaire. Avec ces deux lois, l’ensemble des matrices (de même taille) possède une structure de K-espace vectoriel.
2) si u et v sont deux endomorphismes de E, quel est le lien entre la matrice de u ◦ v et celles de u et v ? Pour l’expliciter, on définira le produit entre les matrices.
3) Peut-on calculer le rang d’une application linéaire donnée facilement à partir de sa matrice dans des bases données ? La réponse est oui et l’outil est le pivot de Gauss.
4) Peut-on par un procédé calculatoire déterminer si un endomorphisme est inversible à partir de sa matrice dans des bases données ? La réponse est là aussi oui et l’outil consistera en le déterminant.
5 Pour un endomorphisme inversible, existe-t’il un procédé permettant de calculer la matrice de son inverse ? Cet outil existe et il est donné par la comatrice.
6) Si on prend d’autres bases e′ et f ′ de E et F, peut-on calculer la matrice de u dans ces nouvelles bases en fonction de sa matrice dans les bases initiales ? La réponse est encore positive et on mettra en place des formules de changement de bases.
7) Enfin, pour un endomorphisme u ∈ L(E), existe-il une base de E dans laquelle la matrice de u prend une forme simple et facile à manipuler ? La réponse sera donnée en spé dans le chapitre sur la réduction des endomorphismes. Au niveau historique, on peut indiquer qu’au 3e siècle, le mathématicien chinois Liu Hui résolvait les systèmes linéaires ayant jusqu’à 6 inconnues. Il représentait ces systèmes grâce à des tableaux et avait découvert la méthode qu’on appelle maintenant pivot de Gauss pour les résoudre. Au 17e siècle, toujours pour résoudre des systèmes linéaires, Leibniz invente le déterminant. Cette notion est approfondie par Cramer qui découvre soixante ans plus tard la méthode qui porte maintenant son nom. Il faut attendre le 19e siècle, pour que la notation matricielle sous forme de « rectangle (ou carré) de nombres » apparaîsse. Gauss découvre le produit matriciel en dimension 3 et indique que la formule se généralise dans les autres dimensions mais sans détailler. C’est Sylvester qui le premier dénomme ces rectangles de nombres du mot « matrix ». Dans tout ce chapitre, m,n, p, q,r sont des entiers positifs, K désigne le corps R des réels ou le corps C des complexes. E et F sont des K-espaces vectoriels.
\begin{equation*} $\begin{align} & u({{e}_{1}})......u({{e}_{j}})......u({{e}_{p}}) \\ & ...\downarrow .........\downarrow ............\downarrow \\ & \left( \begin{align} & {{a}_{11}}.........{{a}_{1j}}...........{{a}_{1p}} \\ & {{a}_{i1}}.........{{a}_{ij}}............{{a}_{ip}} \\ & {{a}_{q1}}.........{{a}_{qj}}...........{{a}_{qp}} \\ \end{align} \right)\left. \begin{align} & \leftarrow {{f}_{1}} \\ & \leftarrow {{f}_{i}} \\ & \leftarrow {{f}_{q}} \\ \end{align} \right| \\ \end{align}$ \end{equation*}
Ce tableau est la matrice de u dans les bases e de E et f de G. Se posent alors des questions naturelles : 1) Si on effectue cette manipulation pour deux applications linéaires u et v, comment se calcule la matrice correspondante à αu +βv ? On verra qu’on peut définir une addition entre les matrices et une multiplication par un scalaire. Avec ces deux lois, l’ensemble des matrices (de même taille) possède une structure de K-espace vectoriel.
2) si u et v sont deux endomorphismes de E, quel est le lien entre la matrice de u ◦ v et celles de u et v ? Pour l’expliciter, on définira le produit entre les matrices.
3) Peut-on calculer le rang d’une application linéaire donnée facilement à partir de sa matrice dans des bases données ? La réponse est oui et l’outil est le pivot de Gauss.
4) Peut-on par un procédé calculatoire déterminer si un endomorphisme est inversible à partir de sa matrice dans des bases données ? La réponse est là aussi oui et l’outil consistera en le déterminant.
5 Pour un endomorphisme inversible, existe-t’il un procédé permettant de calculer la matrice de son inverse ? Cet outil existe et il est donné par la comatrice.
6) Si on prend d’autres bases e′ et f ′ de E et F, peut-on calculer la matrice de u dans ces nouvelles bases en fonction de sa matrice dans les bases initiales ? La réponse est encore positive et on mettra en place des formules de changement de bases.
7) Enfin, pour un endomorphisme u ∈ L(E), existe-il une base de E dans laquelle la matrice de u prend une forme simple et facile à manipuler ? La réponse sera donnée en spé dans le chapitre sur la réduction des endomorphismes. Au niveau historique, on peut indiquer qu’au 3e siècle, le mathématicien chinois Liu Hui résolvait les systèmes linéaires ayant jusqu’à 6 inconnues. Il représentait ces systèmes grâce à des tableaux et avait découvert la méthode qu’on appelle maintenant pivot de Gauss pour les résoudre. Au 17e siècle, toujours pour résoudre des systèmes linéaires, Leibniz invente le déterminant. Cette notion est approfondie par Cramer qui découvre soixante ans plus tard la méthode qui porte maintenant son nom. Il faut attendre le 19e siècle, pour que la notation matricielle sous forme de « rectangle (ou carré) de nombres » apparaîsse. Gauss découvre le produit matriciel en dimension 3 et indique que la formule se généralise dans les autres dimensions mais sans détailler. C’est Sylvester qui le premier dénomme ces rectangles de nombres du mot « matrix ». Dans tout ce chapitre, m,n, p, q,r sont des entiers positifs, K désigne le corps R des réels ou le corps C des complexes. E et F sont des K-espaces vectoriels.