Questions du sujet
1. Établir que pour $X$ dans $M_{n,1}(\mathbb{R})$ et $M$ dans $M_n(\mathbb{R})$, on a : $\|MX\|_\infty \leq \|M\|_\infty \|X\|_\infty$. 2. Soit $M$ un sous-espace vectoriel de dimension $d \geq 1$ de $M_n(\mathbb{R})$, et soit $\mathcal{B} = (\beta_1, …, \beta_d)$ une base de $M$. \begin{enumerate} \item[a)] Montrer que l’on définit une norme $N$ sur $M$ en posant $N(M) = \max_{1 \leq k \leq d} |x_k|$ si $M = \sum_{k=1}^d x_k \beta_k$ est la décomposition de l’élément $M$ de $M$ sur la base $\mathcal{B}$. \item[b)] Justifier l’existence de constantes réelles strictement positives $a$ et $b$ vérifiant : $\forall M \in M, \; a\|M\| \leq N(M) \leq b\|M\|$. \item[c)] Soit $(M_p)_{p \in \mathbb{N}}$ une suite d’éléments de $M$ ; on note $M_p = \sum_{k=1}^d x_{k,p} \beta_k$ la décomposition de $M_p$ sur $\mathcal{B}$. Montrer que la suite $(M_p)_{p \in \mathbb{N}}$ converge vers $0$ dans $(M_n(\mathbb{R}), \| \cdot \|)$ si et seulement si chaque suite réelle $(x_{k,p})_{p \in \mathbb{N}}$ $(k=1,…,d)$ converge vers $0$. \end{enumerate} 3. Soient $l \in \mathbb{N}^*$, $\lambda \in I$ et $f \in C^\infty(I)$ vérifiant : $f^{(k)}(\lambda) = 0$ pour $k = 0,1,2,…,l-1$. \begin{enumerate} \item[a)] Établir l’identité : \[ f(x) = \frac{1}{(l-1)!} \int_\lambda^x (x-u)^{l-1} f^{(l)}(u) \, du, \; \forall x \in I. \] \item[b)] En déduire à l’aide d’un changement de variable, l’existence d’une fonction $h$ vérifiant : \\ (1) $\forall x \in I, \; f(x) = (x-\lambda)^l h(x)$ \\ (2) $h \in C^\infty(I)$ \end{enumerate} 4. Soient $f$ et $g$ dans $C^\infty(I)$. \begin{enumerate} \item[a)] On suppose $ \exists h \in C^\infty(I),\; f = g + h \Pi_A$. En considérant les dérivées successives de $f-g$, établir que $f \equiv_A g$. \item[b)] On suppose $f \equiv_A g$ ; en exploitant le 3., justifier l’existence de $h$ dans $C^\infty(I)$ vérifiant : $f = g + h \Pi_A$. \end{enumerate} 5. Soient $P$ et $Q$ dans $\mathbb{R}[X]$ ; prouver que les conditions suivantes sont équivalentes : \begin{enumerate} \item[(1)] $P \equiv_A Q$ ; \item[(2)] $\exists H \in \mathbb{R}[X],\; P = Q + H\Pi_A$. \end{enumerate}} 6. Établir le caractère bijectif de $\varphi$, application de $\mathbb{R}^{m-1}[X]$ vers $\mathbb{R}^m$ qui associe à un polynôme $P$ le $m$-uplet : $\varphi(P) = (P^{(k)}(\lambda_j))_{1 \leq j \leq r, 0 \leq k \leq m_j-1}$. 7. Soit $f \in C^\infty(I)$ ; justifier l’existence d’un et d’un seul polynôme $P_f$ de $\mathbb{R}[X]$, de degré inférieur ou égal à $(m-1)$ et tel que $f \equiv_A P_f$. On convient alors de DÉFINIR la matrice $f(A)$ en posant : $f(A) = P_f(A)$. 8. On suppose ici que $f$ est polynomiale et l’on écrit : $f(x) = \sum_{k=0}^N a_k x^k, \forall x \in I$. En effectuant une division euclidienne, montrer qu’avec la définition de la question 7, on obtient le résultat naturel : $f(A) = \sum_{k=0}^N a_k A^k$. 9. ICI : $A = \begin{pmatrix} 2 & 4 \\ 3 & 5 \end{pmatrix} \in M_2(\mathbb{R})$ et $I = \mathbb{R}$. \begin{enumerate} \item[a)] Calculer $\Pi_A(X)$. \item[b)] Calculer la matrice $f(A)$ dans chacun des cas suivants : \begin{enumerate} \item[(1)] $f(x) = a x + b$, les réels $a$ et $b$ étant donnés. \item[(2)] $f(x) = \sin(\pi x)$. \item[(3)] $f(x) = (x^2-1)g(x)$, où la fonction $g$ est donnée dans $C^\infty(I)$. \end{enumerate} \end{enumerate} 10. En exploitant l’isomorphisme linéaire $\varphi$ du II.A, justifier l’existence et l’unicité de polynômes $Q_{j,k}$ $(1\leq j\leq r, 0\leq k\leq m_j-1)$ vérifiant : pour TOUTE fonction $f$ de $C^\infty(I)$, on a : $P_f(X) = \sum_{j=1}^r \sum_{k=0}^{m_j-1} f^{(k)}(\lambda_j) Q_{j,k}(X)$.} 11. On considère alors les matrices dites « associées » à $A$ : $Z_{j,k} = Q_{j,k}(A)$ $(1\leq j\leq r, 0\leq k\leq m_j-1)$. Montrer que les diverses matrices $Z_{j,k}$ sont linéairement indépendantes et que : $\forall f \in C^\infty(I),\quad f(A) = \sum_{j=1}^r \sum_{k=0}^{m_j-1} f^{(k)}(\lambda_j) Z_{j,k}$. 12. ICI : $A = \begin{pmatrix} 4 & 3 \\ -5 & -4 \end{pmatrix} \in M_2(\mathbb{R})$ et $I = \mathbb{R}_+^*$. \begin{enumerate} \item[a)] Justifier l’existence de matrices $Z_1$ et $Z_2$ de $M_2(\mathbb{R})$ telles que : $\forall f \in C^\infty(I),\ f(A) = f(1) Z_1 + f'(1) Z_2$. \item[b)] EN DÉDUIRE le calcul de $Z_1$ et $Z_2$. \item[c)] Calculer les matrices $A$, $A^{2004}$ et plus généralement $A^\alpha$ pour $\alpha \in \mathbb{R}_+^*$. \end{enumerate} 13. ICI : $A = \begin{pmatrix} 1 & 1 & 0 \\ 2 & 2 & 1 \\ 1 & 1 & 1 \end{pmatrix} \in M_3(\mathbb{R})$ et $I = \mathbb{R}$. \begin{enumerate} \item[a)] Présenter sous forme factorisée le polynôme $\Pi_A(X)$. La matrice $A$ est-elle diagonalisable dans $M_3(\mathbb{R})$? \item[b)] Calculer les matrices $Z_{j,k}$ « associées » à $A$. \end{enumerate} 14. Soient $f$ et $g$ dans $C^\infty(I)$ et $\alpha$ dans $\mathbb{R}$. \begin{enumerate} \item[a)] Que valent $P_{\alpha f}$ et $P_{f+g}$ ? \item[b)] Justifier l’existence d’un polynôme $H$ de $\mathbb{R}[X]$ tel que : $P_{fg} = P_f P_g + H\Pi_A$. \end{enumerate} 15. \begin{enumerate} \item[a)] Montrer que l’application $S : f \mapsto f(A)$ de $C^\infty(I)$ dans $M_n(\mathbb{R})$ est un morphisme de $\mathbb{R}$-algèbres. \item[b)] Quel est son noyau ? \end{enumerate}} 16. On considère les fonctions cosinus et sinus de $\mathbb{R}$ dans $\mathbb{R}$, puis les fonctions $f : x \mapsto x$ et $f_1 : x \mapsto \sqrt{x}$ de $\mathbb{R}_+^*$ dans $\mathbb{R}$. On peut ainsi DÉFINIR les matrices $\cos A$, $\sin A$ et même $A^{1/2}$ et $A^{-1}$ si les $\lambda_j$ sont dans $\mathbb{R}_+^*$. \begin{enumerate} \item[a)] En exploitant le morphisme $S$, calculer $\cos^2(A) + \sin^2(A)$. \item[b)] On suppose ici que les $\lambda_j$ sont strictement positifs. Reconnaître $A^{1/2}$ et $A^{-1}$. \end{enumerate} 17. Montrer que l’ensemble noté $M_A = \{f(A) \mid f \in C^\infty(I)\}$ est une sous-algèbre COMMUTATIVE de $M_n(\mathbb{R})$ et préciser sa dimension. 18. Montrer que si un élément de $M_A$ est inversible dans $M_n(\mathbb{R})$ alors son inverse est aussi dans $M_A$. 19. Soit $f \in C^\infty(I)$ ; établir l’équivalence des énoncés suivants : \begin{enumerate} \item[(1)] $f(A)$ est inversible dans $M_n(\mathbb{R})$. \item[(2)] $\forall j \in \{1, …, r\} \; f(\lambda_j) \neq 0$. \end{enumerate} 20. Si $M$ est une matrice de $M_n(\mathbb{R})$, on note $\Lambda_M$ l’ensemble de ses valeurs propres RÉELLES. En exploitant la question 19 comparer les ensembles : $\Lambda_A$ et $\Lambda_{f(A)}$ où $f$ est donnée dans $C^\infty(I)$.} 21. Soient $(f_p)_{p \in \mathbb{N}}$ une suite de fonctions de $C^\infty(I)$ et $f \in C^\infty(I)$. Établir l’équivalence des énoncés suivants : \begin{enumerate} \item[(1)] La suite de matrices $(f_p(A))_{p \in \mathbb{N}}$ converge dans $M_n(\mathbb{R})$ vers $f(A)$. \item[(2)] Pour chaque $j$ $(1 \leq j \leq r)$ et chaque $k$ $(0 \leq k \leq m_j-1)$, la suite réelle $(f_p^{(k)}(\lambda_j))_{p \in \mathbb{N}}$ converge vers $f^{(k)}(\lambda_j)$. \end{enumerate} Lorsque la condition (2) est réalisée, on convient de dire que la suite de fonctions $(f_p)_{p \in \mathbb{N}}$ « converge vers $f$ sur le spectre de $A$ ». 22. Pour $t$ réel, on considère la fonction $f_t : x \mapsto e^{tx}$ de $\mathbb{R}$ dans $\mathbb{R}$. Montrer que : $e^{tA} = \sum_{l=0}^{+\infty} \dfrac{t^l}{l!} A^l$. Il s’agit donc précisément de la matrice usuellement notée $\exp(tA)$. 23. En exploitant les résultats acquis à ce stade du problème, résoudre le système différentiel : \[ \left\{ \begin{array}{l} \frac{dx}{dt} = -x + y + z \\ \frac{dy}{dt} = -x + 2y + 2z \\ \frac{dz}{dt} = -2x + 2y + 3z \end{array} \right. \]}FAQ
La norme infinie (ou norme maximum) d’une matrice associe à chaque matrice la plus grande des sommes des valeurs absolues sur chaque ligne. C’est une norme très utilisée car elle permet de majorer simplement les effets d’une matrice sur un vecteur. Elle est comparable à d’autres normes usuelles comme la norme euclidienne ou la norme 1, mais est souvent privilégiée pour les estimations et les inégalités matricielles. Le sujet CCINP 2004 MP exploite cette notion dans le cadre de la stabilité des suites de matrices et de vecteurs.
Appliquer une fonction f à une matrice A, noté f(A), repose sur la théorie de la réduction polynomiale : on exprime f(A) via son polynôme d’interpolation construit à partir du spectre de A, c’est-à-dire de ses valeurs propres réelles ou complexes et des multiplicités associées. Cette approche, très présente dans le sujet CCINP 2004, permet par exemple de définir des fonctions comme l’exponentielle de matrice, le sinus ou la racine carrée d’une matrice. C’est un outil fondamental pour la résolution des systèmes différentiels linéaires ou encore pour l’étude de la stabilité des systèmes.
L’interpolation de Hermite permet de construire le polynôme unique de degré minimal qui prend des valeurs données, ainsi que certaines dérivées, en des points indiqués. Ce procédé, exploité dans le sujet, aboutit à la structure fondamentale des fonctions de matrices : deux fonctions sont équivalentes (au sens f ≡ₐ g) si elles coïncident sur le spectre et ses dérivées associées. Cela justifie l’existence d’une unique réduction polynomiale, et explique pourquoi toute fonction lisse peut s’exprimer à partir des invariants spectraux de la matrice. Débloque les corrigés pour voir comment utiliser ce formalisme dans chaque calcul et progresser dans ta compréhension approfondie de la théorie matricielle en CPGE.
Travailler avec des fonctions polynomiales appliquées à des matrices, comme exponentielle, sinus ou cosinus, permet de résoudre efficacement des systèmes différentielles linéaires à coefficients constants. En effet, la solution générale d’un système dx/dt = Ax fait intervenir l’exponentielle de matrice e^{tA}. Grâce à la réduction polynomiale, on exprime exp(tA) à partir des valeurs propres et des matrices associées, rendant le calcul plus abstrait mais surtout universel et robuste, quelle que soit la structure de A. Le sujet CCINP MP 2004 illustre précisément ces techniques, incontournables pour tout candidat.
Pour savoir si une matrice est diagonalisable, il faut que son polynôme caractéristique soit scindé sur le corps considéré et que, pour chaque valeur propre, la dimension de l’espace propre soit égale à sa multiplicité algébrique. Cela simplifie énormément le calcul de f(A), car toute fonction de matrice se réduit alors à f(A) = P D P⁻¹ avec D diagonale. Si ce n’est pas le cas, il faut travailler avec la forme de Jordan ou recourir à la généralisation par interpolation de Hermite. Le sujet CCINP 2004 te conduit à étudier ces cas de près, notamment via le calcul des matrices associées Z_{j,k}.
La sous-algèbre M_A regroupe toutes les matrices de la forme f(A), où f parcourt l’ensemble des fonctions lisses (ou polynômes) sur le spectre de A. Cette sous-algèbre est commutative, ce qui est rarement le cas des autres sous-espaces de matrices. Sa dimension est égale au nombre total de conditions spectrales (multiplicités incluses), c’est-à-dire au degré minimal pour lequel les applications f↦f(A) déterminent complètement la structure. Cette propriété précieuse facilite l’analyse de la résolution de systèmes, de la stabilité et de la compatibilité des équations différentielles matricielles.
En CPGE, une suite de fonctions (f_p) converge vers une fonction f sur le spectre d’une matrice A si, pour chaque valeur propre (et chacune des dérivées demandées), les suites f_p^{(k)}(λ_j) tendent vers f^{(k)}(λ_j). Cette caractérisation est essentielle car elle garantit la convergence à la fois algébrique et analytique des suites de matrices appliquées à A. Tu retrouveras ce concept notamment dans les questions sur la stabilité et la limite des suites de matrices dans le sujet du CCINP 2004.
Tu dois absolument être à l’aise avec : la théorie des matrices et de leurs normes, l’interpolation polynomiale et de Hermite, les applications de fonctions de matrices, l’analyse des sous-espaces vectoriels de matrices, la diagonalisation et la forme de Jordan et la résolution de systèmes différentiels linéaires via les fonctions de matrices comme l’exponentielle. Si tu débloques les corrigés sur Prépa Booster, tu obtiendras accès aux explications détaillées, aux astuces pour chaque étape, et à un dashboard personnalisé pour organiser ta progression sur chaque notion au programme.