Questions du sujet
1. D\’emontrer qu’il existe un plus grand r\’eel $p$ et un plus petit r\’eel $q$ tels que, pour tout vecteur $x$ de $\mathbb{R}^n$, le produit scalaire $(M.x \mid x)$ v\’erifie l’encadrement suivant : $$p \|x\|^2 \leq (M.x \mid x) \leq q \|x\|^2.$$ Pr\’eciser ces deux r\’eels $p$ et $q$ en fonction des valeurs propres de la matrice $M$. 2. Montrer que, pour que cette matrice $M$ soit inversible et positive, il faut et il suffit que toutes ses valeurs propres soient strictement positives. 3. D\’emontrer que la norme $N(M)$ d’une matrice $M$ sym\’etrique est \’egale \`a la plus grande valeur absolue des valeurs propres $\lambda_i$ ($1 \leq i \leq n$) de la matrice $M$ : $$N(M) = \sup_{1 \leq i \leq n} |\lambda_i|.$$ 4. D\’emontrer que la suite $(x_k)_{k \in \mathbb{N}}$ est une suite convergente de limite le vecteur $z$ de l’espace $\mathbb{R}^n$, solution de l’\’equation $A.x = b$. 5. Calcul pr\’eparatoire : d\’emontrer que l’expression $f(x+u) – f(x)$ se calcule en fonction des expressions $(A.u \mid u)$, $(A.x \mid u)$ et $(b \mid u)$.} 6. D\’emontrer que la fonction $f : x \mapsto f(x)$ admet des d\’eriv\’ees partielles $$\frac{\partial f}{\partial x_k} \quad (1 \leq k \leq n):$$ $x \mapsto \frac{\partial f}{\partial x_k}(x)$. 7. Exprimer ce vecteur $g(x)$ au moyen de la matrice $A$ et des vecteurs $x$ et $b$. 8. D\’emontrer que, pour tout vecteur $x$ donn\’e, il existe deux constantes positives ou nulles $r$ et $s$ telles que, pour tout vecteur $u$, $I(x,u)$ v\’erifie la relation suivante : $$r \|u\|^2 \leq I(x,u) \leq s \|u\|^2.$$ 9. D\’emontrer que, pour que la fonction $f$ admette en $z$ un minimum, il faut et il suffit que le vecteur $z$ v\’erifie la relation $A.z = b$. 10. Etant donn\’e un vecteur $x$ de $\mathbb{R}^n$, d\’eterminer le signe de l’expression suivante $$f(x – \alpha g(x)) – f(x).$$} 11. Proposer, \`a partir de ce r\’esultat, une m\’ethode pour construire une suite de vecteurs $(y_k)_{k \in \mathbb{N}}$ qui converge vers le vecteur $z$ en lequel la fonction $f$ atteint son minimum ; la justification de la convergence n’est pas demand\’ee. 12. D\’emontrer que la fonction $f$ poss\`ede la propri\’et\’e suivante : pour tout r\’eel $c$, il existe un r\’eel $\rho$, tel que, pour tout vecteur $x$ de $F$ de norme sup\’erieure ou \’egale \`a $\rho$ ($\|x\| \geq \rho$), le r\’eel $f(x)$ est sup\’erieur ou \’egal \`a $c$ ($f(x) \geq c$). 13. En d\’eduire que, si $y$ est un point de $F$, il existe un r\’eel $r$ tel que pour tout vecteur $x$ de $F$ de norme sup\’erieure ou \’egale \`a $r$ ($\|x\| \geq r$), $f(x)$ est sup\’erieur ou \’egal \`a $f(y)$. 14. D\’emontrer \`a l’aide du r\’esultat pr\’ec\’edent qu’il existe au moins un vecteur $x$ du sous-espace vectoriel $F$ en lequel la restriction de la fonction $f$ \`a ce sous-espace $F$ atteint un minimum. 15. D\’emontrer qu’il existe un seul vecteur $x$ en lequel la fonction $f$ atteint son minimum dans $F$, en admettant que la fonction $f$ est convexe ; c’est-\`a-dire : pour tout couple $(x, y) \in \mathbb{R}^n \times \mathbb{R}^n$ de vecteurs et tout r\’eel $\lambda$ appartenant \`a l’intervalle ouvert $]0,1[$ , les valeurs prises par la fonction $f$ v\’erifient la relation suivante : $$f(\lambda x + (1-\lambda) y) \leq \lambda f(x)+(1-\lambda)f(y),$$ o\`u l’in\’egalit\’e est stricte si et seulement si les vecteurs $x$ et $y$ sont diff\’erents.} 16. D\’emontrer que, pour qu’un vecteur $y$ de $F$ rende minimum la restriction de la fonction $f$ au sous-espace vectoriel $F$, il faut et il suffit que le vecteur $Ay-b$ soit orthogonal \`a ce sous-espace $F$ de $\mathbb{R}^n$. 17. D\’emontrer que la valeur prise par la fonction $f$ au point $x$, en lequel elle atteint son minimum dans $F$, est donn\’ee par la relation suivante : $$f(x) = -\frac{1}{2} (Ax \mid x) = -\frac{1}{2} (b \mid x).$$ 18. Etablir l’in\’egalit\’e suivante : $$\sup_{y \in \mathbb{R}^n}\left( \inf_{x \in \mathbb{R}^n} L(x, y) \right) \leq \inf_{x \in \mathbb{R}^n}\left( \sup_{y \in \mathbb{R}^n} L(x, y) \right).$$ 19. D\’emontrer que la valeur prise par la fonction $L$ en un point selle $(x^*, y^*)$ v\’erifie les \’egalit\’es suivantes : $$L(x^*, y^*) = \sup_{y \in \mathbb{R}^n}\left( \inf_{x \in \mathbb{R}^n} L(x, y) \right) = \inf_{x \in \mathbb{R}^n}\left( \sup_{y \in \mathbb{R}^n} L(x, y) \right).$$ 20. D\’emontrer, pour tout point $(x_1, y_1)$ de $\mathbb{R}^n \times \mathbb{R}^n$, les \’equivalences suivantes : \[ \forall y \in \mathbb{R}^n, L(x_1, y) \leq L(x_1, y_1) \iff Bx_1 = 0. \] \[ \forall x \in \mathbb{R}^n, L(x_1, y_1) \leq L(x, y_1) \iff Ax_1 + {^t}B y_1 = b. \]} 21. Soient $x_1$ un vecteur du sous-espace vectoriel $F$ et $y_1$ un vecteur de $\mathbb{R}^n$. D\’emontrer qu’une condition n\’ecessaire et suffisante pour que le couple $(x_1, y_1)$ soit un point selle du Lagrangien $L$ est que le vecteur $x_1$ r\’ealise le minimum de la restriction de la fonction $f$ \`a $F$ et que les vecteurs $x_1$ et $y_1$ v\’erifient la relation suivante : $$Ax_1 + {^t}B y_1 = b.$$ 22. D\’emontrer que les conditions \’enonc\’ees permettent de d\’eterminer tous les termes de ces deux suites $(x_m)_{m \in \mathbb{N}}$ et $(y_m)_{m \in \mathbb{N}}$ et que les vecteurs de ces suites v\’erifient, pour tout entier naturel $m$, les relations suivantes : $$A(x_m – x^*) + {^t}B(y_m – y^*) = 0,$$ $$y_{m+1} – y^* = y_m – y^* + \rho_m B(x_m – x^*),$$ o\`u $x^*$ et $y^*$ sont les deux vecteurs d’un point selle de $L$. 23. En d\’eduire l’\’egalit\’e ci-dessous : $$\|y_{m+1} – y^*\|^2 = \|y_m – y^*\|^2 – 2\rho_m (A(x_m – x^*) \mid (x_m – x^*)) + (\rho_m)^2 \|B(x_m – x^*)\|^2.$$ 24. Un r\’esultat pr\’eliminaire : d\’emontrer l’existence d’une matrice carr\’ee d’ordre $n$ sym\’etrique positive inversible, not\’ee $A^{1/2}$, telle que : $$(A^{1/2})^2 = A.$$ Soit $C$ la matrice d\’efinie par la relation suivante : $$C = (A^{-1/2})^t B B A^{-1/2},$$ o\`u la matrice $A^{-1/2}$ est la matrice inverse de la matrice $A^{1/2}$. 25. D\’emontrer que la matrice $C$ est une matrice sym\’etrique positive. Etablir qu’il existe une constante $\nu$ telle que, pour tout vecteur $u$ de $\mathbb{R}^n$, l’in\’egalit\’e ci-dessous soit vraie : $$\|Bu\|^2 \leq \nu (A u \mid u).$$} 26. D\’emontrer que la suite de terme g\’en\’eral $\|y_m – y^*\|^2$, $m \in \mathbb{N}$ est monotone d\’ecroissante ; utiliser, pour simplifier, la suite $(u_m)_{m \in \mathbb{N}}$ dont le terme g\’en\’eral est d\’efini par la relation suivante : $$u_m = x_m – x^*.$$ 27. En d\’eduire la convergence et la limite de la suite $(x_m)_{m \in \mathbb{N}}$.}FAQ
Dans ce sujet, tu vas manipuler des matrices symétriques, leurs valeurs propres et les inégalités associées au produit scalaire (Mx|x). Il faut être à l’aise avec la notion de positivité, de diagonalisation, de norme d’une matrice, et comprendre comment les valeurs propres déterminent la nature d’une matrice (positive, inversible, norme maximale, etc.). Ces outils sont essentiels pour résoudre des problèmes allant de l’algèbre linéaire à l’optimisation. Pour voir exactement comment ces notions se traduisent dans les corrigés, pense à débloquer les corrigés sur Prépa Booster.
La convexité est un pilier de l’analyse en optimisation, notamment pour prouver l’unicité du minimum et les conditions d’optimalité. Une fonction quadratique associée à une matrice symétrique définie positive est convexe, ce qui garantit un unique minimum. Savoir reconnaître et exploiter cette propriété est fondamental dans les exercices d’optimisation, comme ceux rencontrés dans le sujet Mines-Ponts MP 2003. Tu pourras t’entraîner encore plus sur la convexité et obtenir des corrigés détaillés en débloquant l’accès sur Prépa Booster.
La méthode du gradient ou des itérations successives consiste à construire une suite de vecteurs qui converge vers la solution d’un système linéaire Ax = b, surtout quand A est symétrique définie positive. Tu utilises l’expression du gradient pour avancer pas à pas vers la solution optimale. Cette technique rejoint l’algorithmique et l’optimisation, très présentes dans les annales de concours. Pour t’entraîner sur ce type d’approche et avoir accès à un dashboard personnalisé qui t’accompagne dans ta progression, n’hésite pas à débloquer les corrigés sur Prépa Booster.
Le Lagrangien permet d’introduire les contraintes d’égalité dans un problème d’optimisation, en les intégrant via des multiplicateurs, afin de transformer l’optimisation sous contrainte en optimisation sans contrainte. Cela conduit à la recherche de points selles du Lagrangien, étape structurante dans la résolution de nombreux exercices de concours. Savoir manipuler le Lagrangien, comprendre les conditions du point selle et la dualité sont des armes indispensables pour cartonner en maths spé.
Pour prouver la convergence d’une suite vectorielle comme celles construites dans ce sujet, il faut savoir exploiter la positivité, l’encadrement quadratique, et utiliser des outils algébriques et analytiques comme la décroissance d’une suite réelle, l’inégalité de Cauchy-Schwarz, et la structure des espaces vectoriels. Des questions comme celles-ci sont classiques aux concours du type Mines-Ponts, et pour bien t’y préparer il est précieux d’avoir accès aux corrigés détaillés et à des exercices d’entraînement sur Prépa Booster.
La racine carrée d’une matrice symétrique positive, souvent notée A^{1/2}, permet de simplifier des produits et de passer à des changements de variables élégants dans les preuves d’inégalités ou pour étudier la positivité d’autres matrices associées. On la construit grâce à la diagonalisation : chaque valeur propre positive donne une racine transformée en une matrice similaire. Manipuler ces objets montre ta maturité sur les matrices et l’algèbre linéaire avancée — un vrai plus aux oraux comme à l’écrit.
La maîtrise des espaces vectoriels et de l’orthogonalité est indispensable pour caractériser les solutions optimales, les orthogonalisations de vecteurs types (Ax–b ⊥ F), et faire le lien entre géométrie et algèbre. Ce sont ces outils qui te permettront de raisonner efficacement sur les sous-espaces d’optimisation et d’aborder sans panique les parties constraintes d’un sujet. Retrouve dans les corrigés toutes les astuces pour manipuler l’orthogonalité et les projections comme un pro.
Pour progresser, il faut : refaire les annales du concours en condition réelle, travailler les questions de cours et de méthode (notamment sur les matrices, la positivité, les inégalités, l’optimisation quadratique), puis corriger avec rigueur. Un outil comme Prépa Booster te permet de débloquer rapidement des corrigés détaillés, des rappels de cours ciblés et un dashboard pour suivre ta progression, ce qui rend tes révisions bien plus efficaces. C’est la recette pour viser le top dans ta spécialité !