Questions du sujet
1. I.A.1) Justifier que $\mathcal{X}_n$ est un ensemble fini et déterminer son cardinal. 2. I.A.2) Démontrer que pour tout $M \in \mathcal{Y}_n$, $\det(M) \leq n!$ et qu’il n’y a pas égalité. 3. I.A.3) Démontrer que $\mathcal{Y}_n$ est une partie convexe et compacte de $\mathcal{M}_n(\mathbb{R})$. 4. I.A.4) Soit $M \in \mathcal{Y}_n$ et $\lambda$ une valeur propre complexe de $M$. Démontrer que $|\lambda| \leq n$ et donner un exemple explicite où l’on a l’égalité. 5. I.B.1) Faire la liste des éléments de $\mathcal{X}’_2$. Préciser (en justifiant) ceux qui sont diagonalisables sur $\mathbb{R}$.} 6. I.B.2) Démontrer que $\mathcal{X}’_2$ engendre l’espace vectoriel $\mathcal{M}_2$. Est-ce que, pour $n \geq 2$, $\mathcal{X}’_n$ engendre l’espace vectoriel $\mathcal{M}_n(\mathbb{R})$ ? 7. II.A.1) Démontrer que l’on définit ainsi un produit scalaire sur $\mathcal{M}_n(\mathbb{R})$. Expliciter $(M|N)$ en fonction des coefficients de $M$ et $N$. 8. II.A.2) On fixe $A \in \mathcal{M}_n(\mathbb{R})$, prouver qu’il existe une matrice $M \in \mathcal{Y}_n$ telle que : \\ $\forall N \in \mathcal{Y}_n \quad \|A – M\| \leq \|A – N\|$ 9. II.A.3) Justifier l’unicité de la matrice $M$ ci-dessus et expliciter ses coefficients en fonction de ceux de $A$. 10. II.B.1) Justifier que le déterminant possède un maximum sur $\mathcal{X}_n$ (noté $x_n$) et un maximum sur $\mathcal{Y}_n$ (noté $y_n$).} 11. II.B.2) Démontrer que la suite $(y_n)_{n\geq2}$ est croissante. 12. II.B.3) Soit $J \in \mathcal{X}_n$ la matrice dont tous les coefficients valent 1. On pose $M = J – I_n$. Calculer $\det(M)$ et en déduire que $\lim_{n\to+\infty} y_n = +\infty$. 13. II.B.4) Soient $N = (n_{i,j})_{i,j} \in \mathcal{Y}_n$. Fixons $1 \leq i, j \leq n$ et supposons que $n_{i,j} \in ]0, 1[$. Démontrer qu’en remplaçant $n_{i,j}$ soit par 0, soit par 1, on peut obtenir une matrice $N’$ de $\mathcal{Y}_n$ telle que \\ $\det(N) \leq \det(N’)$. \\ En déduire que $x_n = y_n$. 14. III.A.1) Donner deux définitions d’une isométrie vectorielle de $\mathbb{R}^n$ et démontrer leur équivalence. 15. III.A.2) Démontrer que si $M \in O_n(\mathbb{R})$, alors son déterminant vaut 1 ou $-1$. Que penser de la réciproque ?} 16. III.A.3) Démontrer que $\mathcal{P}_n = \mathcal{X}_n \cap O_n(\mathbb{R})$ et déterminer son cardinal. 17. III.B.1) Soient $\sigma$ et $\sigma’$ deux éléments de $S_n$. \\ Démontrer que $P_{\sigma} P_{\sigma’} = P_{\sigma \circ \sigma’}$. \\ Justifier que l’application $\left\{\begin{array}{l}\mathbb{Z} \rightarrow S_n\\ k \mapsto \sigma^k\end{array}\right.$ n’est pas injective. \\ En déduire qu’il existe un entier $N \geq 1$ tel que $\sigma^N = \operatorname{Id}_{\{1,\ldots,n\}}$, où $\operatorname{Id}_{\{1,\ldots,n\}}$ désigne l’application identité sur l’ensemble $\{1,\ldots,n\}$. 18. III.B.2) Démontrer que tous les éléments de $\mathcal{P}_n$ sont diagonalisables sur $\mathbb{C}$. 19. III.B.3) Déterminer les vecteurs propres communs à tous les éléments de $\mathcal{P}_n$ dans les cas $n=2$ et $n=3$. 20. III.B.4) On se propose de démontrer que les seuls sous-espaces vectoriels de $\mathbb{R}^n$ stables par tous les $u_{\sigma}$, $\sigma \in S_n$ sont $\{0_{\mathbb{R}^n}\}$, $\mathbb{R}^n$, la droite $D$ engendrée par $e_1 + e_2 + \cdots + e_n$ et l’hyperplan $H$ orthogonal à $D$. \\ a) Vérifier que ces quatre sous-espaces vectoriels sont stables par tous les $u_{\sigma}$. \\ b) Soit $V$ un sous-espace vectoriel de $\mathbb{R}^n$, non contenu dans $D$ et stable par tous les $u_{\sigma}$. Démontrer qu’il existe un couple $(i,j) \in \{1,\ldots,n\}^2$ avec $i \neq j$ tel que $e_i – e_j \in V$, puis que les $n-1$ vecteurs $e_k – e_j \ (k \in \{1,\ldots,n\},\ k \neq j)$ appartiennent à $V$. \\ c) Conclure.} 21. III.C) On se donne une matrice $M$ de $GL_n(\mathbb{R})$ dont tous les coefficients sont des entiers naturels et telle que l’ensemble formé par tous les coefficients de toutes les puissances successives de $M$ est fini. \\ Démontrer que $M^{-1}$ est à coefficients dans $\mathbb{N}$ et en déduire que $M$ est une matrice de permutation. Que dire de la réciproque ? 22. IV.A.1) Calculer la probabilité que $X_1, \ldots, X_n$ soient égales. 23. IV.A.2) Quelle est la loi de $S = X_1 + \cdots + X_n$ ? On attend une démonstration du résultat annoncé. 24. IV.A.3) Soient $i$ et $j$ dans $\{1, \ldots, n\}$. Donner la loi de la variable aléatoire $X_{i,j} = X_i \times X_j$. 25. IV.A.4) Si $\omega \in \Omega$, on introduit la matrice colonne \[ U(\omega) = \begin{pmatrix} X_1(\omega) \\ \vdots \\ X_n(\omega) \end{pmatrix} \] et la matrice $M(\omega) = U(\omega) \; ^t\!U(\omega)$. L’application $M : \begin{cases} \Omega \to \mathcal{M}_n(\mathbb{R}) \\ \omega \mapsto M(\omega) \end{cases}$ est ainsi une variable aléatoire. \\ a) Si $\omega \in \Omega$, justifier que $M(\omega) \in \mathcal{X}_n$. \\ b) Si $\omega \in \Omega$, justifier que $\operatorname{tr}(M(\omega)) \in \{0, \ldots, n\}$, que $M(\omega)$ est diagonalisable sur $\mathbb{R}$ et que $\operatorname{rg}(M(\omega)) \leq 1$. \\ c) Si $\omega \in \Omega$, justifier que $M(\omega)$ est une matrice de projection orthogonale si et seulement si $S(\omega) \in \{0,1\}$.} 26. IV.A.5) Donner la loi, l’espérance et la variance des variables aléatoires $\operatorname{tr}(M)$ et $\operatorname{rg}(M)$. 27. IV.A.6) Exprimer $M_n$ en fonction de $S$ et $M$. \\ Quelle est la probabilité pour que la suite de matrices $(M_n)_{n\in\mathbb{N}}$ soit convergente ? \\ Montrer que, dans ce cas, la limite est une matrice de projection. 28. IV.A.7) Quelle est la probabilité que $M$ admette deux valeurs propres distinctes ? 29. IV.B.1) Dans toute cette question on utilise le langage Python. $M$ désigne une matrice carrée d’ordre $n$. Ses lignes et ses colonnes sont numérotées de 0 à $n-1$. L’expression M[i,j] permet d’accéder à l’élément situé à l’intersection de la ligne $i$ et de la colonne $j$ et len(M) donne l’ordre de la matrice $M$. \\ a) Écrire une fonction Somme(M) qui renvoie la somme des coefficients de la matrice $M$. \\ b) Écrire une fonction Bernoulli(p) qui renvoie 1 avec la probabilité $p$ et 0 avec la probabilité $1-p$. On pourra utiliser l’expression random() qui renvoie un réel de l’intervalle $[0,1[$ selon la loi uniforme. \\ c) À l’aide de la fonction Bernoulli(p), écrire une fonction Modifie(M,p) qui modifie aléatoirement la matrice $M$ suivant le principe décrit au IV.B ci-dessus. \\ d) Écrire une fonction Simulation(n,p) qui renvoie le plus petit entier $k$ tel que $M_k$ est totalement remplie à partir d’un remplissage aléatoire de la matrice nulle d’ordre n (qui peut être obtenue par zeros((n,n))). Il n’est pas demandé de mémoriser les $M_k$. 30. IV.B.2) Donner la loi de $N_1$, puis la loi conditionnelle de $N_2$ sachant $(N_1=i)$ pour $i$ dans un ensemble à préciser. $N_1$ et $N_2$ sont-elles indépendantes ?} 31. IV.B.3) Soient $i$ et $j$ dans $\{1, \ldots, n\}$. Le plus petit entier $k \geq 1$ tel que le coefficient ligne $i$, colonne $j$ de $M_k$ vaut 1 est noté $T_{i,j}$ (dans l’exemple ci-dessus : $T_{1,1}=1$ et $T_{1,2}=3$). Donner la loi de $T_{i,j}$. 32. IV.B.4) Pour un entier $k \geq 1$, donner la valeur de $P(T_{i,j} \geq k)$. 33. IV.B.5) Soient $r \geq 1$ un entier et $S_r = N_1 + \cdots + N_r$. Que représente $S_r$ ? Donner sa loi (on pourra utiliser la question précédente). 34. IV.B.6) On note $N$ le plus petit indice $k$ pour lequel la matrice $M_k$ est totalement remplie. \\ a) Proposer une démarche pour approcher l’espérance de $N$ à l’aide d’une simulation informatique utilisant les fonctions précédentes. \\ b) Donner une expression de la valeur exacte de cette espérance faisant intervenir $q$ et $m$.}FAQ
L’ensemble \(\mathcal{X}_n\) est fini car il représente l’ensemble des matrices binaires \(n \times n\) avec exactement un coefficient égal à 1 par ligne et par colonne. Son cardinal est \(n!\) car il correspond aux matrices de permutation, en bijection avec les permutations de \(n\) éléments.
Le déterminant d’une matrice \(M \in \mathcal{Y}_n\) est majoré par \(n!\) car \(\mathcal{Y}_n\) est l’enveloppe convexe de \(\mathcal{X}_n\), et le déterminant est une fonction multilinéaire. L’égalité n’est pas atteinte car les matrices de \(\mathcal{Y}_n\) sont des combinaisons convexes strictes de matrices de permutation, sauf pour les matrices de permutation elles-mêmes, qui ont un déterminant valant \(\pm 1\).
\(\mathcal{Y}_n\) est convexe car c’est l’enveloppe convexe de \(\mathcal{X}_n\), et compacte car c’est un sous-ensemble fermé et borné de \(\mathcal{M}_n(\mathbb{R})\) (les coefficients sont compris entre 0 et 1).
Les valeurs propres \(\lambda\) d’une matrice \(M \in \mathcal{Y}_n\) vérifient \(|\lambda| \leq n\) car \(\mathcal{Y}_n\) est inclus dans l’ensemble des matrices dont les coefficients sont entre 0 et 1. L’égalité est atteinte pour la matrice dont tous les coefficients valent 1, qui a pour valeur propre \(n\).
\(\mathcal{X}’_2\) contient les matrices de permutation et les matrices dont tous les coefficients valent \(\frac{1}{2}\). Parmi elles, seules les matrices de permutation sont diagonalisables sur \(\mathbb{R}\).
Oui, \(\mathcal{X}’_2\) engendre \(\mathcal{M}_2(\mathbb{R})\), mais pour \(n \geq 3\), \(\mathcal{X}’_n\) n’engendre pas \(\mathcal{M}_n(\mathbb{R})\) car il manque des matrices de rang supérieur à 1.
On définit \((M|N) = \text{tr}(^tMN)\), qui est un produit scalaire car il est bilinéaire, symétrique, défini positif. En termes de coefficients, \((M|N) = \sum_{i,j} m_{i,j} n_{i,j}\).
\(\mathcal{Y}_n\) est compact et la fonction \(N \mapsto \|A – N\|\) est continue, donc elle atteint son minimum sur \(\mathcal{Y}_n\).
La matrice \(M\) est unique car \(\mathcal{Y}_n\) est convexe et fermé. Ses coefficients sont obtenus en projetant ceux de \(A\) sur \([0,1]\) ligne par ligne, puis en normalisant chaque ligne pour que sa somme soit 1.
Le déterminant est continu et \(\mathcal{X}_n\) est fini, donc le maximum \(x_n\) existe. Pour \(\mathcal{Y}_n\), qui est compact, le maximum \(y_n\) existe aussi par le théorème des bornes atteintes.
La suite \((y_n)\) est croissante car on peut construire une matrice de \(\mathcal{Y}_{n+1}\) à partir d’une matrice de \(\mathcal{Y}_n\) en ajoutant une ligne et une colonne de coefficients nuls, ce qui ne diminue pas le déterminant.
La matrice \(J – I_n\) a pour déterminant \((-1)^{n-1}(n-1)\), car \(J\) a pour valeurs propres \(n\) et \(0\). Ainsi, \(y_n \geq |(-1)^{n-1}(n-1)|\), ce qui tend vers \(+\infty\) quand \(n \to +\infty\).
En remplaçant \(n_{i,j}\) par 0 ou 1, on obtient une matrice \(N’\) dont le déterminant est supérieur ou égal à celui de \(N\), car le déterminant est une fonction multilinéaire et \(\mathcal{Y}_n\) est convexe.
Une isométrie vectorielle est une application linéaire qui conserve le produit scalaire, ou bien une application linéaire qui conserve la norme. Ces deux définitions sont équivalentes car la norme est dérivée du produit scalaire.
Une matrice orthogonale \(M\) vérifie \(^tMM = I_n\), donc \(\det(M)^2 = 1\), d’où \(\det(M) = \pm 1\). La réciproque est fausse : une matrice de déterminant \(\pm 1\) n’est pas nécessairement orthogonale.
\(\mathcal{P}_n\) est l’ensemble des matrices de permutation, donc \(\mathcal{P}_n = \mathcal{X}_n \cap O_n(\mathbb{R})\). Son cardinal est \(n!\) car il est en bijection avec les permutations de \(n\) éléments.
L’application \(k \mapsto \sigma^k\) n’est pas injective car le groupe symétrique \(S_n\) est fini, donc les itérés de \(\sigma\) finissent par se répéter. Il existe donc un entier \(N\) tel que \(\sigma^N = \text{Id}\).
Les éléments de \(\mathcal{P}_n\) sont des matrices de permutation, donc ils sont diagonalisables car leur polynôme caractéristique est scindé sur \(\mathbb{C}\) (leurs valeurs propres sont des racines de l’unité).
Pour \(n=2\), les vecteurs propres communs sont ceux de la forme \((a,a)\). Pour \(n=3\), ce sont ceux de la forme \((a,a,a)\) et ceux de la forme \((a,b,b)\) avec \(a + 2b = 0\).
Les seuls sous-espaces stables par toutes les permutations sont \(\{0\}\), \(\mathbb{R}^n\), la droite engendrée par \((1,1,\ldots,1)\) et l’hyperplan orthogonal à cette droite.
Si \(M\) est inversible et à coefficients entiers naturels, et si les puissances de \(M\) ont un nombre fini de coefficients distincts, alors \(M\) est une matrice de permutation. Ainsi, \(M^{-1}\) est aussi une matrice de permutation, donc à coefficients dans \(\mathbb{N}\).
La probabilité que toutes les \(X_i\) soient égales est \(\frac{1}{2^{n-1}}\), car il y a \(2^n\) combinaisons possibles et seulement \(2\) cas favorables (tous à 0 ou tous à 1).
La somme \(S\) suit une loi binomiale \(\mathcal{B}(n, \frac{1}{2})\), car les \(X_i\) sont indépendantes et de même loi de Bernoulli \(\mathcal{B}(\frac{1}{2})\).
Le produit \(X_i \times X_j\) suit une loi de Bernoulli \(\mathcal{B}(\frac{1}{4})\), car \(P(X_i = X_j = 1) = \frac{1}{4}\).
Si \(S(\omega) \in \{0,1\}\), alors \(M(\omega)\) est soit la matrice nulle, soit une matrice de rang 1 dont tous les coefficients valent \(\frac{1}{n}\), ce qui en fait une matrice de projection orthogonale.
\(\text{tr}(M)\) suit une loi binomiale \(\mathcal{B}(n, \frac{1}{2})\), donc son espérance est \(\frac{n}{2}\) et sa variance \(\frac{n}{4}\). \(\text{rg}(M)\) vaut 1 si \(S \neq 0\) et 0 sinon, donc son espérance est \(1 – \frac{1}{2^n}\) et sa variance \(\frac{1}{2^n} – \frac{1}{4^n}\).
\(M_n\) est la moyenne des \(M_k\) pour \(k \leq n\), donc \(M_n = \frac{1}{n} \sum_{k=1}^n M_k\). La suite \((M_n)\) converge si et seulement si \(S\) est constante, et dans ce cas, la limite est une matrice de projection.
La probabilité que \(M\) admette deux valeurs propres distinctes est \(1 – \frac{1}{2^{n-1}} – \frac{1}{2^n}\), car il faut que \(S \notin \{0,1,n-1,n\}\).
En Python, tu peux utiliser des fonctions comme `random()` pour générer des nombres aléatoires, puis construire une matrice en remplaçant ses coefficients par 1 avec une probabilité \(p\). Pour simuler le remplissage complet, tu peux itérer jusqu’à ce que tous les coefficients soient non nuls.
\(N_1\) suit une loi géométrique de paramètre \(p\), et \(N_2\) sachant \(N_1 = i\) suit une loi géométrique de paramètre \(p\) tronquée à \(i\) essais.
\(T_{i,j}\) suit une loi géométrique de paramètre \(p\), car c’est le premier essai où le coefficient \((i,j)\) est remplacé par 1.
\(P(T_{i,j} \geq k) = (1 – p)^{k-1}\), car \(T_{i,j}\) suit une loi géométrique de paramètre \(p\).
\(S_r\) représente le nombre d’essais nécessaires pour remplir \(r\) coefficients distincts. Sa loi est celle de la somme de \(r\) variables géométriques indépendantes de paramètre \(p\).
Pour approcher l’espérance de \(N\), tu peux simuler plusieurs fois le processus de remplissage aléatoire et calculer la moyenne du nombre d’essais nécessaires pour remplir complètement la matrice. L’espérance exacte peut être calculée en utilisant la loi de \(N\), qui dépend de \(p\) et du nombre de coefficients \(m\).