Questions du sujet
1. I.A.1) Vérifier qu’une suite périodique est bornée. 2. I.A.2) Que peut-on dire des suites 1-périodiques ? 3. I.A.3) Vérifier que, si $(z_k)$ est $p$-périodique, alors $\forall n \in \mathbb{N}, \forall k \in \mathbb{N}, z_{n+k p} = z_n$. 4. I.A.4) Que peut-on dire des suites qui sont à la fois périodiques et convergentes ? 5. I.B.1) $\forall (A, B) \in (\mathcal{M}_n(\mathbb{C}))^2$, $\|AB\|_0 \leq n\|A\|_0 \cdot \|B\|_0$} 6. I.B.2) $\forall A \in \mathcal{M}_n(\mathbb{C}), \forall Y \in \mathbb{C}^n$, $\|AY\|_\infty \leq n \|A\|_0 \cdot \|Y\|_\infty$ 7. II.A.1) Donner la forme générale des suites appartenant à Sol(II.1) en fonction des racines complexes $r_1$ et $r_2$ de l’équation $r^2 + a r + 1 = 0$. Que valent $r_1+r_2$ et $r_1 r_2$? 8. II.A.2) Montrer que si $|a| > 2$, la suite nulle est la seule solution périodique de (II.1). 9. II.A.3) Montrer que si $a = -2$ alors, (II.1) admet une infinité de solutions constantes et une infinité de solutions non bornées. 10. II.A.4) Montrer que si $a = +2$ alors, (II.1) admet une infinité de solutions 2-périodiques et une infinité de solutions non bornées.} 11. II.A.5) On suppose dans cette question que $p$ est un entier supérieur ou égal à 3. Donner une valeur de $a \in ]-2,2[$ pour laquelle toutes les solutions de l’équation (II.1) sont $p$-périodiques. 12. II.B.1) Justifier que l’application $\Psi : \mathrm{Sol(II.2)} \to \mathbb{C}^2$, $(z_k)_{k \in \mathbb{N}} \mapsto \begin{pmatrix}z_0 \\ z_1\end{pmatrix}$ est un isomorphisme de $\mathbb{C}$-espaces vectoriels. 13. II.B.2) On se fixe $(y_k)_{k\in\mathbb{N}}$ et $(z_k)_{k\in\mathbb{N}}$, deux suites solutions de (II.2). On pose pour tout $k\in\mathbb{N}$, $W_k = b_k(y_k z_{k+1} – z_k y_{k+1})$. Montrer que la suite $(W_k)_{k\in\mathbb{N}}$ est constante. 14. II.B.3) Montrer que les deux suites $(y_k)_{k\in\mathbb{N}}$ et $(z_k)_{k\in\mathbb{N}}$ forment une base de $\mathrm{Sol(II.2)}$ si et seulement si $W_0 \ne 0$. 15. II.C) À toute suite complexe $(z_k)_{k \in \mathbb{N}}$, on associe la suite $(Z_k)_{k \in \mathbb{N}}$ d’éléments de $\mathbb{C}^2$ définie par $\forall k \in \mathbb{N}, Z_k = \begin{pmatrix}z_k \\ z_{k+1}\end{pmatrix}$. Démontrer que la suite $(z_k)_{k\in\mathbb{N}}$ est solution de (II.2) si et seulement si la suite $(Z_k)_{k\in\mathbb{N}}$ est solution d’un système (II.3) de la forme $\forall k\in\mathbb{N}, Z_{k+1}=A_k Z_k$. Préciser la matrice $A_k \in \mathcal{M}_2(\mathbb{C})$.} 16. II.D.1) Démontrer que $\det Q = 1$. 17. II.D.2) Démontrer que, pour tout entier naturel $k$ et tout entier naturel $r \in \llbracket 1, p-1\rrbracket$, $\{ Z_{k p} = Q^k Z_0\\ Z_{kp+r} = A_{r-1} A_{r-2} \cdots A_0 Q^k Z_0 \}$. 18. II.E.1) Démontrer que (II.2) admet une solution périodique non nulle de période $p$ si et seulement si 1 est une valeur propre de $Q$. 19. II.E.2) En déduire que (II.2) admet une solution périodique non nulle de période $p$ si et seulement si $\tr(Q) = 2$. Démontrer que dans ce cas, ou bien toutes les solutions de (II.2) sont périodiques de période $p$, ou bien (II.2) admet une solution non bornée. On pourra démontrer qu’il existe une matrice $P \in \mathrm{GL}_2(\mathbb{C})$ et un nombre complexe $\alpha$ tels que $Q = P \begin{pmatrix}1 & \alpha \\ 0 & 1\end{pmatrix} P^{-1}$ et, dans le cas où $\alpha \neq 0$, considérer la suite de Sol(II.2) dont l’image par $\Psi$ est le vecteur $P\begin{pmatrix}0 \\ 1\end{pmatrix}$. 20. II.E.3) Montrer que si $| \tr Q | < 2$, alors toute solution de (II.2) est bornée.} 21. III.A) Justifier qu’on définit une suite $(\Phi_k)_{k\in\mathbb{N}}$ de matrices de $\mathrm{GL}_n(\mathbb{C})$ en posant $ \Phi_0 = I_n, \; \Phi_{k+1} = A_k\Phi_k\ \forall k\in\mathbb{N}$ et que $(Y_k)_{k\in\mathbb{N}} \in \mathrm{Sol(III.1)}$ si et seulement si $\forall k\in\mathbb{N},\, Y_k = \Phi_k Y_0$. 22. III.B.1) Démontrer que $\forall k \in \mathbb{N}, \Phi_{k+p} = \Phi_k \Phi_p$. 23. III.B.2) Soit $\rho$ un multiplicateur de Floquet de (III.1).\\ a) Démontrer qu’il existe une solution $(Y_k)_{k\in\mathbb{N}}$ de (III.1) non nulle vérifiant $\forall k\in\mathbb{N}, Y_{k+p} = \rho Y_k$.\\ b) Soit $(Y_k)_{k\in\mathbb{N}}$ une telle solution, démontrer que, si $|\rho| < 1$, $\lim_{k\to+\infty} \|Y_k\|_\infty = 0$. 24. III.C) Démontrer qu’il existe une unique suite $(P_k)_{k\in\mathbb{N}} \in (GL_n(\mathbb{C}))^{\mathbb{N}}$, périodique de période $p$, telle que $\forall k\in\mathbb{N}, \Phi_k = P_k B^k$. 25. III.D.1) Justifier l’existence de $M = \max_{k\in\mathbb{N}} \|P_k\|_0$. Montrer que pour tout $k\in\mathbb{N}$, $\|\Phi_k\|_0 \leq n M \|B^k\|_0$.} 26. III.D.2)\\ a) Démontrer que si $\lim_{k\to+\infty} \|B^k\|_0 = 0$, alors $\lim_{k\to+\infty} \|Y_k\|_\infty = 0$.\\ b) Démontrer que si la suite $(\|B^k\|_0)_{k\in\mathbb{N}}$ est bornée, alors la suite $(\|Y_k\|_\infty)_{k\in\mathbb{N}}$ est également bornée. 27. III.E.1) Soit $R\in \mathbb{C}[X]$ un polynôme de degré supérieur ou égal à $1$ à racines simples. Démontrer que le polynôme $R(X^p)$ est à racines simples si et seulement si $R(0)\ne 0$. 28. III.E.2) En déduire que $\Phi_p$ est diagonalisable si et seulement si $B$ est diagonalisable. 29. III.E.3) On suppose que $B$ est diagonalisable et que toutes ses valeurs propres sont de module strictement inférieur à 1. Démontrer que pour toute solution $(Y_k)_{k\in\mathbb{N}}$ de (III.1), $\lim_{k\to+\infty} \|Y_k\|_\infty = 0$. 30. IV.A.1) On considère le système différentiel linéaire (IV.2) dont les solutions sont des fonctions de classe $\mathcal{C}^1$ à valeurs dans $\mathcal{M}_2(\mathbb{C})$, $\forall t\in\mathbb{R},\, M'(t) = A(t)M(t)$ (IV.2). Pour tout $t \in \mathbb{R}$, on pose $E(t) = [U(t), V(t)]$. Vérifier que $E$ est la solution de (IV.2) vérifiant $E(t_0) = I_2$.} 31. IV.A.2) Réciproquement, si $M: \mathbb{R} \to \mathcal{M}_2(\mathbb{C})$, $t\mapsto [F(t), G(t)]$, est une solution de (IV.2) et $W = \begin{pmatrix}w_1\\w_2\end{pmatrix} \in \mathbb{C}^2$, démontrer que la fonction $Y: \mathbb{R} \to \mathbb{C}^2$, $t\mapsto M(t)W = w_1 F(t) + w_2 G(t)$ est une solution de (IV.1). 32. IV.B.1) Soit $t_1 \in \mathbb{R}$ et $W = \begin{pmatrix}w_1\\w_2\end{pmatrix}\in\mathbb{C}^2$. On suppose que $E(t_1)W = \begin{pmatrix}0\\0\end{pmatrix}$. Montrer que la fonction $Y: \mathbb{R} \to \mathbb{C}^2$, $t \mapsto E(t)W = w_1 U(t) + w_2 V(t)$ est nulle. En déduire que pour tout réel $t$, $E(t)$ est inversible. 33. IV.B.2) Soit $M \in \mathcal{C}^1(\mathbb{R},\mathcal{M}_2(\mathbb{C}))$ une solution du système (IV.2). Montrer que pour tout réel $t$, $M(t) = E(t)M(t_0)$. 34. IV.B.3) Déduire de la question précédente qu’il existe une unique matrice $B \in \mathrm{GL}_2(\mathbb{C})$ indépendante de $t$ telle que pour tout réel $t$, $E(t+T) = E(t)B$.\\ $B$ s’appelle la matrice de Floquet du système (IV.1) et les valeurs propres complexes de $B$ s’appellent les multiplicateurs de Floquet de (IV.1). 35. IV.C.1) Soit $\rho \in \mathbb{C}$ un multiplicateur de Floquet de (IV.1), c’est-à-dire une valeur propre de $B$, et $Z\in \mathbb{C}^2$ un vecteur propre de $B$ associé à cette valeur propre. On note $Y:\mathbb{R}\to \mathbb{C}^2$, $t\mapsto E(t)Z$.\\ a) Démontrer que $\forall t\in\mathbb{R}, Y(t+T) = \rho Y(t)$.\\ b) Démontrer qu’il existe un nombre complexe $\mu$ et une fonction $S:\mathbb{R}\to\mathbb{C}^2$, $t \mapsto S(t)$ non nulle et $T$-périodique telle que $\forall t\in\mathbb{R}, Y(t) = e^{\mu t} S(t)$.} 36. IV.C.2) Donner une condition nécessaire et suffisante portant sur les multiplicateurs de Floquet pour que le système différentiel (IV.1) admette une solution non nulle périodique de période $T$. 37. IV.C.3) On suppose que la matrice $B$ est diagonalisable. Donner une condition nécessaire et suffisante portant sur les multiplicateurs de Floquet pour que le système différentiel (IV.1) admette une solution non bornée sur $\mathbb{R}$. 38. IV.D.1) On pose pour tout $t\in\mathbb{R}$, $W(t) = \det(E(t))$ et on note $\rho_1$ et $\rho_2$ les multiplicateurs de Floquet de (IV.1). Montrer que pour tout réel $t$, $W'(t) = \tr (A(t)) W(t)$. 39. IV.D.2) En déduire que $\rho_1\rho_2 = \exp \left(\int_0^T \tr (A(s))\mathrm{d}s\right)$. 40. V.A) Soient $A\in\mathcal{M}_n(\mathbb{C})$, $X\in \mathcal{M}_{n,1}(\mathbb{C})$ et $\lambda\in\mathbb{C}$. Démontrer que, pour tout entier $k\geq 1$ on a :\\ $\left(\begin{array}{cc} A & X \\ 0_{1,n} & \lambda \end{array}\right)^k = \left(\begin{array}{cc} A^k & X_k \\ 0_{1,n} & \lambda^k \end{array}\right)$ où $X_k = \sum_{j=0}^{k-1} \lambda^{k-1-j}A^j X$.} 41. V.B.1) Soient $a$ et $\lambda$ des nombres complexes non nuls. On suppose que $\frac{a}{\lambda} \notin \mathcal{V}_p$, ce qui signifie que, soit $a = \lambda$, soit $a^p/\lambda^p \neq 1$. Démontrer que le nombre complexe $\sum_{j=0}^{p-1} \lambda^{p-1-j} a^j$ est non nul. 42. V.B.2) Soit $A = (a_{i,j})$ une matrice de $\mathcal{M}_n(\mathbb{C})$ triangulaire supérieure et inversible. Soit $\lambda$ un nombre complexe non nul. On suppose que, pour tout $i\in\llbracket 1,n\rrbracket$, $\frac{a_{i,i}}{\lambda} \notin \mathcal{V}_p$. Démontrer que la matrice $\sum_{j=0}^{p-1} \lambda^{p-1-j} A^j$ est inversible. 43. V.B.3) Montrer que toute matrice triangulaire supérieure et inversible admet au moins une racine $p$-ième triangulaire supérieure.\\ On pourra prouver par récurrence sur $n\geq 1$ la propriété suivante :\\ $\forall B \in \mathcal{T}_n(\mathbb{C}) \cap GL_n(\mathbb{C}), \exists A \in \mathcal{T}_n(\mathbb{C})$ telle que $\{A^p = B, \forall (i,j) \in \llbracket 1,n\rrbracket^2, \frac{a_{i,i}}{a_{j,j}} \notin \mathcal{V}_p\}$. 44. V.B.4) Démontrer que toute matrice inversible de $\mathcal{M}_n(\mathbb{C})$ admet au moins une racine $p$-ième.}FAQ
Une suite périodique est bornée car elle ne prend qu’un nombre fini de valeurs distinctes sur son ensemble de définition. En effet, si une suite \((z_k)\) est \(p\)-périodique, alors pour tout \(k \in \mathbb{N}\), \(z_k\) appartient à l’ensemble fini \(\{z_0, z_1, \dots, z_{p-1}\}\). Ainsi, la suite est bornée par le maximum et le minimum de ces valeurs.
Les suites 1-périodiques sont des suites constantes. En effet, si une suite \((z_k)\) est 1-périodique, alors pour tout \(k \in \mathbb{N}\), \(z_{k+1} = z_k\). Par récurrence, on en déduit que \(z_k = z_0\) pour tout \(k \in \mathbb{N}\).
Si une suite \((z_k)\) est \(p\)-périodique, alors pour tout \(n \in \mathbb{N}\) et tout \(k \in \mathbb{N}\), on a \(z_{n+kp} = z_n\). Cela découle directement de la définition de la périodicité : \(z_{k+p} = z_k\) pour tout \(k \in \mathbb{N}\). En itérant cette relation, on obtient le résultat souhaité.
Les suites à la fois périodiques et convergentes sont nécessairement constantes. En effet, une suite périodique ne peut converger que si sa période est 1, car sinon elle prendrait une infinité de fois les mêmes valeurs sans pouvoir se stabiliser vers une limite unique.
Pour toute paire de matrices \((A, B) \in (\mathcal{M}_n(\mathbb{C}))^2\), on a l’inégalité \(\|AB\|_0 \leq n\|A\|_0 \cdot \|B\|_0\). Cette majoration utilise la norme \(\| \cdot \|_0\) définie comme la somme des modules des coefficients de la matrice, et elle est utile pour contrôler la croissance des produits de matrices.
Pour toute matrice \(A \in \mathcal{M}_n(\mathbb{C})\) et tout vecteur \(Y \in \mathbb{C}^n\), on a \(\|AY\|_\infty \leq n \|A\|_0 \cdot \|Y\|_\infty\). Cette inégalité permet de contrôler l’effet d’une transformation linéaire sur la norme infinie d’un vecteur.
La forme générale des solutions de l’équation de récurrence \(z_{k+2} + a z_{k+1} + z_k = 0\) dépend des racines \(r_1\) et \(r_2\) de l’équation caractéristique \(r^2 + a r + 1 = 0\). Si les racines sont distinctes, la solution générale est \(z_k = \alpha r_1^k + \beta r_2^k\). Si les racines sont égales, la solution est \(z_k = (\alpha + \beta k) r_1^k\). De plus, on a toujours \(r_1 + r_2 = -a\) et \(r_1 r_2 = 1\).
Si \(|a| > 2\), l’équation de récurrence \(z_{k+2} + a z_{k+1} + z_k = 0\) n’admet comme solution périodique que la suite nulle. En effet, dans ce cas, les racines de l’équation caractéristique sont de modules différents de 1, ce qui empêche toute périodicité non triviale.
Pour \(a = -2\), l’équation de récurrence admet une infinité de solutions constantes (car \(r = 1\) est racine double) et une infinité de solutions non bornées (de la forme \(z_k = \alpha + \beta k\)). Cela montre que même dans un cas dégénéré, les solutions peuvent être très variées.
Pour \(a = 2\), l’équation de récurrence admet une infinité de solutions 2-périodiques (car \(r = -1\) est racine double) et une infinité de solutions non bornées (de la forme \(z_k = (-1)^k (\alpha + \beta k)\)). Cela illustre comment les racines de l’équation caractéristique influencent le comportement des solutions.
Pour \(p \geq 3\), il existe des valeurs de \(a \in ]-2, 2[\) pour lesquelles toutes les solutions de l’équation de récurrence sont \(p\)-périodiques. Par exemple, si \(a = 2 \cos\left(\frac{2\pi}{p}\right)\), les racines de l’équation caractéristique sont des racines \(p\)-ièmes de l’unité, ce qui garantit la périodicité des solutions.
L’application \(\Psi : \mathrm{Sol(II.2)} \to \mathbb{C}^2\) qui associe à une suite solution \((z_k)\) le vecteur \(\begin{pmatrix}z_0 \\ z_1\end{pmatrix}\) est un isomorphisme car elle est linéaire, injective (car une suite est entièrement déterminée par ses deux premiers termes) et surjective (car pour tout couple \((z_0, z_1) \in \mathbb{C}^2\), il existe une unique suite solution prenant ces valeurs initiales).
La suite \(W_k = b_k(y_k z_{k+1} – z_k y_{k+1})\) est constante car elle vérifie une relation de récurrence qui montre que \(W_{k+1} = W_k\). Cela généralise le concept de wronskien pour les équations différentielles aux équations de récurrence.
Deux suites \((y_k)\) et \((z_k)\) forment une base de \(\mathrm{Sol(II.2)}\) si et seulement si \(W_0 \neq 0\), où \(W_k = b_k(y_k z_{k+1} – z_k y_{k+1})\). Cela signifie que les suites sont linéairement indépendantes, ce qui est équivalent à la non-nullité du wronskien en \(k = 0\).
À toute suite \((z_k)\), on peut associer la suite de vecteurs \(Z_k = \begin{pmatrix}z_k \\ z_{k+1}\end{pmatrix}\). La suite \((z_k)\) est solution de l’équation de récurrence si et seulement si \((Z_k)\) vérifie \(Z_{k+1} = A_k Z_k\), où \(A_k\) est une matrice dépendant des coefficients de l’équation. Cela permet de ramener l’étude des suites solutions à celle des systèmes dynamiques linéaires.
La matrice \(Q\) est définie comme le produit des matrices \(A_k\) sur une période, et on montre que \(\det Q = 1\) en utilisant le fait que chaque matrice \(A_k\) a un déterminant égal à 1. Cela découle de la structure particulière des matrices \(A_k\) et de la propriété multiplicative du déterminant.
Pour tout \(k \in \mathbb{N}\) et tout \(r \in \llbracket 1, p-1 \rrbracket\), on a \(Z_{kp} = Q^k Z_0\) et \(Z_{kp+r} = A_{r-1} \cdots A_0 Q^k Z_0\). Cela découle de la périodicité des matrices \(A_k\) et de la définition de \(Q\) comme produit des \(A_k\) sur une période.
L’équation de récurrence admet une solution périodique non nulle de période \(p\) si et seulement si 1 est une valeur propre de la matrice \(Q\). Cela signifie que \(Q\) a un vecteur propre associé à la valeur propre 1, ce qui permet de construire une solution périodique.
Si \(\tr(Q) = 2\), alors l’équation de récurrence admet une solution périodique non nulle de période \(p\). De plus, soit toutes les solutions sont périodiques, soit il existe des solutions non bornées. Cela dépend de la structure de Jordan de \(Q\) : si \(Q\) est diagonalisable, toutes les solutions sont périodiques ; sinon, il existe des solutions non bornées.
Si \(|\tr Q| < 2\), alors toutes les solutions de l'équation de récurrence sont bornées. En effet, cela implique que les valeurs propres de \(Q\) sont de module 1, ce qui garantit la bornitude des solutions.