Concepts fondamentaux

Ce qu’est une solution, son existence et son unicité

On recherche une fonction réelle \(x~:t\mapsto x(t)\) dont on connaît la variation en tout point \(t\) ainsi que la valeur en un point \(t_0\).

Ce problème est connu sous le nom1 de problème de Cauchy : On recherche une fonction \(x\) telle que \[ \left\{ \begin{array}{l} x'\left(t\right)=f\left(x\left(t\right),t\right), \\ x\left(t_0\right)=x_0.\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \left(\mathrm{condition\ initiale}\right) \end{array} \right. \] L’expression \(f\left(x\left(t\right),t\right)\) est mise pour une quelconque expression faisant intervenir \(t\) et \(x\), \(t\) étant variable et \(x\) étant une expression inconnue et dépendant de \(t\). Cette expression peut être par exemple \(-{x\left(t\right)}^2+t\). La fonction \(f\) prend donc comme arguments un nombre \(t\) et une fonction \(x(t)\). Quand il est dit qu’on connaît la variation de \(x\) en tout point \(t\), de quelle connaissance s’agit-il exactement ? Eh bien, c’est de la connaissance de la fonction \(f\) dont il s’agit. Dans le problème de Cauchy, celle-ci est donnée et on cherche la fonction \(x\).

L’expression \(f\left(x\left(t\right),t\right)\) dans la première équation se laisse en effet interpréter comme la variation de la fonction recherchée \(x\) au point \(t\) et cette interprétation permet de dessiner le graphe de la fonction \(x\) de la façon suivante.

Méthode d’Euler

On part d’un point connu du graphe – disons \((t_0;x_0)\) – et on trouve une bonne approximation du point du graphe \((t_0+\mathrm{\Delta }t;{x(t}_0+\mathrm{\Delta }t))\) situé horizontalement un tout petit peu plus loin, à un pas \(\mathrm{\Delta }t\) de \(t_0\), en utilisant l’information sur la variation de \(x\) en \(t_0\), que fournit l’expression \(f\left(x\left(t_0\right),t_0\right)\). Celle-ci est en effet la pente de la tangente de la fonction inconnue \(x\) au point \(t_0\). En traçant la droite de même pente passant par \((t_0;x_0)\) et en avançant sur cette droite d’un pas horizontal \(\mathrm{\Delta }t\), on arrive à une bonne approximation du point \((t_1;{x(t}_1))\), avec \(t_1:= t_0+\mathrm{\Delta }t\), approximation qu’on nomme \((t_1;{\hat{x}}_1)\).

Cette façon de procéder est fondée sur l’hypothèse que la variation de \(x\) est à peu près constante dans un voisinage autour de \(t_0\). Ceci assure que le point \((t_1;{\hat{x}}_1)\) est une bonne approximation du point \(\left(t_1;x_1\right)\), où \(x_1:= {x(t}_1)\), le circonflexe sur le \(x\) signifiant que le point obtenu n’est qu’une approximation du «vrai» point recherché.

On recommence la manoeuvre en utilisant le point \((t_1;{\hat{x}}_1)\) et la pente \(f\left(x\left(t_1\right),t_1\right)\). On obtient le point \((t_2;{\hat{x}}_2)\) qui est une approximation du point \((t_2;x_2)\). Et ainsi de suite. En reliant les \((t_n;{\hat{x}}_n)\) par une ligne polygonale, on obtient une approximation du graphe de \(x\).

Lorsque le pas est choisi grand, comme le dessin ci-dessus le montre, la ligne polygonale peut différer fortement du graphe de \(x\). Ceci s’explique par le fait que sur un intervalle de la longueur du pas \(\mathrm{\Delta }t\), il devient d’autant plus faux de supposer que la variation de \(x\) demeure constante, à mesure que le pas est choisi plus grand. Il s’agit donc d’une méthode approximative dont la précision dépend de la petitesse du pas \(\mathrm{\Delta }t\) choisi. Cette méthode est connue en analyse numérique sous le nom de méthode d’Euler.

La convergence de la solution approchée vers la solution exacte à mesure que le pas de \(t\) est choisi plus proche de 0 est assurée par une condition que \(f\) doit satisfaire : ladite condition de Lipschitz, sur laquelle nous revenons en annexe.

La condition de Lipschitz

Pour le moment, il suffit de savoir que cette condition est une inégalité qui définit un cône2 qui contient la droite tangente donnant la variation exacte en chaque point \(t\) (cône dessiné ci-dessus pour \({t=t}_0\)). Ce cône nous montre qu’il ne peut y avoir au plus qu’une seule fonction \(x\) qui satisfasse simultanément aux deux équations du problème de Cauchy, le graphe de \(x\) étant, par ce cône, déterminé pas par pas en avançant sur l’axe des \(t\) et en partant de \({t=t}_0\). Cette façon de résoudre le problème de la détermination de \(x\) est une approximation d’inspiration géométrique.

Nous voyons maintenant une façon purement analytique d’y arriver.

Intégrons de chaque côté de l’équation : \[ \begin{array}{ll} & x'\left(s\right)=f\left(x\left(s\right),s\right) \\ \Longleftrightarrow \ \exists \ c\in \mathbb{R}\mathrm{\ }\mathrm{t.q.} & \ \int^t_{t_0}{x'\left(s\right)\ ds}=c+\int^t_{t_0}{f\left(x\left(s\right),s\right)\ ds} \\ \Leftarrow & x\left(t\right)-x(t_0)=\int^t_{t_0}{f\left(x\left(s\right),s\right)\ ds.\ \ \ \ \ \ \ \ \ \ \ \ \ \ (*)} \end{array} \]

On passe à la dernière équation en choisissant que la constante \(c\) soit nulle. Dans cette dernière équation, on observe que la fonction \(x\) se retrouve de chaque côté de l’égalité, ce que nous n’avions pas avant l’intégration. Ce fait remarquable nous permet de déterminer \(x\) comme la limite d’une suite de la façon suivante.

Ecrivons \({\varphi (z):= x}_0+\int^t_{t_0}{f\left(z\left(s\right),s\right)\ ds}\)

puis définissons par récurrence une suite de la façon suivante :

  • point d’ancrage : \(x_0\) est donné
  • enchaînement \(n\to n+1\) : \(x_{n+1}:= \varphi \left(x_n\right).\)

Nous remarquons que si cette suite converge, alors sa limite satisfait à \((*)\). Pour le voir, il nous suffit de remplacer dans l’équation \(x_{n+1}:= \varphi \left(x_n\right)\)

\(x_{n+1}\) et \(x_n\) par \(x\), de façon à obtenir l’équation \(x=\varphi \left(x\right).\)

Pour une suite \({\left(x_n\right)}_{n\in \mathbb{N}}\) convergente, on a en effet que \(x_n=x_{n+1}=x\) lorsque \(n\) tend vers l’infini. Or écrire que \(x=\varphi(x)\) signifie que la fonction \(\varphi\) admette un point fixe3. A contrario si \(\varphi\) admet un point fixe, alors l’équation \((*)\) admet une solution. Or par le théorème du point fixe de Banach, nous savons que si un point fixe existe, celui-ci est unique. Nous en déduisons que si l’équation \((*)\) admet une solution, celle-ci est unique. Ceci est un premier résultat théorique important.

Exemple de résolution d’équation différentielle ordinaire (EDO) à l’aide de cette méthode itérative.

\[ \left\{ \begin{array}{l} x'\left(t\right)=5\ x(t), \\ x\left(2\right)=1.\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \left(\mathrm{condition\ initiale}\right) \end{array} \right. \]

Ici, \(t_0=2.\) \(x_0:= \boldsymbol{1}\)

\[ \begin{eqnarray*} x_1 &:=& x_0+\int^t_{t_0}{f\left(x_0\left(s\right),s\right)ds=1+\int^t_2{5\cdot 1\ ds=\boldsymbol{1}\boldsymbol{+}\boldsymbol{5}\boldsymbol{(}\boldsymbol{t}\boldsymbol{-}\boldsymbol{2}\boldsymbol{)}}} \end{eqnarray*} \]

\[ \begin{eqnarray*} x_2 &:=& x_0+\int^t_{t_0}{f\left(x_1\left(s\right),s\right)ds=1+\int^t_2{\underbrace{5\cdot \left(1+5\left(s-2\right)\right)}_{\underbrace{=5+5^2s-5^22}_{=-45+25\ s}}ds}} \\ &=& 1+{\left[-45s\right]}^{s=t}_{s=2}+{\left[25\frac{s^2}{2}\right]}^{s=t}_{s=2} \\ &=& 1+\left(-45t+90\right)+\left(25\frac{t^2}{2}-50\right)=\frac{\boldsymbol{25}}{\boldsymbol{2}}{\boldsymbol{t}}^{\boldsymbol{2}}\boldsymbol{-}\boldsymbol{45}\boldsymbol{t}\boldsymbol{+}\boldsymbol{41} \end{eqnarray*} \]

\[ \begin{eqnarray*} x_3 &:=& x_0+\int^t_{t_0}{f\left(x_2\left(s\right),s\right)ds=1+\int^t_2{5\cdot \left(\frac{25}{2}t^2-45t+41\right)\ ds}} \\ &=& \frac{\boldsymbol{125}}{\boldsymbol{6}}{\boldsymbol{t}}^{\boldsymbol{3}}\boldsymbol{-}\frac{\boldsymbol{225}}{\boldsymbol{2}}{\boldsymbol{t}}^{\boldsymbol{2}}\boldsymbol{+}\boldsymbol{205}\boldsymbol{t}\boldsymbol{-}\frac{\boldsymbol{377}}{\boldsymbol{3}} \end{eqnarray*} \]

Cette méthode est fastidieuse mais elle a l’immense mérite de fonctionner dans tous les cas où une solution existe. La série diverge en cas d’absence de solution et converge sinon.

Cette méthode itérative permet de démontrer un résultat tout à fait fondamental qui nous informe notamment sur sa vitesse de convergence. La solution du problème de Cauchy suivant

\[ \left\{ \begin{array}{l} x'\left(t\right)=a\ x(t), \\ x\left(t_0\right)=x_0.\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \left(\mathrm{condition\ initiale}\right) \end{array} \right. \]

est \[ \boldsymbol{x}\left(\boldsymbol{t}\right)\boldsymbol{=}{\boldsymbol{x}}_{\boldsymbol{0}}\boldsymbol{\mathrm{\cdot }}\boldsymbol{\mathrm{exp}}\boldsymbol{(}\boldsymbol{a}\boldsymbol{(}\boldsymbol{t}\boldsymbol{-}{\boldsymbol{t}}_{\boldsymbol{0}}\boldsymbol{))}. \]

En effet, par un calcul en tout point semblable au précédent, on retrouve le développement en série de l’exponentielle (il est bon de faire ce petit calcul soi-même)

\[ x_0\cdot \left(1+a\left(t-t_0\right)+\frac{{\left(a(t-t_0)\right)}^2}{2!}+\frac{{\left(a(t-t_0)\right)}^3}{3!}+\cdots \right). \]

Ceci est un deuxième résultat théorique important : l’entrée en jeu de la fonction exponentielle4 !

La méthode de la séparation des variables

Heureusement on peut parfois avoir recours à des méthodes de résolution plus immédiates. Voici la méthode dite de séparation des variables.

Considérons

\[ \left\{ \begin{array}{l} x'\left(t\right)=-{x\left(t\right)}^2\cdot t, \\ x\left(11\right)=12.\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \left(\mathrm{condition\ initiale}\right) \end{array} \right. \]

Ici \(f\left(x\left(t\right),t\right)\) est le produit d’une expression qui ne contient que \(x(t)\) et d’une expression qui ne contient que \(t\). On dit que les variables (\(x\) et \(t\)) sont séparées et on parle d’équation (EDO) aux variables séparées. Voici comment on procède dans ce cas particulier.

Nous rappelons que «\(x'\left(t\right)\)» est la notation de Newton pour ce que Leibniz note «\(\frac{dx}{dt}\)», cette dernière notation ayant ses avantages, dont celui de permettre le calcul non rigoureux5 suivant.

\[ \begin{array}{rl} & \frac{dx}{dt}=-x^2\cdot t \\ \Leftrightarrow & \frac{dx}{-x^2}=t\ dt \\ \Rightarrow & \int^X_{x_0}{\frac{dx}{-x^2}}=\int^T_{t_0}{t\ dt} \end{array} \]

Soit \(Q\left(X\right):= \int^X_{x_0}{\frac{dx}{-x^2}}\) la primitive de \(a\left(X\right):= \frac{1}{-X^2}\) qui s’annule en \(x_0\) et soit \(P\left(T\right):= \int^T_{t_0}{t\ dt}\) la primitive de \(b\left(T\right):= T\) qui s’annule en \(t_0\). Nous reécrivons donc la dernière équation du calcul ci-dessus comme \(Q\left(X\right)=P(T)\). Si la fonction \(Q\) est inversible dans un voisinage de \(x_0\), nous affirmons que la solution recherchée est, sur ce voisinage, égale à \(X\ :T\mapsto Q^{-1}\circ P(T)\). A la place de \(T\) et \(X\), nous noterons par la suite \(t\) et \(x\).

\(Q\left(z\right):= \frac{1}{z}-\frac{1}{x_0}\) est la primitive de \(a\left(x\right):= \frac{1}{-x^2}\) qui s’annule en \(x_0\) et, pour tout \(x_0\neq 0\), une fonction inverse \(Q^{-1}\) est bien définie. Dans notre exemple, \(x_0:= x\left(t_0\right)=x(11)=12\) et \(Q^{-1}\left(y\right)={\left(y+\frac{1}{12}\right)}^{-1}\), fonction qui est définie sur tout \(]0;\infty [\) puisque \(Q\) y est strictement croissante. Quant à la seconde primitive, on a que \(P\left(t\right):= \frac{t^2}{2}-\frac{{11}^2}{2}\), puisque \(t_0=11\). Il en suit que la solution est

\[ x\left(t\right)={\left(\left(\frac{t^2}{2}-\frac{121}{2}\right)+\frac{1}{12}\right)}^{-1}={\left(\frac{t^2}{2}-\frac{725}{12}\right)}^{-1}. \]

On vérifie qu’en effet, \(x\left(11\right)=12\). Calculons la dérivée : \(x'\left(t\right)=\frac{-t}{{\left(\frac{t^2}{2}-\frac{725}{12}\right)}^2}\) est bel et bien égale à \(-{x\left(t\right)}^2\cdot t\), ce qui termine la vérification.

Autre exemple :

\[ \begin{array}{cc} x'\left(t\right)=-\frac{t}{x}. & \mathrm{\ (Une\ condition\ initiale\ }{\mathrm{n}}^{\mathrm{'}}\mathrm{est\ ici\ pas\ précisée)} \end{array} \]

\[ \frac{dx}{dt}=-\frac{t}{x}\Leftrightarrow x\ dx=-t\ dt\Leftrightarrow \frac{x^2}{2}=-\frac{t^2}{2}+C\Leftrightarrow x^2+t^2=2C. \]

De ce calcul, il vient que les courbes représentatives des solutions de cette EDO dans l’espace des phases sont les cercles6 centrés en l’origine et de rayon \(\sqrt{2C}\).

La méthode du facteur intégrant

Considérons l’EDO scalaire linéaire suivante :

\[ \left\{ \begin{array}{l} x'\left(t\right)=a(t)x(t)+b(t), \\ x\left(t_0\right)=x_0.\ \ \ \ \ \ \ \ \ \ \ \ \ \ \left(\mathrm{condition\ initiale}\right) \end{array} \right. \]

Soient \(A(t)\) et \(B(t)\) les primitives de respectivement \(a(t)\) et \(b(t)\).

Notre but : exprimer \(x(t)\) par une expression ne contenant ni \(x\) ni aucune de ses dérivées.

Idée : écrire l’EDO comme

\[ x'\left(t\right)-a\left(t\right)x\left(t\right)=b(t) \]

et chercher à exprimer le membre de gauche comme \(F(x)\) avec \(F\) inversible. Dans ce cas, \(x\left(t\right)=F^{-1}\circ b(t)\). Et puisqu’il y a dans le membre de gauche à la fois \(x\) et \(x'\), il faut bien que \(F\) fasse intervenir une dérivation.

En nous inspirant de la règle de dérivation d’un produit, nous essayons de nous donner un \(F\).

Premier essai :

\[ F\left(x(t)\right):= {\left[A(t)x(t)\right]}'=A\left(t\right)x'\left(t\right)+a\left(t\right)x\left(t\right) \]

est formellement proche mais pas encore égal au membre de gauche de l’EDO. En fait, nous comprenons vite qu’il n’existe aucune fonction \(G(t)\) – dont nous dirons que la dérivée est \(g(t)\) – telle que

\[ {\left[G(t)x(t)\right]}'=G\left(t\right)x'\left(t\right)+g\left(t\right)x\left(t\right) \] soit égal à \(x'\left(t\right)-a\left(t\right)x(t)\).

Nous pouvons par contre chercher à résoudre l’EDO équivalente

\[ {m(t)x}'\left(t\right)-m\left(t\right)a\left(t\right)x\left(t\right)=m\left(t\right)b\left(t\right), \]

pour un \(m(t)\) adéquat (Nous avons multiplié les deux membres de l’EDO par un facteur \(m(t)\), d’où le nom de la méthode7). Nous nous demandons dès lors : Existe-t-il une fonction \(G(t)\) telle que

\[ G\left(t\right)x'\left(t\right)+g\left(t\right)x\left(t\right)=m\left(t\right)x'\left(t\right)-m\left(t\right)a\left(t\right)x\left(t\right)\ \ ? \]

Or nous constatons en regardant cette formule que \(G(t)\) doit être égal à \(m(t)\) et que \(g(t)\) doit être égal à \(--a(t)m(t)\). Dès lors notre question devient : Existe-t-il une fonction \(G(t)\) telle que sa dérivée soit égale à elle-même fois \(-a(t)\) ?

Nous répondons que oui : la fonction \(G(t)\) recherchée est évidemment \(\mathrm{exp}(-A(t))\).

En conséquence de quoi la fonction \(F\) est égale à

\[ F\ :\ x\mapsto \frac{{\left[G(t)x(t)\right]}'}{m(t)}=\frac{{\left[{\mathrm{exp} \left(-A\left(t\right)\right)\ }x(t)\right]}'}{\mathrm{exp}(-A(t))}. \]

Nous en calculons l’inverse : Nous posons

\[ y\left(t\right):= \frac{{\left[{\mathrm{exp} \left(-A\left(t\right)\right)\ }x(t)\right]}'}{\mathrm{exp}(-A(t))} \]

et voulons transformer \(y(t)\) pour obtenir à nouveau \(x(t)\). Nous commençons la transformation :

\[ \int^t_{t_0}{y\left(u\right)\cdot {\mathrm{exp} \left(-A\left(u\right)\right)\ }du}=P\left(t\right)-P\left(t_0\right), \]

\(P(u)\) est la primitive de \(y\left(u\right)\cdot {\mathrm{exp} \left(-A\left(u\right)\right)\ }\). Nous ne pouvons poursuivre, faute d’information sur \(P\). Mais dans la mesure où nous appliquerons cette fonction inverse de \(F\) uniquement sur des \(y(u)\) satisfaisant8 à ce que

\[ y\left(u\right)=x'\left(u\right)-a\left(u\right)x(u), \] nous pouvons utiliser cette information pour déterminer \(P\).

Or la primitive de \((x'\left(t\right)-a\left(ut\right)x(t))\cdot {\mathrm{exp} \left(-A\left(t\right)\right)\ }\) est \(P\left(t\right)={\mathrm{exp} \left(-A\left(t\right)\right)\ }x(t)\). Sachant cela, nous pouvons achever la transformation :

\[ F^{-1}\ :y\mapsto \frac{1}{\mathrm{exp}(-A(t))}\left(P\left(t_0\right)+\int^t_{t_0}{y\left(u\right)\cdot {\mathrm{exp} \left(-A\left(u\right)\right)\ }du}\right), \]

cette fonction n’étant définie, répétons-le, que pour les \(y(t)\) satisfaisant à la condition \(y\left(u\right)=x'\left(u\right)-a\left(u\right)x(u)\). En appliquant \(F^{-1}\) à \(b(t)\), nous obtenons la formule intégrale recherchée :

\[ \begin{array}{ll} && x\left(t\right) \\ &=& F^{-1}(b\left(t\right)) \\ &=& \frac{1}{\exp(-A(t))}\left(P\left(t_0\right)+\int^t_{t_0}{b\left(u\right)\cdot {\mathrm{exp} \left(-A\left(u\right)\right)\ }du}\right) \\ &=& {\mathrm{exp} \left(A\left(t\right)\right)\ }{\mathrm{exp} \left(-A\left(t_0\right)\right)\ x(t_0)\ }+{\mathrm{exp} \left(A\left(t\right)\right)\ }\int^t_{t_0}{b\left(u\right)\cdot {\mathrm{exp} \left(-A\left(u\right)\right)\ }du}. \end{array} \]

\(x(t)\) se laisse ainsi exprimer par une formule intégrale qui ne dépend ni de \(x\) ni de \(x'\) et notre but est donc atteint.

Exemple :

\[ \left\{ \begin{array}{l} x'\left(t\right)=t^2x(t)+t, \\ x\left(1\right)=2.\ \end{array} \right. \]

L’application de la formule donne :

\[ x\left(t\right)={\mathrm{exp} \left(\frac{t^3}{3}\right)\ }\cdot {\mathrm{exp} \left(-\frac{1}{3}\right)\cdot 2\ }+{\mathrm{exp} \left(\frac{t^3}{3}\right)\ }\cdot \int^t_{t_0}{{\mathrm{exp} \left(-\frac{u^3}{3}\right)\ }u\ du.} \]

Un certain nombre d’EDO linéaires ne reç}oivent pas de solution véritablement satisfaisante à l’aide de cette formule, l’intégrale n’admettant pas toujours de primitive élémentaire et devant être approchée par des méthodes numériques. Nous pouvons néanmoins tenter une autre voie en vue de fournir une solution proprement analytique à l’EDO.

La méthode de la variation de la constante (méthode de Lagrange)

Nous savons que la solution générale à l’EDO

\[ x'\left(t\right)=a\left(t\right)x(t) \]

est

\[ x\left(t\right)=x_0\cdot{\mathrm{exp} \left(A\left(t\right)\right),\ } \]

pour \(A\) une primitive de \(a\). Lorsque \(A\) s’annule en une valeur \(t_0\) de la variable \(t\), nous avons alors que \(x\left(t_0\right)=x_0\). Nous recherchons maintenant une solution à

\[ x'\left(t\right)=a\left(t\right)x\left(t\right)+b\left(t\right). \]

Quelle est la forme de la solution ? Nous cherchons à énoncer une hypothèse sur la forme de \(x(t)\) – une telle hypothèse s’appelle un Ansatz9. Nous savons que dans le cas où \(b(t)=0\) cet Ansatz doit correspondre à la forme donnée ci-dessus. L’Ansatz doit donc être proche de

\[ x\left(t\right)=x_0{\mathrm{exp} \left(A\left(t\right)\right)\ }. \]

Il ne reste pas beaucoup de possibilités, sinon celle de faire varier \(x_0\), qui était une constante, en fonction de \(t\). Notre Ansatz est donc de rendre variable ce qui était une constante. C’est pourquoi nous posons10

\[ x\left(t\right):= c(t){\mathrm{exp} \left(A\left(t\right)\right)\ } \]

et calculons. La dérivée

\[ x'\left(t\right)=c'\left(t\right){\mathrm{exp} \left(A\left(t\right)\right)+c\left(t\right)a\left(t\right){\mathrm{exp} \left(A\left(t\right)\right)\ }\ } \]

doit être égale à

\[ b\left(t\right)+a\left(t\right)x(t). \]

C’est le cas si et seulement si

\[ \begin{array}{cl} & c'\left(t\right){\mathrm{exp} \left(A\left(t\right)\right)\ }=b(t) \\ \Leftrightarrow & c'\left(t\right)=b\left(t\right)\exp(-A(t)) \\ \Leftarrow & c\left(t\right)=x_0+\int^t_{t_0}{b\left(u\right){\mathrm{exp} \left(-A\left(u\right)\right)\ }du.} \end{array} \]

Nous vérifions que \(c\left(t_0\right)=x_0\). Par suite, une solution de l’EDO \(x'\left(t\right)=a\left(t\right)x\left(t\right)+b\left(t\right)\) est donnée par

\[ x\left(t\right)=\left(x_0+\int^t_{t_0}{b\left(u\right){\mathrm{exp} \left(-A\left(u\right)\right)\ }du}\right){\mathrm{exp} \left(A\left(t\right)\right)\ }. \]

Cette solution satisfait à la condition initiale \(x\left(t_0\right)=x_0\).

Nous reconnaissons là l’expression de \(x(t)\) que nous venons d’obtenir par la méthode du facteur intégrant. C’est bien la même expression et non pas une forme analytique plus simple. Mais peut-il vraiment en être autrement, en l’absence d’information supplémentaire et ceci bien que le raisonnement qui mène au résultat soit complétement différent ?

Exemple de calcul

Nous voulons résoudre l’EDO du premier ordre suivante :

\[ x'\left(t\right)=\frac{3t-2x+1}{4t+x-2}. \]

Comment vous vous y prendriez-vous ?

Il y a certainement plusieurs approches; ci-après je propose une approche qui n’a pas la prétention d’être la meilleure mais qui est intéressante dans la mesure où elle fait intervenir un certain nombre de notions très diverses qui toutes appartiennent à la boîte à outils mathématique.

étape 1 : Nous essayons de nous débarrasser du terme constant du polynôme au numérateur et de celui du polynôme au dénominateur. Pour ce faire, nous recherchons deux substitutions simples de la forme \(u\left(t\right)=t+h_t\) et \(v\left(x\right)=x+h_x\) en déterminant les constantes \(h_t\) et \(h_x\) adéquates. Il faut ainsi résoudre le système :

\[ \left\{ \begin{array}{r} 3h_t-2h_x=-1 \\ 4h_t-h_x=2. \end{array} \right. \]

Nous obtenons que \(h_x=\frac{10}{11}\) et \(h_t=\frac{3}{11}\) et substituons donc \(u\) à \(t\) et \(v\) à \(x\) dans l’EDO selon les relations \(u\left(t\right):= t+\frac{3}{11}\ \mathrm{et}\ v\left(x\right):= x+\frac{10}{11}\). Puisque \(x'=\frac{dx}{dt}=\frac{dv}{du}\), l’EDO devient

\[ \frac{dv}{du}=\frac{3u-2v}{4u+v}. \]

étape 2 : Afin d’appliquer la méthode de la séparation des variables, nous procédons à une seconde substitution en posant \(\varphi := \frac{v}{u}\). Alors \[ \frac{dv}{du}=\frac{d[\varphi \cdot u]}{du}=\frac{d\varphi }{du}u+\varphi \] et l’EDO devient : \[ \begin{array}{cl} & \frac{d\varphi }{du}\cdot u+\varphi =\frac{3u-2\varphi \cdot u}{4u+\varphi \cdot u}=\frac{3-2\varphi }{4+\varphi } \\ \Leftrightarrow & \frac{d\varphi }{du}\cdot u=\frac{3-2\varphi }{4+\varphi }-\varphi =\frac{-{\varphi }^2-6\varphi +3}{4+\varphi }. \end{array} \]

étape 3 : Nous pouvons à présent achever de séparer les variables, maintenant que la substitution \(\varphi := \frac{v}{u}\) a fait le gros du travail :

\[ \begin{array}{cl} & \frac{d\varphi }{du}\cdot u=\frac{-{\varphi }^2-6\varphi +3}{4+\varphi } \\ \Leftrightarrow & \frac{u}{du}=\frac{-{\varphi }^2-6\varphi +3}{4+\varphi }\cdot \frac{1}{d\varphi } \\ \Leftrightarrow & \frac{du}{u}=\frac{4+\varphi }{-{\varphi }^2-6\varphi +3}\ d\varphi \end{array} \]

Les membres de gauche et de droite de cette dernière équation doivent se comprendre comme des intégrants (ils n’ont pas de sens sinon) et il faut donc les intégrer. Le choix des bornes d’intégration inférieures ainsi que celui de la constante d’intégration sont libres; celle-ci est posée égale à \(\frac{{\mathrm{ln} \left(C\right)\ }}{12}\) pour une raison esthétique qui apparaît dans le calcul :

\[ \begin{array}{cl} \Leftarrow & \int^u_1{\frac{d\upsilon }{\upsilon }}=\frac{{\mathrm{ln} \left(C\right)\ }}{12}+\int^{\varphi }_{{\varphi }_0}{\frac{4+\phi }{-{\phi }^2-6\phi +3}\ d\phi } \\ \Leftrightarrow & {\mathrm{ln} \left(u\right)\ }=\frac{{\mathrm{ln} \left(C\right)\ }}{12}-\frac{1}{12}\left[\left(\sqrt{3}+6\right){\mathrm{ln} \left(\varphi -2\sqrt{3}+3\right)\ }-\left(\sqrt{3}-6\right){\mathrm{ln} \left(\varphi +2\sqrt{3}+3\right)\ }\right] \\ \Leftrightarrow & u^{12}=C\cdot \frac{{\left(\varphi +2\sqrt{3}+3\right)}^{\left(\sqrt{3}-6\right)}}{{\left(\varphi -2\sqrt{3}+3\right)}^{\left(\sqrt{3}+6\right)}}. \end{array} \]

Ces trois lignes de calcul appellent des commentaires.

  • Première ligne : Le choix de la borne inférieure se fait de façon que la primitive de \(\frac{4+\phi }{-{\phi }^2-6\phi +3}\) s’annule pour \({\phi =\varphi }_0\) ou du moins que la valeur de la primitive en \({\varphi }_0\) soit cachée dans la constante \({\mathrm{ln} \left(\sqrt[{12}]{C}\right)\ }\), ce qui revient au même.

  • Deuxième ligne : Cette primitive est obtenue en exprimant l’intégrant comme somme de fractions partielles. Voir par exemple Königsberger : Analysis 1, Springer Verlag, le mot-clef Partialbruchzerlegung11.

  • Quant au passage de la deuxième à la troisième ligne : amplification par 12 puis exponentiation.

L’EDO

\[ \frac{d\varphi }{du}\cdot u=\frac{-{\varphi }^2-6\varphi +3}{4+\varphi } \]

admet donc comme solution la fonction \(\varphi (u)\) qui est donnée implicitement à la troisième ligne.

étape 4 : La suite des opérations consiste à rebrousser le chemin des substitutions successives de façon à considérer des expressions non plus en \(u\) et \(\varphi\) mais en \(x\) et \(t\). C’est pourquoi nous commençons par remplacer \(\varphi\) par \(\frac{v}{u}\) dans l’expression de \(u^{12}\).

\[ u^{12}=C\cdot \frac{{\left(\frac{v}{u}\mathrm{\ }+2\sqrt{3}+3\right)}^{\left(\sqrt{3}-6\right)}}{{\left(\frac{v}{u}\mathrm{\ }-2\sqrt{3}+3\right)}^{\left(\sqrt{3}+6\right)}}\ . \]

Puis nous remplaçons \(u\) par \(t+\frac{3}{11}\) et \(v\) par \(x+\frac{10}{11}\). Nous obtenons une expression implicite12 de \(x\) qu’il faut rendre explicite au moins sur un intervalle :

\[ { \begin{array}{ccc} \begin{array}{ccc} & & \end{array} & & \end{array} \left(t+\frac{3}{11}\right)}^{12}=C\cdot \frac{{\left(\frac{x+\frac{10}{11}}{t+\frac{3}{11}}\mathrm{\ }+2\sqrt{3}+3\right)}^{\left(\sqrt{3}-6\right)}}{{\left(\frac{x+\frac{10}{11}}{t+\frac{3}{11}}\mathrm{\ }-2\sqrt{3}+3\right)}^{\left(\sqrt{3}+6\right)}}\ . \begin{array}{ccc} & & \begin{array}{ccc} & & \begin{array}{cc} & (*) \end{array} \end{array} \end{array} \]

étape 5 : En passant tous les termes de l’équation \((*)\) du même côté du signe d’égalité, nous avons une expression de la forme \(F\left(t,x\right)=0\), que nous considérons comme la courbe de niveau \(0\) d’une fonction \(F\mathrm{\ }\mathrm{:}\mathrm{\ }\mathbb{R}\mathrm{\times }\mathbb{R}\to \mathbb{C}\). Cette fonction13 est clairement à valeurs complexes et non seulement réelles.

knitr::include_graphics(c("graphs/image4.png", "graphs/image3.png"))

Nous admirons14 en-haut la courbe de niveau \(0\) de la partie réelle de \(F\), i.e. la courbe donnée par \(\mathrm{Re}\left(F(t,x)\right)=0\), puis celle, en-bas, de sa partie imaginaire. La variable \(t\) est en abscisse.

Si nous superposons le dessin de la courbe de niveau \(0\) de la partie imaginaire de \(F\) et celui de sa partie réelle, alors nous pouvons affirmer que ce n’est que pour les points de coordonnée \(\left(t;x\right)\) situés à leur intersection que l’équation \((*)\) se vérifie. L’ensemble de ces lieux géométriques est marqué en rouge sur le dessin de la courbe de niveau \(0\) de la partie imaginaire de \(F\), ci-dessus.

Existence d’un plateau de niveau 0

Une analyse plus poussée nous fait cependant comprendre que la courbe de niveau de la partie imaginaire de \(F\) ne reflète pas toute la réalité (sans jeu de mot). En effet, cette fonction vaut \(0\) sur tout un plateau15 et dans ce cas, le logiciel SciLab ne sait trop quelle courbe de niveau donner alors qu’il faudrait en fait toute une surface. C’est le dessin ci-contre qui nous révèle ce plateau de niveau \(0\).

Nous en déduisons que nous pouvons compléter la ligne rouge que nous avons commencé à tracer ci-dessus. Elle est l’ensemble des lieux géométriques pour lesquels à la fois la partie réelle et la partie imaginaire de \(F\) sont nulles et désigne ainsi l’ensemble des couples \(\left(t;x\right)\) qui vérifient \((*)\).

Il est en outre remarquable que la courbe de niveau 0 tracée en rouge suive une asymptote oblique (celle de pente négative) alors que la courbe de niveau 0,001 qui en est le plus proche ne suive pas du tout cette asymptote oblique mais une asymptote verticale. La déclivité dans la zone de croisement des deux asymptotes est donc difficilement visualisable mentalement.

Cette superposition des courbes de niveau est une approche géométrique intéressante en soi. Dans l’intention de procéder à des calculs, il est par contre indiqué de considérer la courbe de niveau \(0\) de la fonction norme de \(F\), qui prend en compte à la fois la partie réelle et la partie imaginaire de \(F\) et renvoie une valeur réelle, que SciLab peut dessiner en un seul plot. La norme de \(F\) étant définie comme

\[ \left\|F(t,x)\right\|:= \sqrt{{\left(\mathrm{Re}\left(F(t,x)\right)\right)}^2+{\left(\mathrm{Im}\left(F(t,x)\right)\right)}^2.} \]

Zone à forte déclivité

Ci-contre, les courbes de niveau 0,001, 1 et 1000 donnent une idée de la forte déclivité du terrain.

Le théorème des fonctions implicites nous assure qu’au voisinage d’un point de la courbe de niveau \(0\), la variable \(x\) se laisse exprimer de façon explicite comme fonction de \(t\). Il s’agit donc de trouver un quelconque point sur la courbe et d’appliquer le théorème en ce point pour obtenir \(x(t)\).

Nous choisissons une valeur de \(t\) simple à calculer et pour laquelle la courbe de niveau \(0\) de \(\left\|F\right\|\) soit définie. En considérant les dessins précédents, nous prenons \(t=-1\) et recherchons la valeur \(x=x_0\) telle que le point \(P(t;x_0)\) se trouve sur la courbe de niveau.

Recherche d’un point d’abscisse \(t=-1\) qui soit situé sur une courbe de niveau 0 de \(F\)

Géométriquement, cela revient à déterminer l’intersection entre la courbe de niveau \(0\) et la droite d’équation \(t=-1\), en rouge ci-dessus. La courbe de niveau \(0\) n’y est elle-même pas représentée mais elle se situe nécessairement entre les deux très proches courbes de niveau \(0,001\) – le dessin montrant par ailleurs les courbes de niveau 1 et 1000 pour illustrer la déclivité du paysage. L’intersection avec la droite d’équation \(t=-1\) se situe alors au centre de la zone encerclée.

En observant cette carte, nous constatons que nous nous trouvons dans un paysage de falaises abruptes. Une représentation tridimensionnelle (plot3d) de ce paysage n’est pour cette raison pas possible en raison des changements d’échelle et la visualisation cartographique en courbes de niveau est vraiment la seule dont nous disposions.

C’est par la voie analytique que nous accédons aux coordonnées concrètes du point recherché. Pour cela, nous considérons la fonction \(x\mapsto \left\|F\left(-1,x\right)\right\|\) et nous déterminons pour quelle valeur de \(x\) celle-ci s’annule. Cette fonction s’interprète géométriquement comme la valeur absolue de la hauteur à laquelle se trouverait une fourmi qui se baladerait le long de la droite rouge.

Balade le long de la ligne rouge du graphique précédent : ça monte et ça descend.

Ci-dessus, le graphe de cette fonction, dont on voit qu’elle s’annule entre \(-1,8\) et \(-1,7\).

Un calcul précis donne \(x_0\approx -1,7618\).

Le théorème des fonctions implicites nous assure que dans un voisinage autour du point \(P(-1;-1,7618)\), nous pouvons décrire la courbe comme le graphe d’une fonction explicite de \(t\), donc donnée sous la forme \[ x=\text{<une expression ne dépendant que de }t> \] Cette expression est justement ce que nous recherchons, à savoir une fonction \(x\ :\ t\mapsto x(t)\) qui soit solution de l’EDO de départ, au moins sur un certain intervalle autour de la valeur choisie \(t=-1\).

Pour obtenir concrètement cette fonction \(x(t)\), nous calculons, grâce au théorème des fonctions implicites, son développement limité de Taylor dans un voisinage autour de \(t=-1\).

La règle de la dérivation en chaîne donne

\[ \begin{array}{cl} & {\left.\frac{d}{dt}\left[F\left(t,x\right)\right]\right|}_{t=-1}={\left.\frac{\partial }{d\partial }\left[F\left(t,x\right)\right]\right|}_{x=x(-1)}\cdot {\left.\frac{dx}{dt}\right|}_{t=-1} \\ \Leftrightarrow & {\left.\frac{dx}{dt}\right|}_{t=-1}=\frac{{\left.\frac{d}{dt}\left[F\left(t,x\right)\right]\right|}_{t=-1}}{{\left.\frac{\partial }{\partial x}\left[F\left(t,x\right)\right]\right|}_{x=x(-1)}}\ , \end{array} \]

et en ne perdant pas de vue que \(t=-1\) et \(x(-1)=-1,7618\) et donc que

\[ \frac{{\left.\frac{d}{dt}\left[F\left(t,x\right)\right]\right|}_{t=-1}}{{\left.\frac{\partial }{\partial x}\left[F\left(t,x\right)\right]\right|}_{x=x\left(-1\right)}}={\left.\frac{\frac{d}{dt}\left[F\left(t,x\right)\right]}{\frac{\partial }{d\partial }\left[F\left(t,x\right)\right]}\right|}_{ \begin{array}{l} t=-1 \\ x=-1,7618 \end{array} }, \]

nous pouvons calculer les dérivées de \(x\) d’ordre \(k\) dont on a besoin pour déterminer le développement limité – disons d’ordre 2 – de Taylor. Les calculs deviennent rapidement pénibles à mesure que l`ordre du développement limité augmente. Un logiciel de calcul formel comme Mathematica ou Maxima (logiciel gratuit) est ici nécessaire et SciLab ne peut aider à calculer les dérivées, n’étant pas conçu dans ce but.

\[ \begin{array}{ll} x\left(-1\right)\ \ =-1,7618 & \\ x'\left(-1\right)\ ={\left.\frac{\frac{d}{dt}\left[F\left(t,x\right)\right]}{\frac{\partial }{\partial x}\left[F\left(t,x\right)\right]}\right|}_{ \begin{array}{l} t=-1 \\ x=-1,7618 \end{array} } & \approx \frac{0.0018240}{-\ 0.0229830}\approx -\ 0.0793616 \begin{array}{c} \begin{array}{c} \\ \\ \end{array} \\ \\ \begin{array}{c} \\ \\ \end{array} \end{array} \\ x''\left(-1\right)={\left.\frac{\frac{d^2}{dt^2}\left[F\left(t,x\right)\right]-\frac{d}{dt}\left[\frac{\partial }{\partial x}F\left(t,x\right)\right]\cdot \frac{dx}{dt}}{\frac{\partial }{\partial x}F\left(t,x\right)}\right|}_{ \begin{array}{l} t=-1 \\ x=-1,7618 \end{array} } & \approx \frac{-\ 0.0197561-\left(-\ 0.0045169\right)\cdot \left(-\ 0.0793616\right)}{-\ 0.0229830\ } \\ \approx 0.8751933 \end{array} \]

Par suite nous pouvons dire qu’au voisinage du point \(P(-1;-1,7618)\) une solution de l’EDO est de la forme (les valeurs obtenues des dérivées de \(x\) en \(-1\) ont été arrondies, tous les chiffres n’étant pas significatifs) :

\[ x\left(t\right)=-1,7618-\ 0,0794\cdot \left(t-1\right)+\frac{0,8752}{2}{\left(t-1\right)}^2+o\left({\left(t-1\right)}^2\right) \]

En d’autres termes : le développement quadratique ci-dessus est une solution de l’EDO au voisinage de \(t=-1\) qui satisfait à la condition initiale \(x(-1)=-1,7618\). Quant à l’expression \(o\left({\left(t-1\right)}^2\right)\), il s’agit du symbole de Landau pour le reste du développement de Taylor.

Dans la mesure où ce problème de Cauchy est un problème bien posé (au sens de Hadamard : une petite variation de la condition initiale n’entraînant pas de trop grande variation de la solution), alors nous pouvons espérer vérifier notre résultat en introduisant le développement limité de \(x\) dans l’EDO et en constatant qu’effectivement cette équation est à peu près satisfaite sans qu’il manque grand-chose, pour ainsi dire, lorsque \(t\) est pris proche du point de développement \(t=-1\). Nous ne faisons pas d’étude quantitative de l’erreur entre la solution exacte et la solution approchée et c’est pourquoi nous ne pouvons ici que rester vagues.

Notons que pour d’autres conditions initiales ou alors pour des valeurs de \(t\) éloignées de \(t=-1\), la solution pourrait avoir une toute autre allure.

En résumé

Nous devinons la pénibilité des calculs16 pour résoudre ce qui n’est en fait qu’une EDO du premier ordre. Nous voyons dans un premier temps comment faire usage de l’outil de substitution afin d’appliquer la méthode de séparation des variables. Puis nous observons comment nous sommes conduits naturellement à passer d’une approche purement analytique à une approche numérique de la question et aussi comment les considérations de l’analyse éclairent les considérations numériques.

Cette approche – sans faire le détour par les composantes réelle et complexe mais en considérant directement la fonction norme de \(F(t,x)\) – permet d’obtenir rapidement le graphe d’une solution ainsi que , plus péniblement, le début de son développement autour d’un point choisi, et ceci, sans connaissance particulière sur les techniques d’intégration puisque cette technique fonctionne tant que l’on dispose d’un programme de calcul comme SciLab permettant de tracer les courbes de niveaux de fonctions de la forme \(F(t,x)\).

Exercices

  1. \(\frac{dx}{dt}=\frac{t^2+x^2}{tx}\) Aide : poser \(u:= \frac{y}{x}\)

  2. \(\frac{dx}{dt}=\frac{t+x}{t-x}\) Aide : la primitive de \(\frac{1}{1+t^2}\) est \({\mathrm{arctan} \left(t\right)\ }\).

  3. \(\frac{dx}{dt}=t^3+x^3-tx\) Aide : c’est une équation de Bernoulli : on commence par diviser tous les termes de l’EDO par \(x^3\) et on continue en recherchant une substitution avantageuse.

  4. \(\frac{dx}{dt}=\frac{x+tx^2}{x}\) Aide : facteur intégrant

Nous essayerons de nous souvenir des techniques de résolution pour chacune de ces EDO données en exercice afin de disposer d’un arsenal de techniques prêtes à servir. Chacune de ces EDO est en effet prototypique d’autant de classes d’EDO du premier ordre qui ont en commun leur technique de résolution.

Il est à noter que, par exemple, l’EDO suivante

\[ \frac{dx}{dt}={3x}^2+5x+3 \]

ne se laisse pas résoudre analytiquement. Il s’agit d’un exemple d’une équation dite de Riccati, de la forme générale

\[ \frac{dx}{dt}={ax}^2+bx+c. \]

Il est à noter également qu’au chapitre des équations de Riccati, il existe un certain nombre de formes générales qui toutes ont la dénomination d’équations de Riccati. Outre la forme donnée ci-dessus, on trouve :

\[ \begin{align*} \frac{dx}{dt} &=& {ax}^2+bt^m, \\ \frac{dx}{dt} &=& {ax}^2+bt+ct^2, \\ \frac{dx}{dt} &=& {at^px}^q+bt^m. \end{align*} \]

Il s’agit d’EDO du premier ordre difficiles voire impossibles à résoudre analytiquement.

EDO scalaires d’ordre supérieur

Nous cherchons une solution de l’EDO scalaire d’ordre 2 suivante :

\[ x''=a_1x'+a_0x\ , \]

avec \(a_1\), \(a_2\) des coefficients constants réels. Nous ne précisons aucune condition initiale.

Cette EDO admet la fonction nulle comme solution; si de plus \(x_1\) et \(x_2\) sont deux solutions particulières de cette EDO, alors toute combinaison linéaire de ces solutions est également solution, si bien que l’ensemble des solutions de cette EDO forme un espace vectoriel. Une telle équation est appelée homogène et se laisse écrire sous la forme générale \(\sum_i{a_ix^{(i)}=0}\).

Posons \(x\left(t\right):= \mathrm{exp}(\lambda t)\) et substituons dans l’EDO :

\[ \begin{eqnarray*} && {-x}''+a_1x'+a_0x=0\ \\ &\Leftrightarrow& {\mathrm{exp} \left(\lambda t\right)\ }\cdot \left(-{\lambda }^2+a_1\lambda +a_2\right)=0 \\ &\Leftrightarrow& -{\lambda }^2+a_1\lambda +a_2=0. \end{eqnarray*} \]

L’expression \(-{\lambda }^2+a_1\lambda +a_2\) est appelée le polynôme caractéristique de l’EDO, noté \(P(\lambda )\).

Les deux zéros \({\lambda }_1\) et \({\lambda }_2\) – que nous supposons ici distincts – du polynôme caractéristique de l’EDO nous fournissent deux solutions particulières \(\mathrm{exp}({\lambda }_1t)\) et \(\mathrm{exp}({\lambda }_2t)\). Par suite, toute expression de la forme

\[ c_1{\mathrm{exp} \left({\lambda }_1t\right)\ }+c_2\mathrm{\ exp}({\lambda }_2t)\,, \] avec \(c_1,c_2\in \mathbb{R}\), est également solution de l’EDO. Réciproquement, toute solution de cette EDO prend cette forme.

Ceci est conséquence du fait17 important que la dimension de l’espace des solutions est donnée par l’ordre de l’EDO, ici 2, et que les solutions \(\mathrm{exp}({\lambda }_1t)\) et \(\mathrm{exp}({\lambda }_2t)\) sont linéairement indépendantes.

Si une condition initiale est précisée, que \(x\left(t_0\right)=x_0\), alors nous posons

\[ x\left(t\right):= x_0\mathrm{\ exp}(\lambda \left(t-t_0\right)) \]

et procédons de façon analogue, le polynôme caractéristique demeurant le même.

Supposons maintenant que le polynôme caractéristique n’a pas deux zéros distincts mais un seul zéro \(\lambda\) réel de multiplicité 2. L’ensemble des solutions reste quant à lui un espace vectoriel de dimension 2 et la question se pose : alors que \(\mathrm{exp}(\lambda t)\) est clairement une solution, comment trouver une autre solution qui en est linéairement indépendante ?18 C’est là un bel exercice pour le lecteur.

Même question si le polynôme possède un zéro complexe. Du fait que les coefficients du polynôme caractéristique sont réels, il suit que ce zéro complexe doit être associé à un autre zéro complexe qui en soit le conjugué complexe, les zéros complexes d’un polynôme à coefficients réels n’existant que par paires de conjugués complexes (dont la somme est alors réelle).

Méthode de la variation des constantes (méthode de Lagrange)

Nous voulons maintenant résoudre l’EDO suivante et montrer à cette occasion comment adapter la méthode de la variation des constantes vue précédemment pour le cas d’une EDO d’ordre 1 à une EDO d’ordre 2 :

\[ \begin{array}{ccc} x''=a_1x'+a_0x+b & & \mathrm{,\ avec}\ b \end{array} \ \text{une constante réelle non nulle.} \]

Nous venons de traiter du cas homogène \(b=0\) et nous nous intéressons au cas général non forcément homogène. Contrairement au cas homogène et du fait de la présence du dernier terme, la fonction nulle ne peut être solution de cette EDO et par conséquent l’ensemble des solutions ne forme plus un espace vectoriel. Une telle équation s’appelle inhomogène.

Nous avons vu que la solution générale de l’équation homogène associée est

\[ c_1{\mathrm{exp} \left({\lambda }_1t\right)\ }+c_2\mathrm{\ exp}({\lambda }_2t), \]

avec \(c_1,c_2\) des constantes réelles et \({\lambda }_1\) et \({\lambda }_2\) les zéros du polynôme caractéristique19. En faisant un raisonnement analogue à celui proposé sous le même titre quelques pages plus haut, nous en arrivons à poser que (Ansatz)

\[ x\left(t\right):= c_1\left(t\right)\cdot {\mathrm{exp} \left({\lambda }_1t\right)\ }+c_2\left(\mathrm{t}\right)\mathrm{\cdot }{\mathrm{exp} \left({\lambda }_2t\right)\ }. \]

Notre stratégie est de substituer dans l’EDO \(x(t)\) par l’Ansatz et d’utiliser le fait que \({\mathrm{exp} \left({\lambda }_1t\right)\ }\) et \({\mathrm{exp} \left({\lambda }_2t\right)\ }\) sont solutions de l’EDO homogène associée, c’est-à-dire que

\[ \begin{array}{cl} & {{{\lambda }_i}^2\mathrm{\ exp} \left({\lambda }_it\right)\ }-a{{\lambda }_i\mathrm{\ exp} \left({\lambda }_it\right)\ }-b{\mathrm{\ exp} \left({\lambda }_it\right)=0\ }\ \\ \Leftrightarrow & \begin{array}{ccc} {{\lambda }_i}^2-a{\ \lambda }_i-b=0 & & \mathrm{,\ pour}\mathrm{\ }i=1,2. \end{array} \end{array} \]

Mais cela ne suffit pas et sans une hypothèse simplificatrice adéquate, les calculs ne donnent rien. Il faut en effet faire en sorte ne pas avoir de dérivée seconde pour les \(c_i\left(t\right)\), \(i=1,2\). C’est pourquoi nous exigeons que20

\[ c'_1\cdot {\mathrm{exp} \left({\lambda }_1t\right)+\ }c'_2\cdot {\mathrm{exp} \left({\lambda }_2t\right)=0\ }. \]

De cette façon en effet, il est possible de déterminer des \(c_i\left(t\right)\) satisfaisants. Menons notre stratégie :

\[ \begin{array}{ccc} x'=\sum_i{{\lambda }_ic_i}{\mathrm{\ exp} \left({\lambda }_it\right)\ }, & & x''=\sum_i{\left({{\lambda }_i}^2c_i+{\lambda }_ic'_i\right)}{\mathrm{\ exp} \left({\lambda }_it\right)\ } \end{array} \]

Substitution dans l’EDO donne :

\[ \sum_i{\left({{\lambda }_i}^2c_i+{\lambda }_ic'_i\right)}{\mathrm{\ exp} \left({\lambda }_it\right)\ }=a\left(\sum_i{{\lambda }_ic_i}{\mathrm{\ exp} \left({\lambda }_it\right)\ }\right)+b\left(\sum_i{c_i}{\mathrm{\ exp} \left({\lambda }_it\right)\ }\right)+c\] \[ \begin{array}{cc} \Leftrightarrow & c+ \end{array} \sum_i{{\mathrm{\ exp} \left({\lambda }_it\right)\ }}\left({{-\lambda }_i}^2c_i-{\lambda }_ic'_i+a{\lambda }_ic_i+bc_i\right)=0. \]

Nous réarrangeons ensuite la parenthèse ci-dessus afin de faire usage du fait que \({{\lambda }_i}^2-a{\ \lambda }_i-b=0\) :

\[ {{-\lambda }_i}^2c_i-{\lambda }_ic'_i+a{\lambda }_ic_i+bc_i={-c_i\cdot {\lambda }_i}^2+\left(ac_i+c'_i\right)\cdot {\lambda }_i+bc_i\] \[=-c_i\underbrace{\left({{\lambda }_i}^2-a{\ \lambda }_i-b\right)}_{=0}-c'_i{\lambda }_i. \]

De là,

\[ \begin{array}{cl} & c+\sum_i{{\mathrm{\ exp} \left({\lambda }_it\right)\ }}\left(-c'_i{\lambda }_i\right)=0 \\ \Leftrightarrow & \sum_i{{\mathrm{\ exp} \left({\lambda }_it\right)\ }}c'_i{\lambda }_i=c. \end{array} \]

Nous recherchons donc \(c_1(t)\) et \(c_2(t)\) satisfaisant au système :

\[ \left\{ \begin{array}{lc} \sum_i{{\mathrm{\ exp} \left({\lambda }_it\right)\ }}c'_i & =0 \\ \sum_i{{\mathrm{\ exp} \left({\lambda }_it\right)\ }}c'_i{\lambda }_i & =c. \end{array} \right. \]

Matriciellement :

\[ \left( \begin{array}{rr} {\mathrm{\ exp} \left({\lambda }_1t\right)\ } & {\mathrm{\ exp} \left({\lambda }_2t\right)\ } \\ {\lambda }_1{\mathrm{\ exp} \left({\lambda }_1t\right)\ } & {\lambda }_2{\mathrm{\ exp} \left({\lambda }_2t\right)\ } \end{array} \right)\left( \begin{array}{c} c'_1 \\ c'_2 \end{array} \right)=\left( \begin{array}{c} 0 \\ c \end{array} \right). \]

La façon la plus expéditive de résoudre cette équation est l’emploi de la formule de Cramer :

\[ \begin{array}{ccc} c'_1(t)=\frac{\mathrm{det}\left( \begin{array}{rr} 0 & {\mathrm{\ exp} \left({\lambda }_2t\right)\ } \\ c & {\lambda }_2{\mathrm{\ exp} \left({\lambda }_2t\right)\ } \end{array} \right)}{W} & \mathrm{,\ o\textrm{\`{u}}} & W:= {\mathrm{det} \left( \begin{array}{rr} {\ exp \left({\lambda }_1t\right)\ } & {\ exp \left({\lambda }_2t\right)\ } \\ {\lambda }_1{\ exp \left({\lambda }_1t\right)\ } & {\lambda }_2{\ exp \left({\lambda }_2t\right)\ } \end{array} \right)\ }. \end{array} \]

\(W\) est le déterminant de Wronski associé au système de solutions linéairement indépendantes \({\mathrm{exp} \left({\lambda }_1t\right)\ }\) et \({\mathrm{exp} \left({\lambda }_2t\right)\ }\). On a que

\[ W={\left({\lambda }_2-{\lambda }_1\right)\cdot exp \left(\left({\lambda }_1+{\lambda }_2\right)t\right)\ }. \]

En poursuivant le calcul,

\[ \begin{array}{ccc} c'_1(t)=\frac{\mathrm{-}\mathrm{c}\mathrm{\cdot }{exp \left({\lambda }_2t\right)\ }}{W} & \Leftarrow & c_1\left(t\right)=-c\int^t_0{\frac{{exp \left({\lambda }_2u\right)\ }}{W}} \end{array} \ du=\frac{c}{\left({\lambda }_2-{\lambda }_1\right){\lambda }_1}\left({\ exp \left({-\lambda }_1t\right)\ }-1\right). \]

Idem pour \(c_2\) :

\[ \begin{array}{ccc} c'_2(t)=\frac{\mathrm{det}\left( \begin{array}{rr} {\ exp \left({\lambda }_1t\right)\ } & 0 \\ {\lambda }_1{\ exp \left({\lambda }_1t\right)\ } & c \end{array} \right)}{W} & \Leftarrow & c_2\left(t\right)=\frac{-c}{\left({\lambda }_1+{\lambda }_2\right){\lambda }_2}\left({\ exp \left({-\lambda }_2t\right)\ }-1\right). \end{array} \]

On vérifie que

\[ x\left(t\right)=c_1\left(t\right)\cdot {\mathrm{exp} \left({\lambda }_1t\right)\ }+c_2\left(\mathrm{t}\right)\mathrm{\cdot }{\mathrm{exp} \left({\lambda }_2t\right)\ } \]

est bien une solution particulière de l’EDO.

La méthode de la variation des constantes fonctionne pour toute EDO linéaire à coefficients constants. Il est à noter qu’il en existe une variante plus simple mais qui ne fournit une solution qu’à partir d’un système de solutions du système homogène associé. Cette méthode a l’avantage de fonctionner même si l’EDO linéaire n’est pas à coefficients constants. C’est la méthode telle que présentée dans la littérature introductive moderne et faisant usage de la notion de matrice résolvante.

A partir d’une solution particulière obtenue par cette méthode, toutes les autres solutions de l’EDO s’obtiennent en y additionnant une solution de l’EDO homogène associée. L’ensemble des solutions forme en effet un hyperplan.

Réduction au premier ordre

Nous pouvons ramener toute EDO d’ordre supérieur à une EDO du premier ordre. Nous en faisons la démonstration explicite pour le cas d’une EDO linéaire d’ordre 2, le cas général étant facile à induire.

Considérons à nouveau l’EDO

\[ x''=a_1x'+a_0x+b. \]

En posant

\[ \begin{array}{l} x_1:= x \\ x_2:= x'\ , \end{array} \]

nous pouvons exprimer l’EDO du second ordre ci-dessus comme un système de deux EDO du premier ordre :

\[ \left\{ \begin{array}{ll} x'_1=x_2 & \\ x'_2=a_1x_2+a_0x_1+b. & \end{array} \right. \]

En posant

\[ X:= \left( \begin{array}{c} x_1 \\ x_2 \end{array} \right), \]

\[ B:= \left( \begin{array}{c} 0 \\ b \end{array} \right) \] et

\[ A:= \left( \begin{array}{cc} 0 & 1 \\ a_0 & a_1 \end{array} \right), \]

nous reécrivons ce système comme

\[ X'=AX+B. \]

L’étude des EDO scalaires d’ordre supérieur nous conduit donc à considérer les EDO vectorielles du premier ordre. Pour ces EDO, nous avons les mêmes résultats fondamentaux que ceux que nous avons obtenus précédemment dans le cas scalaire.

La méthode itérative présentée tout au début de ce cours fonctionne en effet comme dans le cas scalaire et c’est justement cette méthode qui permet d’obtenir les deux résultats fondamentaux que sont d’une part l’unicité de la solution et d’autre part la forme exponentielle de la solution générale d’une d’EDO linéaire homogène d’ordre 1. Nous démontrons ce dernier point :

Soit la suite définie par la relation récursive suivante (\(B\) est ici nul) :

\[ X_{n+1}\left(t\right)=X_0+\int^t_{t_0}{\left(A{\cdot X}_n\left(u\right)+B\right)\ du}=X_0+A\int^t_{t_0}{X_n\left(u\right)\ du}. \]

\[ \begin{eqnarray*} X_0 &=& \mathrm{constante}\ , \\ X_1 &=& X_0+A\int^t_{t_0}{X_0\ du}=X_0 &+& A{\cdot X}_0\left(t-t_0\right)\ , \\ X_2 &=& X_0+A\int^t_{t_0}{X_1\left(u\right)\ du} &=& X_0+A\cdot \left(X_0\left(t-t_0\right)+A\cdot X_0\frac{{\left(t-t_0\right)}^2}{2}\right) \\ && &=& X_0+{A\cdot X}_0\left(t-t_0\right)+A^2\cdot X_0\frac{{\left(t-t_0\right)}^2}{2} \\ \vdots \end{eqnarray*} \]

De ces calculs, nous induisons l’hypothèse suivante, que nous allons immédiatement nous attacher à prouver.

\[ X_n=\sum^n_{i=0}{A^i\cdot X_0\frac{{\left(t-t_0\right)}^i}{i!}} \]

Preuve (par récurrence) :

  • Point d’ancrage : \(X_0=A^0\cdot X_0\frac{{\left(t-t_0\right)}^0}{0!}=X_0\)
  • Pas de récurrence :

\[ \begin{array}{rl} X_{n+1}= & X_0+A\int^t_{t_0}{X_n\left(u\right)\ du}=X_0+A\int^t_{t_0}{\left(\sum^n_{i=0}{A^i\cdot X_0\frac{{\left(t-t_0\right)}^i}{i!}}\right)\ du} \\ = & X_0+A\sum^n_{i=0}{A^i\cdot X_0\int^t_{t_0}{\frac{{\left(u-t_0\right)}^i}{i!}}}\ du=X_0+\sum^n_{i=0}{A^{i+1}\cdot X_0}\frac{{\left(t-t_0\right)}^{i+1}}{\left(i+1\right)!} \\ = & X_0+\sum^{n+1}_{i=1}{A^i\cdot X_0}\frac{{\left(t-t_0\right)}^i}{i!}=\sum^{n+1}_{i=0}{A^i\cdot X_0}\frac{{\left(t-t_0\right)}^i}{i!} \end{array} \]

Finalement nous constatons que

\[ {\mathop{\mathrm{lim}}_{n\to \infty } \left(\sum^n_{i=0}{A^i\cdot X_0\frac{{\left(t-t_0\right)}^i}{i!}}\right)\ }=x_0\mathrm{\cdot }\mathrm{exp}(a(t-t_0)), \]

ce qui achève la démonstration du fait que la solution générale d’une d’EDO linéaire homogène d’ordre 1, vectorielle ou scalaire, est une exponentielle.

Exemple :

Soit

\[ \left\{\begin{array}{l} {X(t)}'=AX(t)+B \\ X\left(t_0\right)=X_0 \end{array} \right. \\ \]

\[ \text{avec } A:= \left( \begin{array}{cc} 1 & 2 \\ 1 & 3 \end{array} \right)\text{, } X_0:= \left( \begin{array}{c} 1 \\ 1 \end{array} \right)\text{, } t_0:= 3 \text{ et } B:= \left( \begin{array}{c} 0 \\ 0 \end{array} \right). \]

\[ \begin{eqnarray*} X_0 &=& \left( \begin{array}{c} 1 \\ 1 \end{array} \right)\ , \\ X_1 &=& \left( \begin{array}{c} 1 \\ 1 \end{array} \right)+\int^t_3{\left( \begin{array}{cc} 1 & 2 \\ 1 & 3 \end{array} \right) \cdot \left( \begin{array}{c} 1 \\ 1 \end{array} \right)\ du} \\ &=& \left( \begin{array}{c} 1 \\ 1 \end{array} \right) + \left( \begin{array}{c} \int^t_3{3\ du} \\ \int^t_3{4\ du} \end{array} \right) \\ &=& \ \left( \begin{array}{c} 1+3(t-3) \\ 1+4(t-3) \end{array} \right) \\ &=& \left( \begin{array}{l} 3t-8 \\ 4t-11 \end{array} \right), \\ \\ X_2 &=& \left( \begin{array}{c} 1 \\ 1 \end{array} \right) +\int^t_3{ \left( \begin{array}{cc} 1 & 2 \\ 1 & 3 \end{array} \right) \cdot \left( \begin{array}{l} 3t-8 \\ 4t-11 \end{array} \right) \ du} \\ &=& \left( \begin{array}{l} \frac{11}{2}t^2-30t+\frac{83}{2} \\ \frac{9}{2}t^2-24t+\frac{65}{2} \end{array} \right) \ , \\ &\vdots& \end{eqnarray*} \]

Cette suite tend vers \(X_0\mathrm{\ exp}(A\cdot (t-t_0))\) puisqu’ici \(B=0\).

La prochaine grande question est celle du calcul efficace de l’exponentielle d’une matrice carrée. Sa résolution dépasse largement le cadre de cette introduction aux EDO. Nous donnons néanmoins la façon probablement la plus efficace de faire ce calcul : employer l’algorithme de Putzer.

Monsieur Putzer a en effet développé en 1966 un algorithme révolutionnaire qui n’exige que le calcul des valeurs propres, alors que les autres algorithmes exigent en outre de connaître les espaces propres. En particulier, l’algorithme révolutionnaire de Putzer permet d’éviter de devoir mettre la matrice sous la forme normale de Jordan. Bizarrement, cet algorithme est largement méconnu21.

Pour aller plus loin

La méthode de la variation des constantes telle que présentée dans ce texte fournit directement une solution particulière à toute EDO linéaire non homogène d’ordre 2 lorsque les coefficients sont constants. Les autres solutions s’obtiennent alors en ajoutant à cette solution particulière – qui n’est généralement pas la plus simple – une solution de l’EDO homogène correspondante, solution que l’on détermine à l’aide du polynôme caractéristique comme nous venons de le voir.

Dans le cas où les coefficients de l’EDO linéaire non homogène ne sont plus supposés constants mais que l’EDO est d’ordre 1, il existe une forme de la méthode de la variation des constantes qui fournit une solution particulière de l’EDO non homogène à partir d’une quelconque base de l’espace des solutions de l’EDO homogène associée, base qu’on appelle un système fondamental de l’EDO. Le problème de la détermination d’une solution particulière d’une EDO linéaire non homogène est ainsi ramené à celui de la détermination d’un système fondamental de cette EDO.

Cette variante de la méthode de la variation des constantes se démontre plus simplement que celle que j’ai présentée ci-dessus mais il ne faut pas s’y méprendre car il s’agit en fait d’une affirmation différente. Tandis que la méthode présentée fournit directement une solution particulière à l’EDO inhomogène, cette méthode-là se limite à fournir une solution en fonction d’un système fondamental et évacue ainsi une part importante du problème. En fait, elle a le mérite de faire la part des choses en divisant un problème en deux sous-problèmes.

Il est en effet possible de construire une théorie introductive aux EDO linéaires du premier ordre à partir de la considération qu’une solution dépend de la condition initiale de façon linéaire. Le questionnement qui fonde cette approche porte sur les liens qui existent entre les objets considérés, en l’occurrence sur la façon dont dépend une solution de sa condition initiale, et est un raisonnement abstrait. Il s’agit en fait d’une métaréflexion qui présuppose de s’être auparavant tenu des questionnements plus directs et c’est pourquoi je l’ai évitée dans ce texte introductif.

L’accès aux résultats avancés de la théorie des EDO linéaires ne s’obtient par contre que par la considération qu’une solution dépend de la condition initiale de façon linéaire.

Donnons-nous un problème de Cauchy et notons \(x\left(t,t_0,x_0\right)\) la solution qui satisfait à la condition initiale \(x\left(t_0\right)=x_0\). Il existe alors une application linéaire \({r\ :x}_0\mapsto x\left(t,t_0,x_0\right)\) et donc aussi, pour une base donnée, une matrice \(R\) telle que \(x\left(t,t_0,x_0\right)=R\left(t,t_0\right)x_0\). Nous appelons \(R\) la matrice résolvante de l’EDO. Si nous connaissons cette matrice, nous connaissons grâce à la méthode de la variation des constantes toutes les solutions de l’EDO. Cette méthode est présentée un peu plus loin.

Soit d’autre part un système fondamental \(\left\{u_i(t),\ \ \ i=1,\cdots ,n\right\}\) de l’EDO et une permutation \(\sigma \ :\ \left\{1,\cdots ,n\right\}\mapsto \left\{1,\cdots ,n\right\}\). La matrice \(U(t):= {\left(u_{\sigma \left(i\right)}(t)\right)}_{i=1,\cdots ,n}\) dont les vecteurs-colonnes sont des vecteurs du système fondamental est appelée une matrice fondamentale de l’EDO. Cette matrice est inversible et nous pouvons montrer que \(R\left(t,s\right)=U\left(t\right)U^{-1}\left(s\right)\). Or comment déterminer une base de solutions de l’EDO homogène associée, de façon à connaître une matrice fondamentale \(U\) ?

Dans le cas de l’ordre 2, nous avons un résultat important. Lorsque nous connaissons une solution d’une EDO linéaire homogène d’ordre 2, nous pouvons en connaître une seconde qui en soit linéairement indépendante, de façon que la connaissance d’une seule solution particulière suffit à fournir une base de l’espace des solutions.

Soit en effet \(u(t)\) une solution connue de l’EDO linéaire homogène \(x'\left(t\right)=a\left(t\right)x\left(t\right)\). C’est en supposant (Ansatz) qu’il existe une solution \(v(t)\) de la forme \(u(t)\cdot f(t)\), pour \(f\) une fonction à déterminer, que nous trouvons, à partir de \(u\), une autre solution de l’EDO qui en est linéairement indépendante. Les étapes de la détermination de \(f\) sont : substitution dans l’EDO linéaire homogène ci-dessus de \(x(t)\) par l’Ansatz, obtention une équation qui est une EDO linéaire du premier ordre pour la fonction inconnue \(f'\), résolution et intégration pour avoir \(f\), puis finalement calcul de \(v(t)\).

Quant à la détermination d’une première solution de l’EDO homogène, il n’y a pas de formule miracle et chaque cas est particulier et parfois très ardu. Mais dans bien des cas nous pouvons commencer par supposer (Ansatz) que la solution recherchée est une série entière ou alors une série de Laurent (avec par exemple une restriction sur l’ordre des pôles). L’idée est alors de procéder par comparaison de coefficients et par induction, en repérant par exemple une régularité dans le passage du coefficient d’un terme de la série entière au suivant, de façon à trouver une expression récursive générale d’un coefficient en fonction du ou des précédents.

Il est maintenant temps de présenter cette méthode de la variation des constantes qui emploie la matrice résolvante pour fournir une solution particulière de l’EDO.

Encore une fois la variation des constantes

Soit une base \(\left\{u_i(t)\right\}\) de l’espace des solutions de l’EDO linéaire homogène associée à l’EDO inhomogène à résoudre. La matrice \(\left(u_i\right)\) formée des vecteurs-colonne \(u_i\) est une matrice inversible que nous dénotons par \(U(t)\). C’est ce qu’on appelle une matrice fondamentale de l’EDO.

Que se passe-t-il si nous nous donnons une solution \(u(t)\) à notre EDO linéaire et que nous faisons varier la condition initiale \(x_0\) ? On observe alors que cette solution dépend linéairement de la condition initiale. Nous notons \(x\left(t,t_0,x_0\right)\) la solution de l’EDO qui satisfasse à la condition initiale \(x\left(t_0\right)=x_0\). La solution \(x\left(t,t_0,x_0\right)\) est un vecteur-colonne. Soit une autre solution \(x\left(t,t_0,y_0\right)\); il existe ainsi une matrice carrée \(R(y_0,x_0)\) telle que \(x\left(t,t_0,x_0\right)=R(y_0,x_0)\ x\left(t,t_0,y_0\right)\). On a logiquement que \(R\left(y_0,y_0\right)=Id\).

A la place d’une seule solution, on peut aussi considérer toute une matrice fondamentale, dont chaque colonne est une solution, et on a que \(U\left(s\right)=R(t,s)U\left(t\right)\), donc que \(U\left(s\right)U^{-1}\left(t\right)=R(t,s)\). On a de plus la transitivité \(R\left(t,s\right)R(s,r)=R(t,r)\). On en déduit que \({R(t,s)}^{-1}=R\left(s,t\right)\).

Variation des constantes : On se donne une matrice fondamentale \(U\) de l’EDO linéaire inhomogène dont on veut une solution particulière. L’EDO est du premier ordre, donc le problème de Cauchy est donné par

\[ \left\{ \begin{array}{l} x'\left(t\right)=a\left(t\right)x+b(t), \\ x\left(t_0\right)=x_0.\ \end{array} \right. \]

La solution de l’EDO homogène associée est \(R\left(t,t_0\right)x_0\). Nous faisons varier la constante \(x_0\) en la remplaçant par une fonction \(c(t)\). Nous posons ainsi que \(x\left(t\right)=R\left(t,t_0\right)c(t)\). De là, et puisque \(\frac{d}{dt}R\left(t,t_0\right)=a\left(t\right)R\left(t,t_0\right)\),

\[ x'\left(t\right)=\underbrace{a\left(t\right)R\left(t,t_0\right)}_{=\frac{d}{dt}R\left(t,t_0\right)}c\left(t\right)+R\left(t,t_0\right)c'\left(t\right). \]

L’EDO devient

\[ \begin{array}{cl} & \underbrace{R\left(t,t_0\right)\cdot \left(a\left(t\right)c\left(t\right)+c'\left(t\right)\right)}_{=x'\left(t\right)}=a\left(t\right)R\left(t,t_0\right)c\left(t\right)+b(t) \\ \Leftrightarrow & \frac{d}{dt}R\left(t,t_0\right)c'\left(t\right)=b(t) \end{array} \]

\[ \begin{array}{cl} & \underbrace{R\left(t,t_0\right)\cdot \left(a\left(t\right)c\left(t\right)+c'\left(t\right)\right)}_{=x'\left(t\right)}=a\left(t\right)R\left(t,t_0\right)c\left(t\right)+b(t) \\ \Leftrightarrow & R\left(t,t_0\right)c'\left(t\right)=b(t) \\ \Leftrightarrow & c'\left(t\right)=\underbrace{R\left(t_0,t\right)}_{=R^{-1}\left(t,t_0\right)}b\left(t\right), \end{array} \]

et donc \(c\left(t\right)=\int^t_{t_0}{R\left(t_0,s\right)}b\left(s\right)ds\).

De là,

\[ x\left(t\right)=R\left(t,t_0\right)c\left(t\right)=\int^t_{t_0}{R\left(t,t_0\right)R\left(t_0,s\right)}b\left(s\right)ds=\int^t_{t_0}{R\left(t,s\right)}b\left(s\right)ds. \]

Ce raisonnement est en tout point analogue à celui présenté en début de cours.

La méthode de la variation des constantes donne donc \[ x\left(t\right)=\int^t_{t_0}{R\left(t,s\right)B\left(s\right)\ ds} \]

comme la solution générale de l’EDO linéaire inhomogène vectorielle \(x'=A\left(t\right)x+B(t)\) d’ordre 1. Dans le cas important d’une EDO linéaire scalaire d’ordre 2 de la forme

\[ x''=a_1x'+a_0x+b, \]

nous recherchons une formule pour une solution particulière. Pour cela, nous commençons par exprimer cette EDO scalaire d’ordre 2 comme une EDO vectorielle d’ordre 1. Puisque \(R\left(t,s\right)=U\left(t\right)U^{-1}\left(s\right)\), nous calculons ensuite \(U^{-1}\) et remarquons que, pour

\[ U\left(t\right)=\left( \begin{array}{cc} u_1(t) & u_2(t) \\ u_1'(t) & u_2'(t) \end{array} \right), \]

l’inverse \(U^{-1}\) est égal à

\[ \frac{1}{W(t)}\left( \begin{array}{cc} u_2'(t) & {-u}_2(t) \\ {-u}_1'(t) & u_1(t) \end{array} \right), \]

\(W(t)\) est le déterminant de Wronski de \(U\), appelé également wronskien. Un calcul montre que

\[ U\left(t\right)U^{-1}\left(s\right)B\left(s\right)=\frac{1}{W\left(s\right)}\left(u_1\left(s\right)u_2\left(t\right)-u_1(t)u_2(s)\right)\cdot b\left(s\right). \]

La formule recherchée est donc

\[ x\left(t\right)=\int^t_{t_0}{\frac{1}{W\left(s\right)}\left(u_1\left(s\right)u_2\left(t\right)-u_1(t)u_2(s)\right)\cdot b\left(s\right)\ ds}. \]

Le calcul du wronskien \(W\) ne nécessite pas même de connaître de matrice fondamentale. Dans le cas d’une EDO d’ordre 2 en effet,

\[ W\left(t\right)=W\left(t_0\right){\mathrm{exp} \left(-\int^t_{t_0}{a_1\left(s\right)\ ds}\right)\ }. \]

Nous obtenons cette formule en résolvant l’EDO

\[ W'\left(t\right)=a_1\left(t\right)W\left(t\right), \]

elle-même obtenue en dérivant

\[ {W\left(t\right)=\mathrm{det} \left( \begin{array}{cc} u_1(t) & u_2(t) \\ u_1'(t) & u_2'(t) \end{array} \right)\ }=u_1\left(t\right)u'_2\left(t\right)-u'_1\left(t\right)u_2\left(t\right), \]

ce qui donne

\[ {\mathrm{det} \left( \begin{array}{cc} u_1(t) & u_2(t) \\ u_1''(t) & u_2''(t) \end{array} \right)\ }, \]

puis en exploitant le fait que les \(u_i(t)\), \(i=1,2\), soient solutions de l’EDO homogène et donc que

\[ {u_i}''=a_1{u_i}'+a_0u_i. \]

Cela donne

\[ {\mathrm{det} \left( \begin{array}{cc} u_1 & u_2 \\ a_1{u_1}'+a_0u_1 & a_1{u_2}'+a_0u_2 \end{array} \right)\ }={\mathrm{det} \left( \begin{array}{cc} u_1 & u_2 \\ a_1{u_1}' & a_1{u_2}' \end{array} \right)\ }={a_1\mathrm{\cdot }\mathrm{det} \left( \begin{array}{cc} u_1 & u_2 \\ {u_1}' & {u_2}' \end{array} \right)\ }. \]

Il reste à considérer quelques EDO du premier ordre qui ne sont pas linéaires. Parmi celles-ci, l’équation de Riccati vaut le détour historique : Comment poser cette équation ? Comment la résoudre ? Plus généralement, l’histoire de la résolution graphique des EDO vaut son pesant d’or car les plus grands du XVIIIe siècle s’y sont attelés : Huygens, Leibniz, les frères Jean et Jacques Bernoulli, Euler, Riccati père et fils, Poleni. A cette époque en effet, résoudre une EDO signifiait en tracer la courbe représentative, idéalement à l’aide de la règle et du compas, puis à l’aide de courbes spéciales appelées tractrices, à propos desquelles Vicenzo Riccati (le fils) montrera que toute EDO (parmi celles connues à l’époque) se laisse dessiner de façon non approchée mais exacte à l’aide de tractrices (1752)22.

Enfin, nous serons avisés de nous intéresser à ce qui est probablement la plus importante EDO linéaire homogène du deuxième ordre à coefficients non constants, la fameuse équation de Bessel23. Cette EDO décrit nombre de phénomènes ayant trait à la propagation des ondes : vibration d’une membrane dont le bord est un cercle, propagation des ondes électromagnétiques dans un câble, des ondes sonores dans un tuyau d’orgue, etc. La technique de sa résolution est particulièrement instructive24, faisant appel aux séries entières (fonctions holomorphes).


  1. Du nom du grand mathématicien français du XIXe Augustin Cauchy, fondateur de l’analyse telle qu’on la connaît actuellement. Pour comprendre pourquoi on parle de problème de Cauchy pour désigner cette classe de problèmes, voir par ex. l’article de Jean Mawhin : Problème de Cauchy pour les équations différentielles et théorie de l’intégration : influences mutuelles, in : Cahiers du séminaire d’histoire des mathématiques, tome 9, 1988, pp. 231-246↩︎

  2. Ici, il s’agit de deux droites délimitant un angle. Mais de façon générale, \(x(t)\) pouvant être une fonction vectorielle :\(t\mapsto x\left(t\right)=(x_1\left(t\right),{\cdots ,x}_n(t))\) de dimension \(n\), le graphe est de dimension \(n+1\). Dans ce cas de dimension générale, les mathématiciens emploient les termes en usage pour la dimension de l’espace \((n=3)\). Ainsi parle-t-on non pas de carrés mais de cubes, non pas de cercles mais de sphères, etc. C’est pourquoi nous parlons ici d’un cône, qui détermine un angle solide tout comme deux droites peuvent déterminer un angle.}↩︎

  3. Car cette équation signifie que \(x\) reste inchangé après avoir subi la transformation \(\varphi\).↩︎

  4. La série qui définit l’exponentielle est réputée converger très rapidement. En général, la vitesse de convergence de la méthode itérative dépend de la forme de l’EDO. Mais chaque étape coûte cher en calculs.↩︎

  5. Il semble que la façon de poser la plupart des équations différentielles consiste historiquement à considérer des éléments infinitésimaux avec lesquels on calcule. C’est ce que font d’ailleurs les physiciens. Le manque de rigueur provient du fait que le numérateur et le dénominateur d’un quotient \(\frac{dy}{dx}\) n’ont pas de sens en soi (à part d’être des formes linéaires, notion d’algèbre avancée) dans la présentation actuellement admise comme formellement correcte d’un cours d’analyse. Le symbole \(\frac{dy}{dx}\) ne fait sens que pris comme un tout et exprime alors la dérivée \(y'(x)\).↩︎

  6. La fonction \(x\) est donnée ici implicitement par l’équation du cercle et dans un voisinage d’un point de celui-ci, un cercle dans son entier ne pouvant jamais être le graphe d’aucune fonction.↩︎

  7. Ce facteur, qui permet la résolution de l’EDO, est dit intégrant puisque intégrer une EDO signifie la résoudre.↩︎

  8. Puisque L’EDO est \(x'\left(t\right)-a\left(t\right)x\left(t\right)=b\left(t\right)\).↩︎

  9. C’est sans doute là un affreux germanisme. Mais je préfère écrire «Ansatz» plutôt que «hypothèse sur la forme que prend» telle fonction.↩︎

  10. Nous prenons soin de changer le nom de la nouvelle variable de façon à ne pas confondre la constante et la variable, celle-ci prenant la valeur de celle-là pour un \(t_0\). Nous ne voulons en effet pas noter \(x_0\left(t_0\right)=x_0\).↩︎

  11. Cette technique basique sert à décomposer une fonction rationnelle (un quotient de deux polynômes à coefficients réels) en somme de fractions simples. On distingue selon que les zéros du dénominateur sont réels ou complexes (auquel cas –et en raison du fait que les coefficients du dénominateur sont réels– ceux-ci existent par paires de conjugués complexes dont la somme est alors réelle) et selon leur multiplicité. A chaque racine réelle respectivement à chaque paire de racines conjuguées complexes du dénominateur correspond une fraction partielle, que l’on peut intégrer une à une (C’est l’avantage !). L’intégrale d’une fraction partielle est soit une fraction rationnelle (si la racine correspondante est de multiplicité > 1, soit un logarithme (si la racine est réelle et de multiplicité 1), soit une arctangente (pour une paire de conjugués complexes).↩︎

  12. Au vu de la difficulté de la tâche d’explicitation, nous ferons appel au théorème des fonctions implicites afin de déterminer au moins localement une expression explicite de \(x\) en fonction de \(t\).↩︎

  13. Pour les calculs numériques, nous posons que \(C=1\).↩︎

  14. A propos de la précision graphique : ces courbes de niveaux ont été tracées par le logiciel libre SciLab à partir d’un nuage de points généré par une matrice de dimensions \(1000\times 1000\).↩︎

  15. De cela, nous nous en rendons compte en dessinant la fonction \(x\mapsto Im\left(F(a,x)\right)\), pour \(a=-1\) par exemple.↩︎

  16. Nous ne réalisons cette pénibilité qu’en voyant le code SciLab et les essais-erreurs nécessités pour se rendre compte des particularités de la fonction \(F\mathrm{:}\mathbb{R}\mathrm{\times }\mathbb{R}\to \mathbb{C}; F:(t,x)\mapsto F(t,x)\) ainsi que de sa norme. Mais cette pénibilité n’est pas tant liée à l’EDO particulière considérée ici qu’à l’effort nécessaire à prendre en main la méthode d’explicitation locale d’une fonction implicite et celle de la syntaxe du logiciel SciLab.↩︎

  17. Preuve : On sait que la condition initiale – i.e. le fait que la courbe représentative de \(x\) passe par tel point \((t_0,x_0)\) du plan \(Oxt\) – détermine une solution d’une EDO du premier ordre de façon unique, puisqu’il passe exactement une courbe par un point donné du plan \(Oxt\) (tant que ce point reste dans le domaine de définition de \(f(x\left(t\right),t)\), bien entendu). Or toute EDO scalaire d’ordre supérieur à 1 se laisse ramener à une EDO d’ordre 1 vectorielle (cas important traité plus loin dans ce texte), avec la dimension vectorielle égale à l’ordre de l’EDO. La solution unique vit alors dans cet espace et dépend linéairement de la condition initiale. Or la condition initiale prescrivant à la courbe représentative de \(x\) de passer par tel point \((t_0,x_0)\) ne détermine pas de façon unique de vecteur position dans cet espace vectoriel car pour cela il faut indiquer toutes les dérivées, chacune déterminant une dimension de cet espace.↩︎

  18. On sait qu’une seconde solution est \(t\ \mathrm{exp}(\lambda t)\) et on peut aisément le vérifier. La question ici est : par quel raisonnement trouve-t-on cette solution ?↩︎

  19. Zéros que nous supposons distincts pour faire simple.↩︎

  20. Voir N. Piskounov : Calcul différentiel et intégral, tome 2, p. 92, aux éditions Ellipses↩︎

  21. https://proofwiki.org/wiki/Putzer_Algorithm, article repris de l’article original, inaccessible sans abonnement à la revue de publication : Avoiding the Jordan canonical form in the discussion of linear systems with constants coefficients, American Mathematical Monthly, 73, (1966), pp. 2–7.↩︎

  22. Dominique Tournès : La construction tractionnelle des équations différentielles dans la première moitié du XVIII$e siècle, séminaire «Histoire de géométries», 2007 (14 pages, disponible sur le net)↩︎

  23. Il existe une bible sur le sujet : G. N. Watson : A treatise on the theory of Bessel functions, Cambridge University Press, 2nd ed. 1966. On y apprend beaucoup sur l’histoire de la résolution de l’équation de Bessel, de ses liens avec celle de Riccati, de l’apport respectif des Jacques, Jean et Daniel Bernoulli, Euler, Bessel, etc. Pour comprendre comment on pose l’équation de Bessel à partir de considérations sur une membrane vibrante, voir Frank Bowman : Introduction to Bessel functions, Dover Publications Inc. New York, 1958, pages 20 et suivantes. Ce livre est présenté par son auteur comme une introduction à la bible de G. N. Watson.↩︎

  24. Voir l’excellent livre de Srishti D. Chatterji : Cours d’analyse 3. Equations différentielles ordinaires et aux dérivées partielles, aux presses polytechniques et universitaires romandes, pages 98 et suivantes.↩︎