\begin{multicols}{2}[\centering{\large\textbf{Définitions}}] \begin{tabu}to 0.5\textwidth{ |X| } \hline \textbf{Méthodes numériques~:} \newline \underline{Définitions~:} \newline $ \begin{aligned} &F \left( x, d \right) = 0 \text{ un problème } \\ &F_n \left( x_n, d_n \right) = 0 \comma n > 1 \text{ une suite de problèmes } \\ &x = G \left( d \right) \text{ t.q } F \left( G \left( d \right), d \right) = 0 \text{ une application résolvante } \\ &x_n \rightarrow x \text{ pour } n \rightarrow \infty \\ &d_n \rightarrow d \text{ pour } n \rightarrow \infty \\ &F_n \text{ approche } F \text{ pour } n \rightarrow \infty \end{aligned} $ \newline \underline{Consistance~:} \newline $ \begin{aligned} &\text{La méthode numérique (} P_n \text{) est consistante si} \\ &F_n \left( x_n, d_n \right) - F \left( x, d \right) \rightarrow 0 \text{ pour } n \rightarrow \infty \\ &\text{où } x \text{ est la solution du problème (} P \text{) correspondant à la donnée } d \\ \end{aligned} $ \newline \underline{Stabilité~:} \newline $ \begin{aligned} &\text{Une méthode numérique est bien posée (ou stable) s’il existe, pour tout } n \text{ une unique} \\ &\text{solution } x_n \text{ correspondant à la donnée } d_n \text{ et si } x_n \text{ dépend continûment des données, i.e.} \\ &\forall d_n, \exists \eta_0 = \eta_0 \left( d_n \right) > 0 \comma \exists K_0 = K_0 \left( \eta_0, d_n \right) \text{t.q} \\ &\forall \delta d_n~: \norm{\delta d_n} \leq \eta_0 \rightarrow \norm{\delta x_n} \leq K_0 \cdot \norm{\delta d_n} \end{aligned} $ \newline \underline{Convergence~:} \newline $ \begin{aligned} &\text{Si le problème numérique (} P_n \text{) est consistant avec le problème (} P \text{), alors il est} \\ &\text{convergent si, et seulement si, il est stable} \end{aligned} $ \\\hline \end{tabu} \end{multicols} \newpage \begin{multicols}{2}[\centering{\large\textbf{Équations non-linéaires}}] \begin{tabu}to 0.5\textwidth{ |X| } \hline \textbf{Dichotomie ou bissection} \newline \underline{Conditions~:} \newline $ \begin{aligned} &f \left( a \right) \cdot f \left( b \right) < 0 \text{ et } f \left( x \right) \text{ continue sur } \left[ a;b \right] \\ &k \in \symbb{N} \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &x^{\left( k \right)} = \frac{a^{\left( k \right)} + b^{\left( k \right)}}{2} \\ &\text{Si } f \left( x^{\left( k \right)} \right) = 0 \qquad \text{ fin} \\ &\text{Si } f \left( x^{\left( k \right)} \right) \cdot f \left( a \right) < 0 \comma a^{\left( k+1 \right)} = a^{\left( k \right)} \text{ et } b^{\left( k+1 \right)} = x^{\left( k \right)} \\ &\text{Si } f \left( x^{\left( k \right)} \right) \cdot f \left( b \right) < 0 \comma a^{\left( k+1 \right)} = x^{\left( k \right)} \text{ et } b^{\left( k+1 \right)} = b^{\left( k \right)} \end{aligned} $ \newline \underline{Erreur~:} \newline $ \begin{aligned} & \abs{\e^{\left( k \right)}} = \abs{x^{\left( k \right)} - \alpha} \leq \frac{b - a}{2^{k+1}} \end{aligned} $ \\\hline \textbf{Méthode de Newton} \newline \underline{Conditions~:} \newline $ \begin{aligned} &f \left( x \right) \text{ dérivable } \\ &k \in \symbb{N} \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &x^{\left( k+1 \right)} = x^{\left( k \right)} - \frac{f \left( x^{\left( k \right)} \right)}{f' \left( x^{\left( k \right)} \right)} \end{aligned} $ \newline \underline{Convergence locale~:} \newline $ \begin{aligned} &\text{Si } f \left( x \right) \text{ continue et deux fois dérivable sur } \left[ a;b \right] \\ &\text{Si } f \left( \alpha \right) = 0 \text{ et } f' \left( \alpha \right) \neq 0 \\ &\text{Alors } \exists \delta > 0 \text{ t.q. si } \abs{x^{\left( 0 \right)} - \alpha} \leq \delta \text{, la méthode converge} \\ &\text{Alors } \lim_{k \to \infty}{\frac{x^{\left( k+1 \right)} - \alpha}{\left( x^{\left( k \right)} - \alpha \right)^2}} = \frac{f'' \left( \alpha \right)}{2 \cdot f' \left( \alpha \right)} \qquad \text{ (ordre 2)} \end{aligned} $ \\\hline \textbf{Point fixe} \newline \underline{Conditions~:} \newline $ \begin{aligned} &\phi \left( \alpha \right) = \alpha \quad \Leftrightarrow \quad f \left( \alpha \right) = 0 \comma x^{\left( k \right)} \rightarrow \alpha \text{ et } \phi \left( x \right) \text{ continue sur } \left[ a;b \right] \\ &k \in \symbb{N} \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &x^{\left( k+1 \right)} = \phi \left( x^{\left( k \right)} \right) \end{aligned} $ \newline \underline{Convergence globale~:} \newline $ \begin{aligned} &\text{Si } \phi \left( x \right) \text{ continue sur } \left[ a;b \right] \\ &\text{Si } \phi \left( x \right) \in \left[ a;b \right] &&\forall x \in \left[ a;b \right] \\ &\text{Si } \exists L < 1 \tq \abs{\phi \left( x_1 \right) - \phi \left( x_2 \right)} \leq L \cdot \abs{x_1 - x_2} &&\forall x_1, x_2 \in \left[ a;b \right] \end{aligned} $ \newline \underline{Convergence globale (2)~:} \newline $ \begin{aligned} &\text{Si } \phi \left( x \right) \text{ continue et dérivable sur } \left[ a;b \right] \\ &\text{Si } \phi \left( x \right) \in \left[ a;b \right] &&\forall x \in \left[ a;b \right] \\ &\text{Si } \exists K < 1 \tq \abs{\phi' \left( x \right)} \leq K &&\forall x \in \left[ a;b \right] \end{aligned} $ \newline \underline{Convergence locale~:} \newline $ \begin{aligned} &\text{Si } \phi \left( x \right) \text{ continue et dérivable sur } \left[ a;b \right] \\ &\text{Si } \abs{\phi' \left( \alpha \right)} < 1 \\ &\text{Alors } \exists \delta > 0 \text{ t.q. si } \abs{x^{\left( 0 \right)} - \alpha} \leq \delta \text{, la méthode converge} \\ &\text{Alors } \lim_{k \to \infty}{\frac{x^{\left( k+1 \right)} - \alpha}{x^{\left( k \right)} - \alpha}} = \phi' \left( \alpha \right) \qquad \text{ (ordre 1)} \end{aligned} $ \newline \underline{Convergence locale (2)~:} \newline $ \begin{aligned} &\text{Si } \phi \left( x \right) \text{ continue et deux fois dérivable sur } \left[ a;b \right] \\ &\text{Si } \phi' \left( \alpha \right) = 0 \text{ et } \phi'' \left( \alpha \right) \neq 0 \\ &\text{Alors } \lim_{k \to \infty}{\frac{x^{\left( k+1 \right)} - \alpha}{\left( x^{\left( k \right)} - \alpha \right)^2}} = \frac{\phi'' \left( \alpha \right)}{2} \qquad \text{ (ordre 2)} \end{aligned} $ \\\hline \end{tabu} \begin{tabu}to 0.5\textwidth{ X| } \hline \textbf{Méthode de Newton modifiée} \newline \underline{Conditions~:} \newline $ \begin{aligned} &f \left( x \right) \text{ dérivable et } \alpha \text{ de multiplicité de } m \\ &k \in \symbb{N} \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &x^{\left( k+1 \right)} = x^{\left( k \right)} - m \cdot \frac{f \left( x^{\left( k \right)} \right)}{f' \left( x^{\left( k \right)} \right)} \end{aligned} $ \newline \underline{Convergence locale~:} \newline $ \begin{aligned} &\text{Si } f \left( x \right) \text{ continue et dérivable sur } \left[ a;b \right] \\ &\text{Si } f \left( \alpha \right) = 0 \text{ et } f' \left( \alpha \right) = 0 \\ &\text{Alors } \exists \delta > 0 \text{ t.q. si } \abs{x^{\left( 0 \right)} - \alpha} \leq \delta \text{, la méthode converge} \end{aligned} $ \\\hline \textbf{Méthode de la corde} \newline \underline{Méthode~:} \newline $ \begin{aligned} &x^{\left( k+1 \right)} = x^{\left( k \right)} - \frac{f \left( x^{\left( k \right)} \right)}{q \left( x^{\left( k \right)} \right)} \\ &q = \frac{f \left( b \right) -f \left( a \right)}{b-a} \qquad \text{ ou } \qquad q = \frac{f \left( b \right) -f \left( x^{\left( k \right)} \right)}{b-x^{\left( k \right)}} \end{aligned} $ \newline \underline{Convergence~:} \newline $ \begin{aligned} \abs{1 - \frac{f' \left( \alpha \right)}{q \left( \alpha \right)}} < 1 \end{aligned} $ \\\hline \textbf{Critères d'arrêt} \newline \underline{Contrôle de l'incrément~:} \newline $ \begin{aligned} & \abs{x^{\left( k+1 \right)} - x^{\left( k \right)}} < \epsilon \end{aligned} $ \newline \underline{Contrôle du résidu~:} \newline $ \begin{aligned} & \abs{f \left( x^{\left( k \right)} \right)} < \epsilon \end{aligned} $ \newline \underline{Cas du point fixe~:} \newline $ \begin{aligned} &\text{Le contrôle de l'incrément est optimal si } \phi' \left( \alpha \right) = 0 \text{, satisfaisant si } -1 < \phi' \left( \alpha \right) < 0 \\ &\text{et n'est pas satisfaisant si } \phi' \left( \alpha \right) \text{ est proche de 1.} \\ &\text{Le contrôle du résidu est satisfaisant si } \abs{f'} \simeq 1 \text{ au voisinage de la racine } \alpha \text{.} \end{aligned} $ \\\hline \textbf{Multiplicité} \newline \underline{Définition~:} \newline $ \begin{aligned} &\text{On dit qu'un zéro } \alpha \text{ de } f \text{ est de multiplicité } m \in \symbb{N} \text{ si} \\ &f \left( \alpha \right) = \dots = f^{m-1} \left( \alpha \right) = 0 \qquad \text{ et } \qquad f^m \left( \alpha \right) \neq 0 \\ &\text{Un zéro de multiplicité } m = 1 \text{ est appelé zéro simple.} \end{aligned} $ \\\hline \textbf{Ordre de convergence} \newline \underline{Définition~:} \newline $ \begin{aligned} &\text{On dit que la convergence est d'ordre } p \geq 1 \text{ s'il existe une constante } C > 0 \\ &\text{ (avec } C < 1 \text{ lorsque } p = 1 \text{) telle que l'inégalité suivante soit satisfaite :} \\ & \abs{x^{\left( k+1 \right)} - \alpha} \leq C \cdot \abs{x^{\left( k \right)} - \alpha}^p \\ &\text{Lorsque } p = 1 \text{, la convergence est dite linéaire.} \\ &\text{Lorsque } p = 2 \text{, la convergence est dite quadratique.} \end{aligned} $ \\\hline \end{tabu} \end{multicols} \newpage \begin{multicols}{2}[\centering{\large\textbf{Interpolation}}] \begin{tabu}to 0.5\textwidth{ |X| } \hline \textbf{Polynôme d'interpolation (de degré n)} \newline \underline{Définitions~:} \newline $ \begin{aligned} &\text{Soient } n + 1 \text{ noeuds distincts } x_0, x_1, \dots x_n &\text{et } n + 1 \text{ valeurs } y_0, y_1, \dots, y_n \\ &p \left( x_j \right) = y_j \comma 0 \leq j \leq n \\ &p \left( x \right) = \Pi_n \left( x \right) = \Pi_nf \left( x \right) \\ &I = \left[ a;b \right] \\ &h = \frac{b-a}{n} \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &\varphi_k \left( x \right) = \prod_{j = 0, j \neq k}^n \frac{x - x_j}{x_k - x_j} &\text{ (Base de Lagrange)} \\ &\Pi_n \left( x \right) = \sum_{k = 0}^n y_k \cdot \varphi_k \left( x \right) &\text{ (Polynôme d'interpolation)} \\ &\Pi_nf \left( x \right) = \sum_{k = 0}^n f \left( x_k \right) \cdot \varphi_k \left( x \right) &\text{ (Interpolant de } f \text{)} \\ \end{aligned} $ \newline \underline{Erreur~:} \newline $ \begin{aligned} &\max_{x \in I} \abs{E_n f \left( x \right)} \leq \frac{1}{4 \cdot \left( n+1 \right)} \cdot h^{n+1} \cdot \max_{x \in I} \abs{f^{\left( n+1 \right)} \left( x \right)} \end{aligned} $ \\\hline \textbf{Interpolation par morceaux~:} \newline \underline{Définitions~:} \newline $ \begin{aligned} &a = x_0 < x_1 < \dots < x_N = b \text{ les points qui divisent } I \text{ en} \\ &\text{réunion d'intervalles } I_i = \left[ x_i, x_{i+1} \right] \\ &H = \frac{b-a}{N} \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &\Pi_1^Hf \left( x \right) = f \left( x_i \right) + \frac{f \left( x_{i+1} \right) - f \left( x_i \right)}{x_{i+1} - x_i} \cdot \left( x - x_i \right) \text{ pour } x \in I_i \end{aligned} $ \newline \underline{Erreurs~:} \newline $ \begin{aligned} &\max_{x \in I} \abs{E_1^H f \left( x \right)} \leq \frac{H^2}{8} \cdot \max_{x \in I} \abs{f'' \left( x \right)} \\ &\max_{x \in I} \abs{E_r^H f \left( x \right)} \leq \frac{H^{r+1}}{4 \cdot \left( r+1 \right)} \cdot \max_{x \in I} \abs{f^{\left( r+1 \right)} \left( x \right)} \end{aligned} $ \\\hline \textbf{Méthode des moindres carrés (de degré m)} \newline \underline{Définitions~:} \newline $ \begin{aligned} &\sum_{i = 0}^n \abs{y_i - \tilde{f}_m \left( x_i \right)}^2 \leq \sum_{i = 0}^n \abs{y_i - p_m \left( x_i \right)}^2 &\forall p_m \left( x \right) \in \symbb{P}_m \\ &\sum_{i = 0}^n \abs{f \left( x_i \right) - \tilde{f}_m \left( x_i \right)}^2 \leq \sum_{i = 0}^n \abs{f \left( x_i \right) - p_m \left( x_i \right)}^2 &\forall p_m \left( x \right) \in \symbb{P}_m \\ &\tilde{f}_m \left( x \right) = a_0 + a_1 \cdot x + a_2 \cdot x^2 + \dots + a_m \cdot x^m \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &\Phi \left( b_0, b_1, \dots, b_m \right) = \sum_{i = 0}^n \left( y_i - \left( b_0 + b_1 \cdot x_i + b_2 \cdot x_i^2 + \dots + b_m \cdot x_i^m \right) \right)^2 \\ &\Phi \left( a_0, a_1, \dots, a_m \right) = \min_{b_i, i = 0, \dots, m} \Phi \left( b_0, b_1, \dots, b_m \right) \\ &\frac{\partial \Phi}{\partial b_i} \left( a_0, a_1, \dots, a_m \right) = 0 \comma 0 \leq i \leq m \qquad \text{ (Système de degré } m+1 \text{)} \end{aligned} $ \newline \underline{Méthode (2)~:} \newline $ \begin{aligned} &B = \begin{pmatrix} 1 & x_0 & \ldots & x_0^m \\ 1 & x_1 & \ldots & x_1^m \\ \vdots & \vdots & \ddots & \vdots \\ 1 & x_n & \ldots & x_n^m \\ \end{pmatrix} &&\vec{y} = \begin{pmatrix} y_0 \\ y_1 \\ \vdots \\ y_n \\ \end{pmatrix} \\ &B^T \cdot B \cdot \vec{a} = B^T \cdot \vec{y} \end{aligned} $ \\\hline \end{tabu} \begin{tabu}to 0.5\textwidth{ X| } \hline \textbf{Interpolation par fonctions splines} \newline \underline{Définitions~:} \newline $ \begin{aligned} &I = \left[ a;b \right] \\ &a = x_0 < x_1 < \dots < x_n = b \text{ les points qui divisent } I \text{ en réunion} \\ &\text{d'intervalles } I_i = \left[ x_i, x_{i+1} \right] \end{aligned} $ \newline \underline{Spline~:} \newline $ \begin{aligned} &s_{3 \mid I_i} \in \symbb{P}_3 &&\forall i = 0, \dots, n-1 \\ &s_3 \left( x_i \right) = f \left( x_i \right) &&\forall i = 0, \dots, n \\ &s_3 \in C^2 \left( I \right) \end{aligned} $ \newline \underline{Conditions aux bords~:} \newline $ \begin{aligned} &s_3 \left( x_i^- \right) = s_3 \left( x_i^+ \right) \\ &s_3' \left( x_i^- \right) = s_3' \left( x_i^+ \right) \\ &s_3'' \left( x_i^- \right) = s_3'' \left( x_i^+ \right) \end{aligned} $ \newline \underline{Spline naturelle~:} \newline $ \begin{aligned} &s_3'' \left( x_0^+ \right) = 0 \\ &s_3'' \left( x_n^- \right) = 0 \end{aligned} $ \newline \underline{Spline not-a-knot~:} \newline $ \begin{aligned} &s_3''' \left( x_1^- \right) = s_3''' \left( x_1^+ \right) \\ &s_3''' \left( x_{n-1}^- \right) = s_3''' \left( x_{n-1}^+ \right) \end{aligned} $ \\\hline \end{tabu} \end{multicols} \newpage \begin{multicols}{2}[\centering{\large\textbf{Intégration}}] \begin{tabu}to 0.5\textwidth{ |X| } \hline \textbf{Formules d'intégration simples} \newline \underline{Définition~:} \newline $ \begin{aligned} &I \left( f \right) = \int_a^b f \left( x \right) \cdot \dif x \end{aligned} $ \newline \underline{Méthodes~:} \newline $ \begin{aligned} &I_{pm} \left( f \right) = \left( b - a \right) \cdot f \left( \frac{a+b}{2} \right) &\text{ (Point millieu)} \\ &I_t \left( f \right) = \left( b - a \right) \cdot \frac{f \left( a \right) + f \left( b \right)}{2} &\text{ (Trapèze)} \\ &I_s \left( f \right) = \frac{b - a}{6} \cdot \left[ f \left( a \right) + 4 \cdot f \left( \frac{a+b}{2} \right) + f \left( b \right) \right] &\text{ (Simpson)} \end{aligned} $ \newline \underline{Formule générale~:} \newline $ \begin{aligned} &I_{appr} \left( f \right) = \sum_{k = 0}^n \alpha_k \cdot f \left( x_k \right) \\ &x_k \text{ sont les noeuds et } \alpha_k \text{ sont les poids} \end{aligned} $ \newline \underline{Noeuds et poids~:} \newline $ \begin{aligned} &\text{Point milieu} &&x_0 = \frac{1}{2} \cdot \left( a+b \right) && \alpha_0 = b-a \\ &\text{Trapèze} &&x_0 = a, x_1 = b && \alpha_0 = \alpha_1 = \frac{1}{2} \cdot \left( b-a \right) \\ &\text{Simpson} &&\begin{array}{@{}l} x_0 = a \\ x_1 = \frac{1}{2} \cdot \left( a+b \right) \\ x_2 = b \\ \end{array} &&\begin{array}{@{}l} \alpha_0 = \alpha_2 = \frac{1}{6} \cdot \left( b-a \right) \\ \alpha_1 = \frac{2}{3} \cdot \left( b-a \right) \\ \end{array} \end{aligned} $ \newline \underline{Erreur~:} \newline $ \begin{aligned} & \abs{I \left( f \right) - I_{appr} \left( f \right)} \leq \max_{x \in \left[ a;b \right]} \abs{f \left( x \right) - \Pi_nf \left( x \right)} \cdot \left( b-a \right) \end{aligned} $ \\\hline \textbf{Degré d'exactitude} \newline \underline{Défintion~:} \newline $ \begin{aligned} &\text{Une formule de quadrature } I_{appr} \left( f \right) \text{ sur l'intervalle } \left[ a;b \right] \\ &\text{est exacte de degré } r \text{ pour une fonction } f \text{ si} \\ &I_{appr} \left( f \right) = \int_a^b f \left( x \right) \cdot \dif x \qquad \forall f \in \symbb{P}_r \\ &\text{mais pas pour } r+1 \end{aligned} $ \\\hline \textbf{Ordre} \newline \underline{Défintion~:} \newline $ \begin{aligned} &\text{On définit l'ordre d'une formule d'intégration par l'ordre de son erreur par rapport à } H \end{aligned} $ \\\hline \end{tabu} \begin{tabu}to 0.5\textwidth{ X| } \hline \textbf{Formules d'intégration composites} \newline \underline{Définitions~:} \newline $ \begin{aligned} &\text{Soient } M \text{ sous-intervalles } I_k = \left[ x_{k-1};x_k \right] \comma \qquad k = 1, \dots, M \\ &x_k = a + k \cdot H \\ &H = \frac{b-a}{M} \\ &I \left( f \right) = \sum_{k = 1}^M \int_{I_k} f \left( x \right) \cdot \dif x \approx \sum_{k = 1}^M \int_{I_k} \Pi_nf \left( x \right) \cdot \dif x \approx \int_a^b \sum_{k = 1}^M \Pi_n^Hf \left( x \right) \cdot \dif x \end{aligned} $ \newline \underline{Méthodes~:} \newline $ \begin{aligned} &I_{pm}^c \left( f \right) = H \cdot \sum_{k = 1}^M f \left( \frac{x_{k-1} + x_k}{2} \right) \\ &I_t^c \left( f \right) = \frac{H}{2} \cdot \sum_{k = 1}^M \left[ f \left( x_{k-1} \right) + f \left( x_k \right) \right] = \frac{H}{2} \cdot \left[ f \left( a \right) + f \left( b \right) \right] + H \cdot \sum_{k = 1}^{M-1} f \left( x_k \right) \\ &I_s^c \left( f \right) = \frac{H}{6} \cdot \sum_{k = 1}^{M} \left[ f \left( x_{k-1} \right) + 4 \cdot f \left( \frac{x_{k-1} + x_k}{2} \right) + f \left( x_k \right) \right] \end{aligned} $ \newline \underline{Erreurs~:} \newline $ \begin{aligned} & \abs{I \left( f \right) - I_{pm}^c \left( f \right)} \leq \frac{b-a}{24} \cdot H^2 \cdot \max_{x \in \left[ a;b \right]} \abs{f'' \left( x \right)} \\ & \abs{I \left( f \right) - I_t^c \left( f \right)} \leq \frac{b-a}{12} \cdot H^2 \cdot \max_{x \in \left[ a;b \right]} \abs{f'' \left( x \right)} \\ & \abs{I \left( f \right) - I_s^c \left( f \right)} \leq \frac{b-a}{180 \cdot 16} \cdot H^4 \cdot \max_{x \in \left[ a;b \right]} \abs{f'''' \left( x \right)} \end{aligned} $ \newline \underline{Degrés d'exactitude~:} \newline $ \begin{aligned} &\text{Point milieu} &&\text{1} \\ &\text{Trapèze} &&\text{1} \\ &\text{Simpson} &&\text{3} \end{aligned} $ \newline \underline{Ordres par rapport à H~:} \newline $ \begin{aligned} &\text{Point milieu} &&\text{2} \\ &\text{Trapèze} &&\text{2} \\ &\text{Simpson} &&\text{4} \end{aligned} $ \\\hline \end{tabu} \end{multicols} \newpage \begin{multicols}{2}[\centering{\large\textbf{Systèmes linéaires - Méthodes directes}}] \begin{tabu}to 0.5\textwidth{ |X } \hline \textbf{Énoncé du problème} \newline \underline{Problème~:} \newline $ \begin{aligned} &A \cdot \vec{x} = \vec{b} &\text{Système linéaire d'ordre } n \\ &\sum_{j = 1}^n a_{ij} \cdot x_j = b_i \comma & i = 1, \dots, n \end{aligned} $ \newline \underline{Régularité~:} \newline $ \begin{aligned} &A \text{ est dite régulière (non signulière) } \quad \Leftrightarrow \quad \det \left( A \right) \neq 0 \\ &\text{Si } A \text{ est régulière, la solution } \vec{x} \text{ du système est unique} \end{aligned} $ \\\hline \textbf{Substitution progressive} \newline \underline{Condition~:} \newline $ \begin{aligned} &L \text{ matrice triangulaire inférieur} \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &y_1 = b_1/l_{11} \\ &y_i = \frac{1}{l_{ii}} \cdot \left( b_i - \sum_{j = 1}^{i-1} l_{ij} \cdot y_j \right) \comma i = 2, 3, \dots, n \end{aligned} $ \newline \underline{Coût~:} \newline $ \begin{aligned} &n^2 \text{ opérations} \end{aligned} $ \\\hline \textbf{Substitution rétrograde} \newline \underline{Condition~:} \newline $ \begin{aligned} &U \text{ matrice triangulaire supérieure} \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &x_n = y_n/u_{nn} \\ &x_i = \frac{1}{u_{ii}} \cdot \left( y_i - \sum_{j = i+1}^{n} u_{ij} \cdot x_j \right) \comma i = n-1, n-2, \dots, 1 \end{aligned} $ \newline \underline{Coût~:} \newline $ \begin{aligned} &n^2 \text{ opérations} \end{aligned} $ \\\hline \textbf{Factorisation LU} \newline \underline{Condition~:} \newline $ \begin{aligned} &A \text{ matrice carrée non singulière} \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &A \cdot \vec{x} = \vec{b} \quad \Leftrightarrow \quad L \cdot U \cdot \vec{x} = \vec{b} \quad \Leftrightarrow \quad \left\{ \begin{array}{r c l} L \cdot \vec{y} & = & \vec{b} \\ U \cdot \vec{x} & = & \vec{y} \\ \end{array} \right. \end{aligned} $ \newline \underline{Coût~:} \newline $ \begin{aligned} &\frac{2 \cdot n^3}{3} \text{ opérations (pour la factorisation)} \end{aligned} $ \newline \underline{Remarque~:} \newline $ \begin{aligned} &\det \left( A \right) = \det \left( L \right) \cdot \det \left( U \right) = \det \left( U \right) = \prod_{k = 1}^n u_{kk} \end{aligned} $ \\\hline \textbf{Changement de pivot} \newline \underline{Définitions~:} \newline $ \begin{aligned} &P \cdot A \cdot Q = L \cdot U \\ &P = P_{n-1} \cdot \dots \cdot P_1 \\ &Q = Q_1 \cdot \dots \cdot Q_{n-1} \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &A \cdot \vec{x} = \vec{b} \quad \Leftrightarrow \quad P \cdot A \cdot Q \cdot Q^{-1} \cdot \vec{x} = P \cdot \vec{b} \quad \Leftrightarrow \quad \left\{ \begin{array}{r c l} L \cdot \vec{y} & = & P \cdot \vec{b} \\ U \cdot \vec{x^{*}} & = & \vec{y} \\ x & = & Q \cdot \vec{x^{*}} \\ \end{array} \right. \end{aligned} $ \\\hline \end{tabu} \begin{tabu}to 0.5\textwidth{ |X| } \hline \textbf{Méthode d'élimination de Gauss} \newline \underline{Conditions~:} \newline $ \begin{aligned} &A \text{ matrice carrée non singulière} \\ &k = 1, \dots, n-1 \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &l_{ik} = \frac{a_{ik}^{\left( k \right)}}{a_{kk}^{\left( k \right)}} \comma &&i = k+1, \dots, n \\ &a_{ij}^{\left( k+1 \right)} = a_{ij}^{\left( k \right)} - l_{ik} \cdot a_{kj}^{\left( k \right)} \comma &&i, j = k+1, \dots, n \\ &b_{i}^{\left( k+1 \right)} = b_{i}^{\left( k \right)} - l_{ik} \cdot b_{k}^{\left( k \right)} \comma &&i = k+1, \dots, n \\ &l_{ii} = 1 \comma U = A^{\left( n \right)} \end{aligned} $ \newline \underline{Coût~:} \newline $ \begin{aligned} &\frac{2 \cdot n^3}{3} \text{ opérations} \end{aligned} $ \newline \underline{Existence~:} \newline $ \begin{aligned} &\text{La factorisation existe et est unique} \\ & \quad \leftrightarrow \quad \text{Les sous-matrices } A_i \left( i = 1, \dots, n-1 \right) \text{ ne sont pas singulières} \\ &\text{Ou si la matrice A est à diagonale dominante par ligne} \\ & \abs{a_{ii}} \geq \sum_{j = 1, \dots, n;j \neq i} \abs{a_{ij}} \comma \qquad i = 1, \dots, n \\ &\text{Ou si la matrice A est à diagonale dominante par colonne} \\ & \abs{a_{jj}} \geq \sum_{i = 1, \dots, n;i \neq j} \abs{a_{ij}} \comma \qquad j = 1, \dots, n \\ &\text{Ou si la matrice A est symétrique définie positive} \\ &A = A^T \text{ et } \lambda_i \left( A \right) > 0 \comma \qquad i = 1, \dots, n \\ &\text{La factorisation existe et est infinie} \\ & \quad \leftrightarrow \quad \text{Les sous-matrices } A_i \left( i = 1, \dots, n \right) \text{ sont singulières} \\ \end{aligned} $ \\\hline \textbf{Factorisation de Cholesky} \newline \underline{Condition~:} \newline $ \begin{aligned} &A \text{ matrice symétrique définie positive} \end{aligned} $ \newline \underline{Définition~:} \newline $ \begin{aligned} &A = R^T \cdot R \\ &i = 2, \dots, n \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &r_{11} = \sqrt{a_{11}} \\ &r_{ji} = \frac{1}{r_{jj}} \cdot \left( a_{ij} - \sum_{k = 1}^{j-1} r_{ki} \cdot r_{kj} \right) \comma &&j = 1, \dots, i-1 \\ &r_{ii} = \sqrt{a_{ii} - \sum_{k = 1}^{i-1} r_{ki}^2} \\ \end{aligned} $ \newline \underline{Coût~:} \newline $ \begin{aligned} &\frac{n^3}{3} \text{ opérations} \end{aligned} $ \\\hline \textbf{Divers} \newline \underline{Matrice de Hilbert~:} \newline $ \begin{aligned} &a_{ij} = \frac{1}{i+j-1} \comma &&i, j = 1, \dots, n \\ \end{aligned} $ \newline \underline{Conditionnment~:} \newline $ \begin{aligned} &K \left( A \right) = \frac{\lambda_{max} \left( A \right)}{\lambda_{min} \left( A \right)} \end{aligned} $ \newline \underline{Erreur~:} \newline $ \begin{aligned} &\frac{\norm{\vec{x} - \vec{\hat{x}}}}{\norm{x}} \leq K \left( A \right) \cdot \frac{\norm{\vec{r}}}{\norm{\vec{b}}} \comma \vec{r} = \vec{b} - A \cdot \vec{\hat{x}} \end{aligned} $ \\\hline \end{tabu} \end{multicols} \newpage \begin{multicols}{2}[\centering{\large\textbf{Systèmes linéaires - Méthodes itératives}}] \begin{tabu}to 0.5\textwidth{ |X } \hline \textbf{Méthode de Jacobi, Gauss-Seidel et SOR} \newline \underline{Définitions~:} \newline $ \begin{aligned} &\vec{e}^{\left( k \right)} = \vec{x} - \vec{x}^{\left( k \right)} \\ &\vec{e}^{\left( k+1 \right)} = B^{k+1} \cdot \vec{e}^{\left( 0 \right)} \\ &\rho \left( B \right) = \max \abs{\lambda_i \left( B \right)} < 1 \\ &\vec{r}^{\left( k \right)} = \vec{b} - A \cdot \vec{x}^{\left( k \right)} \\ &B = P^{-1} \cdot \left( P - A \right) = I - P^{-1} \cdot A \\ &\vec{x}^{\left( k+1 \right)} = B \cdot \vec{x}^{\left( k \right)} + \vec{g} \end{aligned} $ \newline \underline{Méthode de Jacobi~:} \newline $ \begin{aligned} &x_i^{\left( k+1 \right)} = \frac{1}{a_{ii}} \cdot \left( b_i - \sum_{j = 1, j \neq i}^n a_{ij} \cdot x_j^{\left( k \right)} \right) \\ %\comma &&j = 1, \dots, n \\ &B_J = D^{-1} \cdot \left( D - A \right) = I - D^{-1} \cdot A \\ &\vec{g}_J = D^{-1} \cdot \vec{b} \end{aligned} $ \newline \underline{Méthode de Gauss-Seidel~:} \newline $ \begin{aligned} &x_i^{\left( k+1 \right)} = \frac{1}{a_{ii}} \cdot \left( b_i - \sum_{j = 1}^{i-1} a_{ij} \cdot x_j^{\left( k+1 \right)} - \sum_{j = i+1}^n a_{ij} \cdot x_j^{\left( k \right)} \right) \\ %\comma &&j = 1, \dots, n \\ &B_{GS} = \left( D - E \right)^{-1} \cdot \left( D - E - A \right) = \left( D - E \right)^{-1} \cdot F \\ &\vec{g}_{GS} = \left( D - E \right)^{-1} \cdot \vec{b} \end{aligned} $ \newline \underline{Méthode de sur-relaxation successive~:} \newline $ \begin{aligned} &x_i^{\left( k+1 \right)} = \frac{\omega}{a_{ii}} \cdot \left( b_i - \sum_{j = 1}^{i-1} a_{ij} \cdot x_j^{\left( k+1 \right)} - \sum_{j = i+1}^n a_{ij} \cdot x_j^{\left( k \right)} \right) + \left( 1 - \omega \right) \cdot x_i^{\left( k \right)} \\ %\comma &&j = 1, \dots, n \\ &B_{SOR} = \left( \frac{1}{\omega} \cdot D - E \right)^{-1} \cdot \left( \frac{1}{\omega} \cdot D - E - A \right) \\ &\hphantom{B_{SOR}} = \left( I - \omega \cdot D^{-1} \cdot E \right)^{-1} \cdot \left[ \left( 1-\omega \right) \cdot I + \omega \cdot D^{-1} \cdot F \right] \\ &\vec{g}_{SOR} = \left( \frac{1}{\omega} \cdot D - E \right)^{-1} \cdot \vec{b} \end{aligned} $ \newline \underline{Convergence~:} \newline $ \begin{aligned} &\text{Si } A \text{ à diagonale dominante stricte par ligne, Jacobi et Gauss-Seidel sont convergentes} \\ &\text{Si } A \text{ régulière, tridiagonale et dont les coefficients diagonaux sont tous non-nuls, } \\ &\text{Jacobi et Gauss-Seidel sont toutes les deux soit divergentes, soit convergentes, } \\ &\text{dans ce dernier cas, } \qquad \rho \left( B_{GS} \right) = \rho \left( B_J \right)^2 \\ &\text{Si } A \text{ symétrique définie positive, Gauss-Seidel converge, Jacobi pas forcément} \\ &\text{Si } A \text{ symétrique définie positive, SOR converge } \quad \Leftrightarrow \quad 0 < \omega < 2 \\ &\text{Si } A \text{ à diagonale dominante stricte, SOR converge si } \qquad 0 < \omega < 1 \\ \end{aligned} $ \\\hline \textbf{Méthode de Richardson stationnaire préconditionné} \newline \underline{Définitions~:} \newline $ \begin{aligned} &P \cdot \left( \vec{x}^{\left( k+1 \right)} - \vec{x}^{\left( k \right)} \right) = \alpha \cdot \vec{r}^{\left( k \right)} \\ &\lambda_i = \text{ valeurs propres de } P^{-1} \cdot A \text{ strictement positives} \\ &\lambda_{max} = \lambda_1 \geq \lambda_2 \geq \dots \geq \lambda_N = \lambda_{min} \\ &\alpha_{opt} = \frac{2}{\lambda_{max} + \lambda_{min}} \\ &\rho_{opt} = \frac{\lambda_{max} - \lambda_{min}}{\lambda_{max} + \lambda_{min}} \end{aligned} $ \newline \underline{Convergence~:} \newline $ \begin{aligned} &A \text{ et } P \text{ symétriques définies positives} \\ &0 < \alpha < 2/\lambda_{max} \end{aligned} $ \newline \underline{Erreur~:} \newline $ \begin{aligned} & \norm{\vec{x}^{\left( k \right)} - \vec{x}}_A \leq \left( \frac{K \left( P^{-1} \cdot A \right) - 1}{K \left( P^{-1} \cdot A \right) + 1} \right)^k \cdot \norm{\vec{x}^{\left( 0 \right)} - \vec{x}}_A \comma &&k \geq 0 \end{aligned} $ \\\hline \end{tabu} \begin{tabu}to 0.5\textwidth{ |X| } \hline \textbf{Méthode de Richardson dynamique précondionné} \newline \underline{Définitions~:} \newline $ \begin{aligned} &P \cdot \left( \vec{x}^{\left( k+1 \right)} - \vec{x}^{\left( k \right)} \right) = \alpha_k \cdot \vec{r}^{\left( k \right)} \\ &\alpha_k = \frac{\left( \vec{r}^{\left( k \right)}, \vec{z}^{\left( k \right)} \right)}{\left( A \cdot \vec{z}^{\left( k \right)}, \vec{z}^{\left( k \right)} \right)} \\ &\vec{z}^{\left( k \right)} = P^{-1} \cdot \vec{r}^{\left( k \right)} \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &\vec{r}^{\left( 0 \right)} = \vec{b} - A \cdot \vec{x}^{\left( 0 \right)} \\ &P \cdot z^{\left( k \right)} = r^{\left( k \right)} \\ &\alpha_k = \frac{\left( \vec{r}^{\left( k \right)}, \vec{z}^{\left( k \right)} \right)}{\left( A \cdot \vec{z}^{\left( k \right)}, \vec{z}^{\left( k \right)} \right)} \\ &\vec{x}^{\left( k+1 \right)} = \vec{x}^{\left( k \right)} + \alpha_k \cdot \vec{z}^{\left( k \right)} \\ &\vec{r}^{\left( k+1 \right)} = \vec{r}^{\left( k \right)} - \alpha_k \cdot A \cdot \vec{z}^{\left( k \right)} \end{aligned} $ \newline \underline{Erreur~:} \newline $ \begin{aligned} & \norm{\vec{x}^{\left( k \right)} - \vec{x}}_A \leq \left( \frac{K \left( P^{-1} \cdot A \right) - 1}{K \left( P^{-1} \cdot A \right) + 1} \right)^k \cdot \norm{\vec{x}^{\left( 0 \right)} - \vec{x}}_A \comma &&k \geq 0 \end{aligned} $ \newline \underline{Convergence~:} \newline $ \begin{aligned} &\text{Si } A \text{ et } P \text{ symétriques définies positives} \\ &\text{Si } P = I \text{, on a la méthode du gradient} \end{aligned} $ \\\hline \textbf{Méthode du gradient conjugué} \newline \underline{Méthode~:} \newline $ \begin{aligned} &\vec{r}^{\left( 0 \right)} = \vec{b} - A \cdot \vec{x}^{\left( 0 \right)} \comma \vec{p}^{\left( 0 \right)} = \vec{r}^{\left( 0 \right)} \\ &\alpha_k = \frac{\left( \vec{r}^{\left( k \right)}, \vec{p}^{\left( k \right)} \right)}{\left( A \cdot \vec{p}^{\left( k \right)}, \vec{p}^{\left( k \right)} \right)} \\ &\vec{x}^{\left( k+1 \right)} = \vec{x}^{\left( k \right)} + \alpha_k \cdot \vec{p}^{\left( k \right)} \\ &\vec{r}^{\left( k+1 \right)} = \vec{r}^{\left( k \right)} - \alpha_k \cdot A \cdot \vec{p}^{\left( k \right)} \\ &\beta_k = \frac{\left( \vec{r}^{\left( k+1 \right)}, A \cdot \vec{p}^{\left( k \right)} \right)}{\left( \vec{p}^{\left( k \right)}, A \cdot \vec{p}^{\left( k \right)} \right)} \\ &\vec{p}^{\left( k+1 \right)} = \vec{r}^{\left( k+1 \right)} - \beta_k \cdot \vec{p}^{\left( k \right)} \end{aligned} $ \\\hline \textbf{Méthode du gradient conjugué préconditionné} \newline \underline{Méthode~:} \newline $ \begin{aligned} &\vec{r}^{\left( 0 \right)} = \vec{b} - A \cdot \vec{x}^{\left( 0 \right)} \comma \vec{z}^{\left( 0 \right)} = P^{-1} \cdot \vec{r}^{\left( 0 \right)} \comma \vec{p}^{\left( 0 \right)} = \vec{z}^{\left( 0 \right)} \\ &\alpha_k = \frac{\left( \vec{r}^{\left( k \right)}, \vec{p}^{\left( k \right)} \right)}{\left( A \cdot \vec{p}^{\left( k \right)}, \vec{p}^{\left( k \right)} \right)} \\ &\vec{x}^{\left( k+1 \right)} = \vec{x}^{\left( k \right)} + \alpha_k \cdot \vec{p}^{\left( k \right)} \\ &\vec{r}^{\left( k+1 \right)} = \vec{r}^{\left( k \right)} - \alpha_k \cdot A \cdot \vec{p}^{\left( k \right)} \\ &P \cdot z^{\left( k+1 \right)} = r^{\left( k+1 \right)} \\ &\beta_k = \frac{\left( \vec{z}^{\left( k+1 \right)}, A \cdot \vec{p}^{\left( k \right)} \right)}{\left( \vec{p}^{\left( k \right)}, A \cdot \vec{p}^{\left( k \right)} \right)} \\ &\vec{p}^{\left( k+1 \right)} = \vec{z}^{\left( k+1 \right)} - \beta_k \cdot \vec{p}^{\left( k \right)} \end{aligned} $ \newline \underline{Erreur~:} \newline $ \begin{aligned} & \norm{\vec{x}^{\left( k \right)} - \vec{x}}_A \leq \frac{2 \cdot c^k}{1 + c^{2 \cdot k}} \cdot \norm{\vec{x}^{\left( 0 \right)} - \vec{x}}_A \comma &&k \geq 0 \\ &c = \frac{\sqrt{K \left( P^{-1} \cdot A \right)} - 1}{\sqrt{K \left( P^{-1} \cdot A \right)} + 1} \end{aligned} $ \\\hline \textbf{Critère de convergence} \newline \underline{Convergence~:} \newline $ \begin{aligned} &\text{Si } P^{-1} \cdot A \text{ symétrique définie positive} \\ &\frac{\norm{\vec{x}^{\left( k \right)} - \vec{x}}}{\norm{\vec{x}}} \leq K \left( P^{-1} \cdot A \right) \cdot \frac{\norm{P^{-1} \cdot \vec{r^{\left( k \right)}}}}{\norm{P^{-1} \cdot \vec{b}}} \end{aligned} $ \\\hline \end{tabu} \end{multicols} \newpage \begin{multicols}{2}[\centering{\large\textbf{Systèmes linéaires - Méthodes directes (suite)}}] \begin{tabu}to 0.5\textwidth{ |X } \hline \textbf{Inverse d'un matrice} \newline \underline{Définitions~:} \newline $ \begin{aligned} &A^{-1} = \left( \vec{x}^{\left( 1 \right)}, \dots, \vec{x}^{\left( n \right)} \right) \\ &\vec{e}^{\left( k \right)} \text{ vecteur avec composantes nulle sauf la k\textsuperscript{ième} composante qui vaut} 1 \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} &A \cdot \vec{x}^{\left( k \right)} = \vec{e}^{\left( k \right)} \end{aligned} $ \\\hline \end{tabu} \begin{tabu}to 0.5\textwidth{ |X| } \hline \textbf{Systèmes triangulaires} \newline \underline{Définitions~:} \newline $ \begin{aligned} &\text{Une matrice } U = \left( u_{ij} \right) \text{ est triangulaire supérieure si} \\ &u_{ij} = 0 \qquad \forall i, j~: 1 \leq j < i \leq n \\ &\text{Une matrice } L = \left( l_{ij} \right) \text{ est triangulaire inférieure si} \\ &l_{ij} = 0 \qquad \forall i, j~: 1 \leq i < j \leq n \end{aligned} $ \\\hline \end{tabu} \end{multicols} \begin{multicols}{2}[\centering{\large\textbf{Systèmes linéaires - Méthodes itératives (suite)}}] \begin{tabu}to 0.5\textwidth{ |X| } \hline \textbf{Splitting de A} \newline \underline{Définitions~:} \newline $ \begin{aligned} &A = D - E - F \\ & \left\{ \begin{array}{l l} d_{ij} = a_{ij} &\text{si } i = j \\ d_{ij} = 0 & \text{si } i \neq j \\ \end{array} \right. && \text{Diagonale} \\ & \left\{ \begin{array}{l l} e_{ij} = -a_{ij} & \text{si } i > j \\ e_{ij} = 0 & \text{si } i \leq j \\ \end{array} \right. && \text{Triangulaire inf.}\\ & \left\{ \begin{array}{l l} f_{ij} = -a_{ij} & \text{si } i < j \\ f_{ij} = 0 & \text{si } i \geq j \\ \end{array} \right. && \text{Triangulaire sup.}\\ \end{aligned} $ \\\hline \end{tabu} \begin{tabu}to 0.5\textwidth{ X| } \hline \textbf{Produit scalaire et normes} \newline \underline{Définitions~:} \newline $ \begin{aligned} & \norm{\vec{v}} = \sqrt{\vec{v}^T \cdot \vec{v}} \\ & \norm{\vec{v}}_A = \sqrt{\vec{v}^T \cdot A \cdot \vec{v}} \\ & \left( \vec{v}, \vec{w} \right) = \vec{w}^T \cdot \vec{v} \\ \end{aligned} $ \\\hline \end{tabu} \end{multicols} \begin{multicols}{2}[\centering{\large\textbf{Équations différentielles ordinaires (suite)}}] \begin{tabu}to 0.5\textwidth{ |X| } \hline \textbf{Stabilité absolue} \newline \underline{Problème modèle~:} \newline $ \begin{aligned} & \left\{ \begin{array}{l} y' \left( t \right) = \lambda \cdot y \left( t \right), \qquad \lambda < 0 \\ y \left( t_0 \right) = y_0 \\ \end{array} \right. \\ &0 = t_0 < t_1 < \dots < t_n < t_{n+1} \dots \text{ tels que } t_n = n \cdot h && \left( h > 0 \right) \\ &\text{dont la solution est } y \left( t \right) = \e^{\lambda \cdot t} \text{ et } \lim_{t \rightarrow \infty} y \left( t \right) = 0 \end{aligned} $ \newline \underline{Définition~:} \newline $ \begin{aligned} &\text{Un schéma de résolution est absolument stable si} \\ &\lim_{n \rightarrow \infty} u_n = 0 \end{aligned} $ \newline \underline{Stablilité~:} \newline $ \begin{aligned} &\text{EP~: si } 0 < h < 2/\lambda \\ &\text{ER~: inconditionnellement stable }\\ &\text{PM~: inconditionnellement instable }\\ &\text{CN~: inconditionnellement stable }\\ \end{aligned} $ \\\hline \end{tabu} \begin{tabu}to 0.5\textwidth{ X| } \hline \textbf{Stabilité} \newline \underline{Définition~:} \newline $ \begin{aligned} &\text{Une méthode numérique absolument stable pour le problème} \\ &\text{modèle est stable pour un problème de Cauchy quelconque.} \\ &\text{Il existe } 0 < \lambda_{min} < \lambda_{max} < \infty \text{ tel que} \\ &-\lambda_{max} < \frac{\partial f \left( t, y \right)}{\partial y} < - \lambda_{min} \qquad \forall t \geq 0, \forall y \in D_y \\ \end{aligned} $ \newline \underline{Stablilité~:} \newline $ \begin{aligned} &\text{EP~: si } 0 < h < 2/\lambda_{max} \\ &\text{ER~: inconditionnellement stable }\\ &\text{PM~: inconditionnellement instable }\\ &\text{CN~: inconditionnellement stable }\\ \end{aligned} $ \\\hline \end{tabu} \end{multicols} \begin{multicols}{2}[\centering{\large\textbf{Systèmes non linéaires}}] \begin{tabu}to 0.5\textwidth{ |X| } \hline \textbf{Méthode de Newton} \newline \underline{Définition~:} \newline $ \begin{aligned} &\vec{f} \left( \vec{x} \right) = 0 \end{aligned} $ \newline \underline{Méthode~:} \newline $ \begin{aligned} & \left[ J_f \left( \vec{x}^{\left( k \right)} \right) \right] \cdot \left( \vec{x}^{\left( k+1 \right)} - \vec{x}^{\left( k \right)} \right) = -\vec{f} \left( \vec{x}^{\left( k \right)} \right) \comma &&k = 0, 1, 2, \dots \\ & \quad \leftrightarrow \quad \vec{x}^{\left( k+1 \right)} = \vec{x}^{\left( k \right)} - \left[ J_f \left( \vec{x}^{\left( k \right)} \right) \right]^{-1} \cdot \vec{f} \left( \vec{x}^{\left( k \right)} \right) \comma &&k = 0, 1, 2, \dots \end{aligned} $ \\\hline \end{tabu} \end{multicols} \newpage \begin{multicols}{2}[\centering{\large\textbf{{Équations différentielles ordinaires}}}] \begin{tabu}to 0.5\textwidth{ |X } \hline \textbf{Énoncé du problème} \newline \underline{Problème de Cauchy~:} \newline $ \begin{aligned} & \left\{ \begin{array}{l} y' \left( t \right) = f \left( t, y \left( t \right) \right) \\ y \left( t_0 \right) = y_0 \\ \end{array} \right. \end{aligned} $ \newline \underline{Solution~:} \newline $ \begin{aligned} &\text{Si la fonction } f \left( t, y \right) \text{ est continue par rapport à ses deux variables et lipschitzienne} \\ & \text{par rapport à sa deuxième variable, alors la solution existe, est unique et appartient} \\ & \text{à } C^1 \left( I \right) \end{aligned} $ \\\hline \textbf{Dérivée numérique} \newline \underline{Définitions~:} \newline $ \begin{aligned} &\text{Soient } t_0, t_1, \dots, t_{N_h} N_h + 1 \text{ noeuds équirépartis dans } \left[ t_0;t_{N_h} \right] \\ &h = \frac{t_{N_h} - t_0}{N_h} \\ & \left( Dy \right)_n \approx y' \left( t_n \right) \end{aligned} $ \newline \underline{Méthodes~:} \newline $ \begin{aligned} & \left( Dy \right)_n^P = \frac{y \left( t_{n+1} \right) - y \left( t_n \right)}{h} \comma &&n = 0, \dots, N_h-1 \\ & \left( Dy \right)_n^R = \frac{y \left( t_n \right) - y \left( t_{n-1} \right)}{h} \comma &&n = 1, \dots, N_h \\ & \left( Dy \right)_n^C = \frac{y \left( t_{n+1} \right) - y \left( t_{n-1} \right)}{2 \cdot h} \comma &&n = 1, \dots, N_h-1 \end{aligned} $ \newline \underline{Erreurs~:} \newline $ \begin{aligned} & \abs{y' \left( t_n \right) - \left( Dy \right)_n^P} \leq \frac{h}{2} \cdot \max_{t \in \left[ t_n;t_{n+1} \right]} \abs{y'' \left( t \right)} \\ & \abs{y' \left( t_n \right) - \left( Dy \right)_n^R} \leq \frac{h}{2} \cdot \max_{t \in \left[ t_{n-1};t_n \right]} \abs{y'' \left( t \right)} \\ & \abs{y' \left( t_n \right) - \left( Dy \right)_n^C} \leq \frac{h^2}{6} \cdot \max_{t \in \left[ t_{n-1};t_{n+1} \right]} \abs{y''' \left( t \right)} \end{aligned} $ \\\hline \textbf{Résolution} \newline \underline{Définition~:} \newline $ \begin{aligned} &u_n \text{ une approximation de } y \left( t_n \right) \end{aligned} $ \newline \underline{Méthodes~:} \newline $ \begin{aligned} &u_{n+1} = u_n + h \cdot f \left( t_n, u_n \right) & \text{EP} \\ &u_{n+1} = u_n + h \cdot f \left( t_{n+1}, u_{n+1} \right) & \text{ER} \\ &u_{n+1} = u_{n-1} + 2 \cdot h \cdot f \left( t_n, u_n \right) & \text{PM} \\ &u_{n+1} = u_n + \frac{h}{2} \cdot \left[ f \left( t_n, u_n \right) + f \left( t_{n+1}, u_{n+1} \right) \right] & \text{CN} \\ &u_{n+1} = u_n + \frac{h}{2} \cdot \left[ f \left( t_n, u_n \right) + f \left( t_{n+1}, u_n + h \cdot f \left( t_n, u_n \right) \right) \right] & \text{H} \\ &u_{n+1} = u_n + h \cdot f \left( t_{n+\frac{1}{2}}, u_n + \frac{h}{2} \cdot f \left( t_n, u_n \right) \right) & \text{EM} \\ & \left\{ \begin{array}{l} u_{n+1} = u_n + \frac{h}{6} \cdot \left( K_1 + 2 \cdot K_2 + 2 \cdot K_3 + K_4 \right) \\ K_1 = f \left( t_n, u_n \right) \\ K_2 = f \left( t_n + \frac{h}{2}, u_n + \frac{h}{2} \cdot K_1 \right) \\ K_3 = f \left( t_n + \frac{h}{2}, u_n + \frac{h}{2} \cdot K_2 \right) \\ K_4 = f \left( t_{n+1}, u_n + h \cdot K_3 \right) \\ \end{array} \right. & \text{RK} \\ \end{aligned} $ \\\hline \end{tabu} \begin{tabu}to 0.5\textwidth{ |X| } \hline \textbf{Convergence} \newline \underline{Définitions~:} \newline $ \begin{aligned} &\text{Une méthode est dite convergente si} \\ &\forall n = 0, .., N_h~: \abs{u_n - y \left( t_n \right)} \leq C \left( h \right) \\ &\text{Où } C \left( h \right) \rightarrow 0 \text{ lorsque } h \rightarrow 0 \\ &\text{Si en plus, il existe } p > 0 \text{ tel que } C \left( h \right) = \symcal{O} \left( h^p \right) \text{ on dit que la} \\ &\text{méthode est convergente d'ordre } p \end{aligned} $ \newline \underline{Convergence de EP~:} \newline $ \begin{aligned} &\text{Si } y \in C^2 \left( \left[ 0;T \right] \right) \comma f \text{ est lipschitzienne et en plus} \\ &-\lambda_{max} < \frac{\partial f \left( t, y \right)}{\partial y} < 0 \qquad \forall t \in \left[ 0;T \right], \forall y \in \left[ -\infty;\infty \right] \\ &\text{Alors } \abs{y \left( t_n \right) - u_n} \leq t_n \cdot \frac{h}{2} \cdot \max_t \abs{y'' \left( t \right)} \\ \end{aligned} $ \newline \underline{Convergence de EP (2)~:} \newline $ \begin{aligned} &\text{Si } y \in C^2 \left( \left[ 0;T \right] \right) \text{ et } f \text{ est lipschitzienne avec sa constante } L \\ &\text{Alors } \abs{y \left( t_n \right) - u_n} \leq h \cdot \frac{\e^{L \cdot t_n} - 1}{2 \cdot L} \cdot \max_t \abs{y'' \left( t \right)} \\ \end{aligned} $ \newline \underline{Convergence de ER~:} \newline $ \begin{aligned} &\text{Le même type de résultat peut être établi pour ER} \end{aligned} $ \\\hline \textbf{Nb. pas/Ordre/Stabilité/Explicite-Implicite} \newline $ \begin{aligned} &\text{Euler progressif} &&\text{1} &&\text{1} &\text{Cond.} &&\text{Expl.} \\ &\text{Euler rétrograde} &&\text{1} &&\text{1} &\text{Incond.} &&\text{Impl.} \\ &\text{Point millieu} &&\text{2} &&\text{1} &\text{Instable} &&\text{Expl.} \\ &\text{Crank-Nicolson} &&\text{1} &&\text{2} &\text{Incond.} &&\text{Impl.} \\ &\text{Heun} &&\text{1} &&\text{2} &\text{Cond.} &&\text{Expl.} \\ &\text{Euler modifiée} &&\text{1} &&\text{2} &\text{Cond.} &&\text{Expl.} \\ &\text{Runge-Kutta} &&\text{1} &&\text{4} &\text{Cond.} &&\text{Expl.} \end{aligned} $ \\\hline \textbf{Systèmes d'équations} \newline \underline{Problème~:} \newline $ \begin{aligned} & \left\{ \begin{array}{l} \vec{y}' \left( t \right) = A \cdot \vec{y} \left( t \right) + \vec{b} \left( t \right) \\ \vec{y} \left( t_0 \right) = \vec{y}_0 \\ \end{array} \right. \end{aligned} $ \newline \underline{Méthodes~:} \newline $ \begin{aligned} &\vec{u}_{n+1} = \left( I + h \cdot A \right) \cdot \vec{u}_n + h \cdot \vec{b}_n &\text{EP} \\ & \left( I - h \cdot A \right) \cdot \vec{u}_{n+1} = \vec{u}_n + h \cdot \vec{b}_n &\text{ER} \\ & \left( I - \frac{h}{2} \cdot A \right) \cdot \vec{u}_{n+1} = \left( I + \frac{h}{2} \cdot A \right) \cdot \vec{u}_n + \frac{h}{2} \cdot \left( \vec{b}_n + \vec{b}_{n+1} \right) &\text{CN} \end{aligned} $ \newline \underline{Stabilité~:} \newline $ \begin{aligned} &\lambda_i \left( A \right) < 0 &&\forall i\\ &h < 2/\rho \left( A \right) &&\text{pour EP; ER et CN incond. stables} \end{aligned} $ \\\hline \textbf{Système d'équations non linéaires} \newline \underline{Problème~:} \newline $ \begin{aligned} & \left\{ \begin{array}{l} \vec{y}' \left( t \right) = \vec{F} \left( t, \vec{y} \left( t \right) \right) \\ \vec{y} \left( t_0 \right) = \vec{y}_0 \\ \end{array} \right. \\ & J = \frac{\partial \vec{F}}{\partial \vec{y}} \end{aligned} $ \newline \underline{Méthodes~:} \newline $ \begin{aligned} &\vec{u}_{n+1} = \vec{u}_n + h \cdot \vec{F} \left( t_n, \vec{u}_n \right) &\text{EP} \\ &\vec{u}_{n+1} = \vec{u}_n + h \cdot \vec{F} \left( t_{n+1}, \vec{u}_{n+1} \right) &\text{ER} \\ &\vec{u}_{n+1} = \vec{u}_n + \frac{h}{2} \cdot \left[ \vec{F} \left( t_n, \vec{u}_n \right) + \vec{F} \left( t_{n+1}, \vec{u}_{n+1} \right) \right] &\text{CN} \end{aligned} $ \newline \underline{Stabilité~:} \newline $ \begin{aligned} &\lambda_i \left( J \right) < 0 &&\forall i\\ &h < 2/\rho \left( J \right) &&\text{pour EP; ER et CN incond. stables} \end{aligned} $ \\\hline \end{tabu} \end{multicols}