Formulaires/BA3 - Analyse numérique/BA3 - Analyse numérique - C...

1047 lines
47 KiB
TeX
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

\begin{multicols}{2}[\centering{\large\textbf{Définitions}}]
\begin{tabu}to 0.5\textwidth{ |X| }
\hline
\textbf{Méthodes numériques~:} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&F \left( x, d \right) = 0 \text{ un problème } \\
&F_n \left( x_n, d_n \right) = 0 \comma n > 1 \text{ une suite de problèmes } \\
&x = G \left( d \right) \text{ t.q } F \left( G \left( d \right), d \right) = 0 \text{ une application résolvante } \\
&x_n \rightarrow x \text{ pour } n \rightarrow \infty \\
&d_n \rightarrow d \text{ pour } n \rightarrow \infty \\
&F_n \text{ approche } F \text{ pour } n \rightarrow \infty
\end{aligned} $ \newline
\underline{Consistance~:} \newline
$ \begin{aligned}
&\text{La méthode numérique (} P_n \text{) est consistante si} \\
&F_n \left( x_n, d_n \right) - F \left( x, d \right) \rightarrow 0 \text{ pour } n \rightarrow \infty \\
&\text{} x \text{ est la solution du problème (} P \text{) correspondant à la donnée } d \\
\end{aligned} $ \newline
\underline{Stabilité~:} \newline
$ \begin{aligned}
&\text{Une méthode numérique est bien posée (ou stable) sil existe, pour tout } n \text{ une unique} \\ &\text{solution } x_n \text{ correspondant à la donnée } d_n \text{ et si } x_n \text{ dépend continûment des données, i.e.} \\
&\forall d_n, \exists \eta_0 = \eta_0 \left( d_n \right) > 0 \comma \exists K_0 = K_0 \left( \eta_0, d_n \right) \text{t.q} \\
&\forall \delta d_n~: \norm{\delta d_n} \leq \eta_0 \rightarrow \norm{\delta x_n} \leq K_0 \cdot \norm{\delta d_n}
\end{aligned} $ \newline
\underline{Convergence~:} \newline
$ \begin{aligned}
&\text{Si le problème numérique (} P_n \text{) est consistant avec le problème (} P \text{), alors il est} \\ &\text{convergent si, et seulement si, il est stable}
\end{aligned} $
\\\hline
\end{tabu}
\end{multicols}
\newpage
\begin{multicols}{2}[\centering{\large\textbf{Équations non-linéaires}}]
\begin{tabu}to 0.5\textwidth{ |X| }
\hline
\textbf{Dichotomie ou bissection} \newline
\underline{Conditions~:} \newline
$ \begin{aligned}
&f \left( a \right) \cdot f \left( b \right) < 0 \text{ et } f \left( x \right) \text{ continue sur } \left[ a;b \right] \\
&k \in \symbb{N}
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&x^{\left( k \right)} = \frac{a^{\left( k \right)} + b^{\left( k \right)}}{2} \\
&\text{Si } f \left( x^{\left( k \right)} \right) = 0 \qquad \text{ fin} \\
&\text{Si } f \left( x^{\left( k \right)} \right) \cdot f \left( a \right) < 0 \comma a^{\left( k+1 \right)} = a^{\left( k \right)} \text{ et } b^{\left( k+1 \right)} = x^{\left( k \right)} \\
&\text{Si } f \left( x^{\left( k \right)} \right) \cdot f \left( b \right) < 0 \comma a^{\left( k+1 \right)} = x^{\left( k \right)} \text{ et } b^{\left( k+1 \right)} = b^{\left( k \right)}
\end{aligned} $ \newline
\underline{Erreur~:} \newline
$ \begin{aligned}
& \abs{\e^{\left( k \right)}} = \abs{x^{\left( k \right)} - \alpha} \leq \frac{b - a}{2^{k+1}}
\end{aligned} $
\\\hline
\textbf{Méthode de Newton} \newline
\underline{Conditions~:} \newline
$ \begin{aligned}
&f \left( x \right) \text{ dérivable } \\
&k \in \symbb{N}
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&x^{\left( k+1 \right)} = x^{\left( k \right)} - \frac{f \left( x^{\left( k \right)} \right)}{f' \left( x^{\left( k \right)} \right)}
\end{aligned} $ \newline
\underline{Convergence locale~:} \newline
$ \begin{aligned}
&\text{Si } f \left( x \right) \text{ continue et deux fois dérivable sur } \left[ a;b \right] \\
&\text{Si } f \left( \alpha \right) = 0 \text{ et } f' \left( \alpha \right) \neq 0 \\
&\text{Alors } \exists \delta > 0 \text{ t.q. si } \abs{x^{\left( 0 \right)} - \alpha} \leq \delta \text{, la méthode converge} \\
&\text{Alors } \lim_{k \to \infty}{\frac{x^{\left( k+1 \right)} - \alpha}{\left( x^{\left( k \right)} - \alpha \right)^2}} = \frac{f'' \left( \alpha \right)}{2 \cdot f' \left( \alpha \right)} \qquad \text{ (ordre 2)}
\end{aligned} $
\\\hline
\textbf{Point fixe} \newline
\underline{Conditions~:} \newline
$ \begin{aligned}
&\phi \left( \alpha \right) = \alpha \quad \Leftrightarrow \quad f \left( \alpha \right) = 0 \comma x^{\left( k \right)} \rightarrow \alpha \text{ et } \phi \left( x \right) \text{ continue sur } \left[ a;b \right] \\
&k \in \symbb{N}
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&x^{\left( k+1 \right)} = \phi \left( x^{\left( k \right)} \right)
\end{aligned} $ \newline
\underline{Convergence globale~:} \newline
$ \begin{aligned}
&\text{Si } \phi \left( x \right) \text{ continue sur } \left[ a;b \right] \\
&\text{Si } \phi \left( x \right) \in \left[ a;b \right] &&\forall x \in \left[ a;b \right] \\
&\text{Si } \exists L < 1 \tq \abs{\phi \left( x_1 \right) - \phi \left( x_2 \right)} \leq L \cdot \abs{x_1 - x_2} &&\forall x_1, x_2 \in \left[ a;b \right]
\end{aligned} $ \newline
\underline{Convergence globale (2)~:} \newline
$ \begin{aligned}
&\text{Si } \phi \left( x \right) \text{ continue et dérivable sur } \left[ a;b \right] \\
&\text{Si } \phi \left( x \right) \in \left[ a;b \right] &&\forall x \in \left[ a;b \right] \\
&\text{Si } \exists K < 1 \tq \abs{\phi' \left( x \right)} \leq K &&\forall x \in \left[ a;b \right]
\end{aligned} $ \newline
\underline{Convergence locale~:} \newline
$ \begin{aligned}
&\text{Si } \phi \left( x \right) \text{ continue et dérivable sur } \left[ a;b \right] \\
&\text{Si } \abs{\phi' \left( \alpha \right)} < 1 \\
&\text{Alors } \exists \delta > 0 \text{ t.q. si } \abs{x^{\left( 0 \right)} - \alpha} \leq \delta \text{, la méthode converge} \\
&\text{Alors } \lim_{k \to \infty}{\frac{x^{\left( k+1 \right)} - \alpha}{x^{\left( k \right)} - \alpha}} = \phi' \left( \alpha \right) \qquad \text{ (ordre 1)}
\end{aligned} $ \newline
\underline{Convergence locale (2)~:} \newline
$ \begin{aligned}
&\text{Si } \phi \left( x \right) \text{ continue et deux fois dérivable sur } \left[ a;b \right] \\
&\text{Si } \phi' \left( \alpha \right) = 0 \text{ et } \phi'' \left( \alpha \right) \neq 0 \\
&\text{Alors } \lim_{k \to \infty}{\frac{x^{\left( k+1 \right)} - \alpha}{\left( x^{\left( k \right)} - \alpha \right)^2}} = \frac{\phi'' \left( \alpha \right)}{2} \qquad \text{ (ordre 2)}
\end{aligned} $
\\\hline
\end{tabu}
\begin{tabu}to 0.5\textwidth{ X| }
\hline
\textbf{Méthode de Newton modifiée} \newline
\underline{Conditions~:} \newline
$ \begin{aligned}
&f \left( x \right) \text{ dérivable et } \alpha \text{ de multiplicité de } m \\
&k \in \symbb{N}
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&x^{\left( k+1 \right)} = x^{\left( k \right)} - m \cdot \frac{f \left( x^{\left( k \right)} \right)}{f' \left( x^{\left( k \right)} \right)}
\end{aligned} $ \newline
\underline{Convergence locale~:} \newline
$ \begin{aligned}
&\text{Si } f \left( x \right) \text{ continue et dérivable sur } \left[ a;b \right] \\
&\text{Si } f \left( \alpha \right) = 0 \text{ et } f' \left( \alpha \right) = 0 \\
&\text{Alors } \exists \delta > 0 \text{ t.q. si } \abs{x^{\left( 0 \right)} - \alpha} \leq \delta \text{, la méthode converge}
\end{aligned} $
\\\hline
\textbf{Méthode de la corde} \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&x^{\left( k+1 \right)} = x^{\left( k \right)} - \frac{f \left( x^{\left( k \right)} \right)}{q \left( x^{\left( k \right)} \right)} \\
&q = \frac{f \left( b \right) -f \left( a \right)}{b-a} \qquad \text{ ou } \qquad q = \frac{f \left( b \right) -f \left( x^{\left( k \right)} \right)}{b-x^{\left( k \right)}}
\end{aligned} $ \newline
\underline{Convergence~:} \newline
$ \begin{aligned}
\abs{1 - \frac{f' \left( \alpha \right)}{q \left( \alpha \right)}} < 1
\end{aligned} $
\\\hline
\textbf{Critères d'arrêt} \newline
\underline{Contrôle de l'incrément~:} \newline
$ \begin{aligned}
& \abs{x^{\left( k+1 \right)} - x^{\left( k \right)}} < \epsilon
\end{aligned} $ \newline
\underline{Contrôle du résidu~:} \newline
$ \begin{aligned}
& \abs{f \left( x^{\left( k \right)} \right)} < \epsilon
\end{aligned} $ \newline
\underline{Cas du point fixe~:} \newline
$ \begin{aligned}
&\text{Le contrôle de l'incrément est optimal si } \phi' \left( \alpha \right) = 0 \text{, satisfaisant si } -1 < \phi' \left( \alpha \right) < 0 \\ &\text{et n'est pas satisfaisant si } \phi' \left( \alpha \right) \text{ est proche de 1.} \\
&\text{Le contrôle du résidu est satisfaisant si } \abs{f'} \simeq 1 \text{ au voisinage de la racine } \alpha \text{.}
\end{aligned} $
\\\hline
\textbf{Multiplicité} \newline
\underline{Définition~:} \newline
$ \begin{aligned}
&\text{On dit qu'un zéro } \alpha \text{ de } f \text{ est de multiplicité } m \in \symbb{N} \text{ si} \\
&f \left( \alpha \right) = \dots = f^{m-1} \left( \alpha \right) = 0 \qquad \text{ et } \qquad f^m \left( \alpha \right) \neq 0 \\
&\text{Un zéro de multiplicité } m = 1 \text{ est appelé zéro simple.}
\end{aligned} $
\\\hline
\textbf{Ordre de convergence} \newline
\underline{Définition~:} \newline
$ \begin{aligned}
&\text{On dit que la convergence est d'ordre } p \geq 1 \text{ s'il existe une constante } C > 0 \\ &\text{ (avec } C < 1 \text{ lorsque } p = 1 \text{) telle que l'inégalité suivante soit satisfaite :} \\
& \abs{x^{\left( k+1 \right)} - \alpha} \leq C \cdot \abs{x^{\left( k \right)} - \alpha}^p \\
&\text{Lorsque } p = 1 \text{, la convergence est dite linéaire.} \\
&\text{Lorsque } p = 2 \text{, la convergence est dite quadratique.}
\end{aligned} $
\\\hline
\end{tabu}
\end{multicols}
\newpage
\begin{multicols}{2}[\centering{\large\textbf{Interpolation}}]
\begin{tabu}to 0.5\textwidth{ |X| }
\hline
\textbf{Polynôme d'interpolation (de degré n)} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&\text{Soient } n + 1 \text{ noeuds distincts } x_0, x_1, \dots x_n &\text{et } n + 1 \text{ valeurs } y_0, y_1, \dots, y_n \\
&p \left( x_j \right) = y_j \comma 0 \leq j \leq n \\
&p \left( x \right) = \Pi_n \left( x \right) = \Pi_nf \left( x \right) \\
&I = \left[ a;b \right] \\
&h = \frac{b-a}{n}
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&\varphi_k \left( x \right) = \prod_{j = 0, j \neq k}^n \frac{x - x_j}{x_k - x_j} &\text{ (Base de Lagrange)} \\
&\Pi_n \left( x \right) = \sum_{k = 0}^n y_k \cdot \varphi_k \left( x \right) &\text{ (Polynôme d'interpolation)} \\
&\Pi_nf \left( x \right) = \sum_{k = 0}^n f \left( x_k \right) \cdot \varphi_k \left( x \right) &\text{ (Interpolant de } f \text{)} \\
\end{aligned} $ \newline
\underline{Erreur~:} \newline
$ \begin{aligned}
&\max_{x \in I} \abs{E_n f \left( x \right)} \leq \frac{1}{4 \cdot \left( n+1 \right)} \cdot h^{n+1} \cdot \max_{x \in I} \abs{f^{\left( n+1 \right)} \left( x \right)}
\end{aligned} $
\\\hline
\textbf{Interpolation par morceaux~:} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&a = x_0 < x_1 < \dots < x_N = b \text{ les points qui divisent } I \text{ en} \\ &\text{réunion d'intervalles } I_i = \left[ x_i, x_{i+1} \right] \\
&H = \frac{b-a}{N}
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&\Pi_1^Hf \left( x \right) = f \left( x_i \right) + \frac{f \left( x_{i+1} \right) - f \left( x_i \right)}{x_{i+1} - x_i} \cdot \left( x - x_i \right) \text{ pour } x \in I_i
\end{aligned} $ \newline
\underline{Erreurs~:} \newline
$ \begin{aligned}
&\max_{x \in I} \abs{E_1^H f \left( x \right)} \leq \frac{H^2}{8} \cdot \max_{x \in I} \abs{f'' \left( x \right)} \\
&\max_{x \in I} \abs{E_r^H f \left( x \right)} \leq \frac{H^{r+1}}{4 \cdot \left( r+1 \right)} \cdot \max_{x \in I} \abs{f^{\left( r+1 \right)} \left( x \right)}
\end{aligned} $
\\\hline
\textbf{Méthode des moindres carrés (de degré m)} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&\sum_{i = 0}^n \abs{y_i - \tilde{f}_m \left( x_i \right)}^2 \leq \sum_{i = 0}^n \abs{y_i - p_m \left( x_i \right)}^2 &\forall p_m \left( x \right) \in \symbb{P}_m \\
&\sum_{i = 0}^n \abs{f \left( x_i \right) - \tilde{f}_m \left( x_i \right)}^2 \leq \sum_{i = 0}^n \abs{f \left( x_i \right) - p_m \left( x_i \right)}^2 &\forall p_m \left( x \right) \in \symbb{P}_m \\
&\tilde{f}_m \left( x \right) = a_0 + a_1 \cdot x + a_2 \cdot x^2 + \dots + a_m \cdot x^m
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&\Phi \left( b_0, b_1, \dots, b_m \right) = \sum_{i = 0}^n \left( y_i - \left( b_0 + b_1 \cdot x_i + b_2 \cdot x_i^2 + \dots + b_m \cdot x_i^m \right) \right)^2 \\
&\Phi \left( a_0, a_1, \dots, a_m \right) = \min_{b_i, i = 0, \dots, m} \Phi \left( b_0, b_1, \dots, b_m \right) \\
&\frac{\partial \Phi}{\partial b_i} \left( a_0, a_1, \dots, a_m \right) = 0 \comma 0 \leq i \leq m \qquad \text{ (Système de degré } m+1 \text{)}
\end{aligned} $ \newline
\underline{Méthode (2)~:} \newline
$ \begin{aligned}
&B = \begin{pmatrix}
1 & x_0 & \ldots & x_0^m \\
1 & x_1 & \ldots & x_1^m \\
\vdots & \vdots & \ddots & \vdots \\
1 & x_n & \ldots & x_n^m \\
\end{pmatrix} &&\vec{y} = \begin{pmatrix}
y_0 \\
y_1 \\
\vdots \\
y_n \\
\end{pmatrix} \\
&B^T \cdot B \cdot \vec{a} = B^T \cdot \vec{y}
\end{aligned} $
\\\hline
\end{tabu}
\begin{tabu}to 0.5\textwidth{ X| }
\hline
\textbf{Interpolation par fonctions splines} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&I = \left[ a;b \right] \\
&a = x_0 < x_1 < \dots < x_n = b \text{ les points qui divisent } I \text{ en réunion} \\ &\text{d'intervalles } I_i = \left[ x_i, x_{i+1} \right]
\end{aligned} $ \newline
\underline{Spline~:} \newline
$ \begin{aligned}
&s_{3 \mid I_i} \in \symbb{P}_3 &&\forall i = 0, \dots, n-1 \\
&s_3 \left( x_i \right) = f \left( x_i \right) &&\forall i = 0, \dots, n \\
&s_3 \in C^2 \left( I \right)
\end{aligned} $ \newline
\underline{Conditions aux bords~:} \newline
$ \begin{aligned}
&s_3 \left( x_i^- \right) = s_3 \left( x_i^+ \right) \\
&s_3' \left( x_i^- \right) = s_3' \left( x_i^+ \right) \\
&s_3'' \left( x_i^- \right) = s_3'' \left( x_i^+ \right)
\end{aligned} $ \newline
\underline{Spline naturelle~:} \newline
$ \begin{aligned}
&s_3'' \left( x_0^+ \right) = 0 \\
&s_3'' \left( x_n^- \right) = 0
\end{aligned} $ \newline
\underline{Spline not-a-knot~:} \newline
$ \begin{aligned}
&s_3''' \left( x_1^- \right) = s_3''' \left( x_1^+ \right) \\
&s_3''' \left( x_{n-1}^- \right) = s_3''' \left( x_{n-1}^+ \right)
\end{aligned} $
\\\hline
\end{tabu}
\end{multicols}
\newpage
\begin{multicols}{2}[\centering{\large\textbf{Intégration}}]
\begin{tabu}to 0.5\textwidth{ |X| }
\hline
\textbf{Formules d'intégration simples} \newline
\underline{Définition~:} \newline
$ \begin{aligned}
&I \left( f \right) = \int_a^b f \left( x \right) \cdot \dif x
\end{aligned} $ \newline
\underline{Méthodes~:} \newline
$ \begin{aligned}
&I_{pm} \left( f \right) = \left( b - a \right) \cdot f \left( \frac{a+b}{2} \right) &\text{ (Point millieu)} \\
&I_t \left( f \right) = \left( b - a \right) \cdot \frac{f \left( a \right) + f \left( b \right)}{2} &\text{ (Trapèze)} \\
&I_s \left( f \right) = \frac{b - a}{6} \cdot \left[ f \left( a \right) + 4 \cdot f \left( \frac{a+b}{2} \right) + f \left( b \right) \right] &\text{ (Simpson)}
\end{aligned} $ \newline
\underline{Formule générale~:} \newline
$ \begin{aligned}
&I_{appr} \left( f \right) = \sum_{k = 0}^n \alpha_k \cdot f \left( x_k \right) \\
&x_k \text{ sont les noeuds et } \alpha_k \text{ sont les poids}
\end{aligned} $ \newline
\underline{Noeuds et poids~:} \newline
$ \begin{aligned}
&\text{Point milieu} &&x_0 = \frac{1}{2} \cdot \left( a+b \right) && \alpha_0 = b-a \\
&\text{Trapèze} &&x_0 = a, x_1 = b && \alpha_0 = \alpha_1 = \frac{1}{2} \cdot \left( b-a \right) \\
&\text{Simpson} &&\begin{array}{@{}l} x_0 = a \\ x_1 = \frac{1}{2} \cdot \left( a+b \right) \\ x_2 = b \\ \end{array} &&\begin{array}{@{}l} \alpha_0 = \alpha_2 = \frac{1}{6} \cdot \left( b-a \right) \\ \alpha_1 = \frac{2}{3} \cdot \left( b-a \right) \\ \end{array}
\end{aligned} $ \newline
\underline{Erreur~:} \newline
$ \begin{aligned}
& \abs{I \left( f \right) - I_{appr} \left( f \right)} \leq \max_{x \in \left[ a;b \right]} \abs{f \left( x \right) - \Pi_nf \left( x \right)} \cdot \left( b-a \right)
\end{aligned} $
\\\hline
\textbf{Degré d'exactitude} \newline
\underline{Défintion~:} \newline
$ \begin{aligned}
&\text{Une formule de quadrature } I_{appr} \left( f \right) \text{ sur l'intervalle } \left[ a;b \right] \\ &\text{est exacte de degré } r \text{ pour une fonction } f \text{ si} \\
&I_{appr} \left( f \right) = \int_a^b f \left( x \right) \cdot \dif x \qquad \forall f \in \symbb{P}_r \\
&\text{mais pas pour } r+1
\end{aligned} $
\\\hline
\textbf{Ordre} \newline
\underline{Défintion~:} \newline
$ \begin{aligned}
&\text{On définit l'ordre d'une formule d'intégration par l'ordre de son erreur par rapport à } H
\end{aligned} $
\\\hline
\end{tabu}
\begin{tabu}to 0.5\textwidth{ X| }
\hline
\textbf{Formules d'intégration composites} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&\text{Soient } M \text{ sous-intervalles } I_k = \left[ x_{k-1};x_k \right] \comma \qquad k = 1, \dots, M \\
&x_k = a + k \cdot H \\
&H = \frac{b-a}{M} \\
&I \left( f \right) = \sum_{k = 1}^M \int_{I_k} f \left( x \right) \cdot \dif x \approx \sum_{k = 1}^M \int_{I_k} \Pi_nf \left( x \right) \cdot \dif x \approx \int_a^b \sum_{k = 1}^M \Pi_n^Hf \left( x \right) \cdot \dif x
\end{aligned} $ \newline
\underline{Méthodes~:} \newline
$ \begin{aligned}
&I_{pm}^c \left( f \right) = H \cdot \sum_{k = 1}^M f \left( \frac{x_{k-1} + x_k}{2} \right) \\
&I_t^c \left( f \right) = \frac{H}{2} \cdot \sum_{k = 1}^M \left[ f \left( x_{k-1} \right) + f \left( x_k \right) \right] = \frac{H}{2} \cdot \left[ f \left( a \right) + f \left( b \right) \right] + H \cdot \sum_{k = 1}^{M-1} f \left( x_k \right) \\
&I_s^c \left( f \right) = \frac{H}{6} \cdot \sum_{k = 1}^{M} \left[ f \left( x_{k-1} \right) + 4 \cdot f \left( \frac{x_{k-1} + x_k}{2} \right) + f \left( x_k \right) \right]
\end{aligned} $ \newline
\underline{Erreurs~:} \newline
$ \begin{aligned}
& \abs{I \left( f \right) - I_{pm}^c \left( f \right)} \leq \frac{b-a}{24} \cdot H^2 \cdot \max_{x \in \left[ a;b \right]} \abs{f'' \left( x \right)} \\
& \abs{I \left( f \right) - I_t^c \left( f \right)} \leq \frac{b-a}{12} \cdot H^2 \cdot \max_{x \in \left[ a;b \right]} \abs{f'' \left( x \right)} \\
& \abs{I \left( f \right) - I_s^c \left( f \right)} \leq \frac{b-a}{180 \cdot 16} \cdot H^4 \cdot \max_{x \in \left[ a;b \right]} \abs{f'''' \left( x \right)}
\end{aligned} $ \newline
\underline{Degrés d'exactitude~:} \newline
$ \begin{aligned}
&\text{Point milieu} &&\text{1} \\
&\text{Trapèze} &&\text{1} \\
&\text{Simpson} &&\text{3}
\end{aligned} $ \newline
\underline{Ordres par rapport à H~:} \newline
$ \begin{aligned}
&\text{Point milieu} &&\text{2} \\
&\text{Trapèze} &&\text{2} \\
&\text{Simpson} &&\text{4}
\end{aligned} $
\\\hline
\end{tabu}
\end{multicols}
\newpage
\begin{multicols}{2}[\centering{\large\textbf{Systèmes linéaires - Méthodes directes}}]
\begin{tabu}to 0.5\textwidth{ |X }
\hline
\textbf{Énoncé du problème} \newline
\underline{Problème~:} \newline
$ \begin{aligned}
&A \cdot \vec{x} = \vec{b} &\text{Système linéaire d'ordre } n \\
&\sum_{j = 1}^n a_{ij} \cdot x_j = b_i \comma & i = 1, \dots, n
\end{aligned} $ \newline
\underline{Régularité~:} \newline
$ \begin{aligned}
&A \text{ est dite régulière (non signulière) } \quad \Leftrightarrow \quad \det \left( A \right) \neq 0 \\
&\text{Si } A \text{ est régulière, la solution } \vec{x} \text{ du système est unique}
\end{aligned} $
\\\hline
\textbf{Substitution progressive} \newline
\underline{Condition~:} \newline
$ \begin{aligned}
&L \text{ matrice triangulaire inférieur}
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&y_1 = b_1/l_{11} \\
&y_i = \frac{1}{l_{ii}} \cdot \left( b_i - \sum_{j = 1}^{i-1} l_{ij} \cdot y_j \right) \comma i = 2, 3, \dots, n
\end{aligned} $ \newline
\underline{Coût~:} \newline
$ \begin{aligned}
&n^2 \text{ opérations}
\end{aligned} $
\\\hline
\textbf{Substitution rétrograde} \newline
\underline{Condition~:} \newline
$ \begin{aligned}
&U \text{ matrice triangulaire supérieure}
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&x_n = y_n/u_{nn} \\
&x_i = \frac{1}{u_{ii}} \cdot \left( y_i - \sum_{j = i+1}^{n} u_{ij} \cdot x_j \right) \comma i = n-1, n-2, \dots, 1
\end{aligned} $ \newline
\underline{Coût~:} \newline
$ \begin{aligned}
&n^2 \text{ opérations}
\end{aligned} $
\\\hline
\textbf{Factorisation LU} \newline
\underline{Condition~:} \newline
$ \begin{aligned}
&A \text{ matrice carrée non singulière}
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&A \cdot \vec{x} = \vec{b} \quad \Leftrightarrow \quad L \cdot U \cdot \vec{x} = \vec{b} \quad \Leftrightarrow \quad \left\{ \begin{array}{r c l} L \cdot \vec{y} & = & \vec{b} \\ U \cdot \vec{x} & = & \vec{y} \\ \end{array} \right.
\end{aligned} $ \newline
\underline{Coût~:} \newline
$ \begin{aligned}
&\frac{2 \cdot n^3}{3} \text{ opérations (pour la factorisation)}
\end{aligned} $ \newline
\underline{Remarque~:} \newline
$ \begin{aligned}
&\det \left( A \right) = \det \left( L \right) \cdot \det \left( U \right) = \det \left( U \right) = \prod_{k = 1}^n u_{kk}
\end{aligned} $
\\\hline
\textbf{Changement de pivot} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&P \cdot A \cdot Q = L \cdot U \\
&P = P_{n-1} \cdot \dots \cdot P_1 \\
&Q = Q_1 \cdot \dots \cdot Q_{n-1}
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&A \cdot \vec{x} = \vec{b} \quad \Leftrightarrow \quad P \cdot A \cdot Q \cdot Q^{-1} \cdot \vec{x} = P \cdot \vec{b} \quad \Leftrightarrow \quad \left\{ \begin{array}{r c l} L \cdot \vec{y} & = & P \cdot \vec{b} \\ U \cdot \vec{x^{*}} & = & \vec{y} \\ x & = & Q \cdot \vec{x^{*}} \\ \end{array} \right.
\end{aligned} $
\\\hline
\end{tabu}
\begin{tabu}to 0.5\textwidth{ |X| }
\hline
\textbf{Méthode d'élimination de Gauss} \newline
\underline{Conditions~:} \newline
$ \begin{aligned}
&A \text{ matrice carrée non singulière} \\
&k = 1, \dots, n-1
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&l_{ik} = \frac{a_{ik}^{\left( k \right)}}{a_{kk}^{\left( k \right)}} \comma &&i = k+1, \dots, n \\
&a_{ij}^{\left( k+1 \right)} = a_{ij}^{\left( k \right)} - l_{ik} \cdot a_{kj}^{\left( k \right)} \comma &&i, j = k+1, \dots, n \\
&b_{i}^{\left( k+1 \right)} = b_{i}^{\left( k \right)} - l_{ik} \cdot b_{k}^{\left( k \right)} \comma &&i = k+1, \dots, n \\
&l_{ii} = 1 \comma U = A^{\left( n \right)}
\end{aligned} $ \newline
\underline{Coût~:} \newline
$ \begin{aligned}
&\frac{2 \cdot n^3}{3} \text{ opérations}
\end{aligned} $ \newline
\underline{Existence~:} \newline
$ \begin{aligned}
&\text{La factorisation existe et est unique} \\ & \quad \leftrightarrow \quad \text{Les sous-matrices } A_i \left( i = 1, \dots, n-1 \right) \text{ ne sont pas singulières} \\
&\text{Ou si la matrice A est à diagonale dominante par ligne} \\ & \abs{a_{ii}} \geq \sum_{j = 1, \dots, n;j \neq i} \abs{a_{ij}} \comma \qquad i = 1, \dots, n \\
&\text{Ou si la matrice A est à diagonale dominante par colonne} \\ & \abs{a_{jj}} \geq \sum_{i = 1, \dots, n;i \neq j} \abs{a_{ij}} \comma \qquad j = 1, \dots, n \\
&\text{Ou si la matrice A est symétrique définie positive} \\ &A = A^T \text{ et } \lambda_i \left( A \right) > 0 \comma \qquad i = 1, \dots, n \\
&\text{La factorisation existe et est infinie} \\ & \quad \leftrightarrow \quad \text{Les sous-matrices } A_i \left( i = 1, \dots, n \right) \text{ sont singulières} \\
\end{aligned} $
\\\hline
\textbf{Factorisation de Cholesky} \newline
\underline{Condition~:} \newline
$ \begin{aligned}
&A \text{ matrice symétrique définie positive}
\end{aligned} $ \newline
\underline{Définition~:} \newline
$ \begin{aligned}
&A = R^T \cdot R \\
&i = 2, \dots, n
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&r_{11} = \sqrt{a_{11}} \\
&r_{ji} = \frac{1}{r_{jj}} \cdot \left( a_{ij} - \sum_{k = 1}^{j-1} r_{ki} \cdot r_{kj} \right) \comma &&j = 1, \dots, i-1 \\
&r_{ii} = \sqrt{a_{ii} - \sum_{k = 1}^{i-1} r_{ki}^2} \\
\end{aligned} $ \newline
\underline{Coût~:} \newline
$ \begin{aligned}
&\frac{n^3}{3} \text{ opérations}
\end{aligned} $
\\\hline
\textbf{Divers} \newline
\underline{Matrice de Hilbert~:} \newline
$ \begin{aligned}
&a_{ij} = \frac{1}{i+j-1} \comma &&i, j = 1, \dots, n \\
\end{aligned} $ \newline
\underline{Conditionnment~:} \newline
$ \begin{aligned}
&K \left( A \right) = \frac{\lambda_{max} \left( A \right)}{\lambda_{min} \left( A \right)}
\end{aligned} $ \newline
\underline{Erreur~:} \newline
$ \begin{aligned}
&\frac{\norm{\vec{x} - \vec{\hat{x}}}}{\norm{x}} \leq K \left( A \right) \cdot \frac{\norm{\vec{r}}}{\norm{\vec{b}}} \comma \vec{r} = \vec{b} - A \cdot \vec{\hat{x}}
\end{aligned} $
\\\hline
\end{tabu}
\end{multicols}
\newpage
\begin{multicols}{2}[\centering{\large\textbf{Systèmes linéaires - Méthodes itératives}}]
\begin{tabu}to 0.5\textwidth{ |X }
\hline
\textbf{Méthode de Jacobi, Gauss-Seidel et SOR} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&\vec{e}^{\left( k \right)} = \vec{x} - \vec{x}^{\left( k \right)} \\
&\vec{e}^{\left( k+1 \right)} = B^{k+1} \cdot \vec{e}^{\left( 0 \right)} \\
&\rho \left( B \right) = \max \abs{\lambda_i \left( B \right)} < 1 \\
&\vec{r}^{\left( k \right)} = \vec{b} - A \cdot \vec{x}^{\left( k \right)} \\
&B = P^{-1} \cdot \left( P - A \right) = I - P^{-1} \cdot A \\
&\vec{x}^{\left( k+1 \right)} = B \cdot \vec{x}^{\left( k \right)} + \vec{g}
\end{aligned} $ \newline
\underline{Méthode de Jacobi~:} \newline
$ \begin{aligned}
&x_i^{\left( k+1 \right)} = \frac{1}{a_{ii}} \cdot \left( b_i - \sum_{j = 1, j \neq i}^n a_{ij} \cdot x_j^{\left( k \right)} \right) \\ %\comma &&j = 1, \dots, n \\
&B_J = D^{-1} \cdot \left( D - A \right) = I - D^{-1} \cdot A \\
&\vec{g}_J = D^{-1} \cdot \vec{b}
\end{aligned} $ \newline
\underline{Méthode de Gauss-Seidel~:} \newline
$ \begin{aligned}
&x_i^{\left( k+1 \right)} = \frac{1}{a_{ii}} \cdot \left( b_i - \sum_{j = 1}^{i-1} a_{ij} \cdot x_j^{\left( k+1 \right)} - \sum_{j = i+1}^n a_{ij} \cdot x_j^{\left( k \right)} \right) \\ %\comma &&j = 1, \dots, n \\
&B_{GS} = \left( D - E \right)^{-1} \cdot \left( D - E - A \right) = \left( D - E \right)^{-1} \cdot F \\
&\vec{g}_{GS} = \left( D - E \right)^{-1} \cdot \vec{b}
\end{aligned} $ \newline
\underline{Méthode de sur-relaxation successive~:} \newline
$ \begin{aligned}
&x_i^{\left( k+1 \right)} = \frac{\omega}{a_{ii}} \cdot \left( b_i - \sum_{j = 1}^{i-1} a_{ij} \cdot x_j^{\left( k+1 \right)} - \sum_{j = i+1}^n a_{ij} \cdot x_j^{\left( k \right)} \right) + \left( 1 - \omega \right) \cdot x_i^{\left( k \right)} \\ %\comma &&j = 1, \dots, n \\
&B_{SOR} = \left( \frac{1}{\omega} \cdot D - E \right)^{-1} \cdot \left( \frac{1}{\omega} \cdot D - E - A \right) \\
&\hphantom{B_{SOR}} = \left( I - \omega \cdot D^{-1} \cdot E \right)^{-1} \cdot \left[ \left( 1-\omega \right) \cdot I + \omega \cdot D^{-1} \cdot F \right] \\
&\vec{g}_{SOR} = \left( \frac{1}{\omega} \cdot D - E \right)^{-1} \cdot \vec{b}
\end{aligned} $ \newline
\underline{Convergence~:} \newline
$ \begin{aligned}
&\text{Si } A \text{ à diagonale dominante stricte par ligne, Jacobi et Gauss-Seidel sont convergentes} \\
&\text{Si } A \text{ régulière, tridiagonale et dont les coefficients diagonaux sont tous non-nuls, } \\ &\text{Jacobi et Gauss-Seidel sont toutes les deux soit divergentes, soit convergentes, } \\ &\text{dans ce dernier cas, } \qquad \rho \left( B_{GS} \right) = \rho \left( B_J \right)^2 \\
&\text{Si } A \text{ symétrique définie positive, Gauss-Seidel converge, Jacobi pas forcément} \\
&\text{Si } A \text{ symétrique définie positive, SOR converge } \quad \Leftrightarrow \quad 0 < \omega < 2 \\
&\text{Si } A \text{ à diagonale dominante stricte, SOR converge si } \qquad 0 < \omega < 1 \\
\end{aligned} $
\\\hline
\textbf{Méthode de Richardson stationnaire préconditionné} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&P \cdot \left( \vec{x}^{\left( k+1 \right)} - \vec{x}^{\left( k \right)} \right) = \alpha \cdot \vec{r}^{\left( k \right)} \\
&\lambda_i = \text{ valeurs propres de } P^{-1} \cdot A \text{ strictement positives} \\
&\lambda_{max} = \lambda_1 \geq \lambda_2 \geq \dots \geq \lambda_N = \lambda_{min} \\
&\alpha_{opt} = \frac{2}{\lambda_{max} + \lambda_{min}} \\
&\rho_{opt} = \frac{\lambda_{max} - \lambda_{min}}{\lambda_{max} + \lambda_{min}}
\end{aligned} $ \newline
\underline{Convergence~:} \newline
$ \begin{aligned}
&A \text{ et } P \text{ symétriques définies positives} \\
&0 < \alpha < 2/\lambda_{max}
\end{aligned} $ \newline
\underline{Erreur~:} \newline
$ \begin{aligned}
& \norm{\vec{x}^{\left( k \right)} - \vec{x}}_A \leq \left( \frac{K \left( P^{-1} \cdot A \right) - 1}{K \left( P^{-1} \cdot A \right) + 1} \right)^k \cdot \norm{\vec{x}^{\left( 0 \right)} - \vec{x}}_A \comma &&k \geq 0
\end{aligned} $
\\\hline
\end{tabu}
\begin{tabu}to 0.5\textwidth{ |X| }
\hline
\textbf{Méthode de Richardson dynamique précondionné} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&P \cdot \left( \vec{x}^{\left( k+1 \right)} - \vec{x}^{\left( k \right)} \right) = \alpha_k \cdot \vec{r}^{\left( k \right)} \\
&\alpha_k = \frac{\left( \vec{r}^{\left( k \right)}, \vec{z}^{\left( k \right)} \right)}{\left( A \cdot \vec{z}^{\left( k \right)}, \vec{z}^{\left( k \right)} \right)} \\
&\vec{z}^{\left( k \right)} = P^{-1} \cdot \vec{r}^{\left( k \right)}
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&\vec{r}^{\left( 0 \right)} = \vec{b} - A \cdot \vec{x}^{\left( 0 \right)} \\
&P \cdot z^{\left( k \right)} = r^{\left( k \right)} \\
&\alpha_k = \frac{\left( \vec{r}^{\left( k \right)}, \vec{z}^{\left( k \right)} \right)}{\left( A \cdot \vec{z}^{\left( k \right)}, \vec{z}^{\left( k \right)} \right)} \\
&\vec{x}^{\left( k+1 \right)} = \vec{x}^{\left( k \right)} + \alpha_k \cdot \vec{z}^{\left( k \right)} \\
&\vec{r}^{\left( k+1 \right)} = \vec{r}^{\left( k \right)} - \alpha_k \cdot A \cdot \vec{z}^{\left( k \right)}
\end{aligned} $ \newline
\underline{Erreur~:} \newline
$ \begin{aligned}
& \norm{\vec{x}^{\left( k \right)} - \vec{x}}_A \leq \left( \frac{K \left( P^{-1} \cdot A \right) - 1}{K \left( P^{-1} \cdot A \right) + 1} \right)^k \cdot \norm{\vec{x}^{\left( 0 \right)} - \vec{x}}_A \comma &&k \geq 0
\end{aligned} $ \newline
\underline{Convergence~:} \newline
$ \begin{aligned}
&\text{Si } A \text{ et } P \text{ symétriques définies positives} \\
&\text{Si } P = I \text{, on a la méthode du gradient}
\end{aligned} $
\\\hline
\textbf{Méthode du gradient conjugué} \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&\vec{r}^{\left( 0 \right)} = \vec{b} - A \cdot \vec{x}^{\left( 0 \right)} \comma \vec{p}^{\left( 0 \right)} = \vec{r}^{\left( 0 \right)} \\
&\alpha_k = \frac{\left( \vec{r}^{\left( k \right)}, \vec{p}^{\left( k \right)} \right)}{\left( A \cdot \vec{p}^{\left( k \right)}, \vec{p}^{\left( k \right)} \right)} \\
&\vec{x}^{\left( k+1 \right)} = \vec{x}^{\left( k \right)} + \alpha_k \cdot \vec{p}^{\left( k \right)} \\
&\vec{r}^{\left( k+1 \right)} = \vec{r}^{\left( k \right)} - \alpha_k \cdot A \cdot \vec{p}^{\left( k \right)} \\
&\beta_k = \frac{\left( \vec{r}^{\left( k+1 \right)}, A \cdot \vec{p}^{\left( k \right)} \right)}{\left( \vec{p}^{\left( k \right)}, A \cdot \vec{p}^{\left( k \right)} \right)} \\
&\vec{p}^{\left( k+1 \right)} = \vec{r}^{\left( k+1 \right)} - \beta_k \cdot \vec{p}^{\left( k \right)}
\end{aligned} $
\\\hline
\textbf{Méthode du gradient conjugué préconditionné} \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&\vec{r}^{\left( 0 \right)} = \vec{b} - A \cdot \vec{x}^{\left( 0 \right)} \comma \vec{z}^{\left( 0 \right)} = P^{-1} \cdot \vec{r}^{\left( 0 \right)} \comma \vec{p}^{\left( 0 \right)} = \vec{z}^{\left( 0 \right)} \\
&\alpha_k = \frac{\left( \vec{r}^{\left( k \right)}, \vec{p}^{\left( k \right)} \right)}{\left( A \cdot \vec{p}^{\left( k \right)}, \vec{p}^{\left( k \right)} \right)} \\
&\vec{x}^{\left( k+1 \right)} = \vec{x}^{\left( k \right)} + \alpha_k \cdot \vec{p}^{\left( k \right)} \\
&\vec{r}^{\left( k+1 \right)} = \vec{r}^{\left( k \right)} - \alpha_k \cdot A \cdot \vec{p}^{\left( k \right)} \\
&P \cdot z^{\left( k+1 \right)} = r^{\left( k+1 \right)} \\
&\beta_k = \frac{\left( \vec{z}^{\left( k+1 \right)}, A \cdot \vec{p}^{\left( k \right)} \right)}{\left( \vec{p}^{\left( k \right)}, A \cdot \vec{p}^{\left( k \right)} \right)} \\
&\vec{p}^{\left( k+1 \right)} = \vec{z}^{\left( k+1 \right)} - \beta_k \cdot \vec{p}^{\left( k \right)}
\end{aligned} $ \newline
\underline{Erreur~:} \newline
$ \begin{aligned}
& \norm{\vec{x}^{\left( k \right)} - \vec{x}}_A \leq \frac{2 \cdot c^k}{1 + c^{2 \cdot k}} \cdot \norm{\vec{x}^{\left( 0 \right)} - \vec{x}}_A \comma &&k \geq 0 \\
&c = \frac{\sqrt{K \left( P^{-1} \cdot A \right)} - 1}{\sqrt{K \left( P^{-1} \cdot A \right)} + 1}
\end{aligned} $
\\\hline
\textbf{Critère de convergence} \newline
\underline{Convergence~:} \newline
$ \begin{aligned}
&\text{Si } P^{-1} \cdot A \text{ symétrique définie positive} \\
&\frac{\norm{\vec{x}^{\left( k \right)} - \vec{x}}}{\norm{\vec{x}}} \leq K \left( P^{-1} \cdot A \right) \cdot \frac{\norm{P^{-1} \cdot \vec{r^{\left( k \right)}}}}{\norm{P^{-1} \cdot \vec{b}}}
\end{aligned} $
\\\hline
\end{tabu}
\end{multicols}
\newpage
\begin{multicols}{2}[\centering{\large\textbf{Systèmes linéaires - Méthodes directes (suite)}}]
\begin{tabu}to 0.5\textwidth{ |X }
\hline
\textbf{Inverse d'un matrice} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&A^{-1} = \left( \vec{x}^{\left( 1 \right)}, \dots, \vec{x}^{\left( n \right)} \right) \\
&\vec{e}^{\left( k \right)} \text{ vecteur avec composantes nulle sauf la k\textsuperscript{ième} composante qui vaut} 1
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
&A \cdot \vec{x}^{\left( k \right)} = \vec{e}^{\left( k \right)}
\end{aligned} $
\\\hline
\end{tabu}
\begin{tabu}to 0.5\textwidth{ |X| }
\hline
\textbf{Systèmes triangulaires} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&\text{Une matrice } U = \left( u_{ij} \right) \text{ est triangulaire supérieure si} \\
&u_{ij} = 0 \qquad \forall i, j~: 1 \leq j < i \leq n \\
&\text{Une matrice } L = \left( l_{ij} \right) \text{ est triangulaire inférieure si} \\
&l_{ij} = 0 \qquad \forall i, j~: 1 \leq i < j \leq n
\end{aligned} $
\\\hline
\end{tabu}
\end{multicols}
\begin{multicols}{2}[\centering{\large\textbf{Systèmes linéaires - Méthodes itératives (suite)}}]
\begin{tabu}to 0.5\textwidth{ |X| }
\hline
\textbf{Splitting de A} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&A = D - E - F \\
& \left\{ \begin{array}{l l} d_{ij} = a_{ij} &\text{si } i = j \\ d_{ij} = 0 & \text{si } i \neq j \\ \end{array} \right. && \text{Diagonale} \\
& \left\{ \begin{array}{l l} e_{ij} = -a_{ij} & \text{si } i > j \\ e_{ij} = 0 & \text{si } i \leq j \\ \end{array} \right. && \text{Triangulaire inf.}\\
& \left\{ \begin{array}{l l} f_{ij} = -a_{ij} & \text{si } i < j \\ f_{ij} = 0 & \text{si } i \geq j \\ \end{array} \right. && \text{Triangulaire sup.}\\
\end{aligned} $
\\\hline
\end{tabu}
\begin{tabu}to 0.5\textwidth{ X| }
\hline
\textbf{Produit scalaire et normes} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
& \norm{\vec{v}} = \sqrt{\vec{v}^T \cdot \vec{v}} \\
& \norm{\vec{v}}_A = \sqrt{\vec{v}^T \cdot A \cdot \vec{v}} \\
& \left( \vec{v}, \vec{w} \right) = \vec{w}^T \cdot \vec{v} \\
\end{aligned} $
\\\hline
\end{tabu}
\end{multicols}
\begin{multicols}{2}[\centering{\large\textbf{Équations différentielles ordinaires (suite)}}]
\begin{tabu}to 0.5\textwidth{ |X| }
\hline
\textbf{Stabilité absolue} \newline
\underline{Problème modèle~:} \newline
$ \begin{aligned}
& \left\{ \begin{array}{l}
y' \left( t \right) = \lambda \cdot y \left( t \right), \qquad \lambda < 0 \\
y \left( t_0 \right) = y_0 \\
\end{array} \right. \\
&0 = t_0 < t_1 < \dots < t_n < t_{n+1} \dots \text{ tels que } t_n = n \cdot h && \left( h > 0 \right) \\
&\text{dont la solution est } y \left( t \right) = \e^{\lambda \cdot t} \text{ et } \lim_{t \rightarrow \infty} y \left( t \right) = 0
\end{aligned} $ \newline
\underline{Définition~:} \newline
$ \begin{aligned}
&\text{Un schéma de résolution est absolument stable si} \\
&\lim_{n \rightarrow \infty} u_n = 0
\end{aligned} $ \newline
\underline{Stablilité~:} \newline
$ \begin{aligned}
&\text{EP~: si } 0 < h < 2/\lambda \\
&\text{ER~: inconditionnellement stable }\\
&\text{PM~: inconditionnellement instable }\\
&\text{CN~: inconditionnellement stable }\\
\end{aligned} $
\\\hline
\end{tabu}
\begin{tabu}to 0.5\textwidth{ X| }
\hline
\textbf{Stabilité} \newline
\underline{Définition~:} \newline
$ \begin{aligned}
&\text{Une méthode numérique absolument stable pour le problème} \\ &\text{modèle est stable pour un problème de Cauchy quelconque.} \\
&\text{Il existe } 0 < \lambda_{min} < \lambda_{max} < \infty \text{ tel que} \\
&-\lambda_{max} < \frac{\partial f \left( t, y \right)}{\partial y} < - \lambda_{min} \qquad \forall t \geq 0, \forall y \in D_y \\
\end{aligned} $ \newline
\underline{Stablilité~:} \newline
$ \begin{aligned}
&\text{EP~: si } 0 < h < 2/\lambda_{max} \\
&\text{ER~: inconditionnellement stable }\\
&\text{PM~: inconditionnellement instable }\\
&\text{CN~: inconditionnellement stable }\\
\end{aligned} $
\\\hline
\end{tabu}
\end{multicols}
\begin{multicols}{2}[\centering{\large\textbf{Systèmes non linéaires}}]
\begin{tabu}to 0.5\textwidth{ |X| }
\hline
\textbf{Méthode de Newton} \newline
\underline{Définition~:} \newline
$ \begin{aligned}
&\vec{f} \left( \vec{x} \right) = 0
\end{aligned} $ \newline
\underline{Méthode~:} \newline
$ \begin{aligned}
& \left[ J_f \left( \vec{x}^{\left( k \right)} \right) \right] \cdot \left( \vec{x}^{\left( k+1 \right)} - \vec{x}^{\left( k \right)} \right) = -\vec{f} \left( \vec{x}^{\left( k \right)} \right) \comma &&k = 0, 1, 2, \dots \\
& \quad \leftrightarrow \quad \vec{x}^{\left( k+1 \right)} = \vec{x}^{\left( k \right)} - \left[ J_f \left( \vec{x}^{\left( k \right)} \right) \right]^{-1} \cdot \vec{f} \left( \vec{x}^{\left( k \right)} \right) \comma &&k = 0, 1, 2, \dots
\end{aligned} $
\\\hline
\end{tabu}
\end{multicols}
\newpage
\begin{multicols}{2}[\centering{\large\textbf{{Équations différentielles ordinaires}}}]
\begin{tabu}to 0.5\textwidth{ |X }
\hline
\textbf{Énoncé du problème} \newline
\underline{Problème de Cauchy~:} \newline
$ \begin{aligned}
& \left\{ \begin{array}{l}
y' \left( t \right) = f \left( t, y \left( t \right) \right) \\
y \left( t_0 \right) = y_0 \\
\end{array} \right.
\end{aligned} $ \newline
\underline{Solution~:} \newline
$ \begin{aligned}
&\text{Si la fonction } f \left( t, y \right) \text{ est continue par rapport à ses deux variables et lipschitzienne} \\ & \text{par rapport à sa deuxième variable, alors la solution existe, est unique et appartient} \\ & \text{à } C^1 \left( I \right)
\end{aligned} $
\\\hline
\textbf{Dérivée numérique} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&\text{Soient } t_0, t_1, \dots, t_{N_h} N_h + 1 \text{ noeuds équirépartis dans } \left[ t_0;t_{N_h} \right] \\
&h = \frac{t_{N_h} - t_0}{N_h} \\
& \left( Dy \right)_n \approx y' \left( t_n \right)
\end{aligned} $ \newline
\underline{Méthodes~:} \newline
$ \begin{aligned}
& \left( Dy \right)_n^P = \frac{y \left( t_{n+1} \right) - y \left( t_n \right)}{h} \comma &&n = 0, \dots, N_h-1 \\
& \left( Dy \right)_n^R = \frac{y \left( t_n \right) - y \left( t_{n-1} \right)}{h} \comma &&n = 1, \dots, N_h \\
& \left( Dy \right)_n^C = \frac{y \left( t_{n+1} \right) - y \left( t_{n-1} \right)}{2 \cdot h} \comma &&n = 1, \dots, N_h-1
\end{aligned} $ \newline
\underline{Erreurs~:} \newline
$ \begin{aligned}
& \abs{y' \left( t_n \right) - \left( Dy \right)_n^P} \leq \frac{h}{2} \cdot \max_{t \in \left[ t_n;t_{n+1} \right]} \abs{y'' \left( t \right)} \\
& \abs{y' \left( t_n \right) - \left( Dy \right)_n^R} \leq \frac{h}{2} \cdot \max_{t \in \left[ t_{n-1};t_n \right]} \abs{y'' \left( t \right)} \\
& \abs{y' \left( t_n \right) - \left( Dy \right)_n^C} \leq \frac{h^2}{6} \cdot \max_{t \in \left[ t_{n-1};t_{n+1} \right]} \abs{y''' \left( t \right)}
\end{aligned} $
\\\hline
\textbf{Résolution} \newline
\underline{Définition~:} \newline
$ \begin{aligned}
&u_n \text{ une approximation de } y \left( t_n \right)
\end{aligned} $ \newline
\underline{Méthodes~:} \newline
$ \begin{aligned}
&u_{n+1} = u_n + h \cdot f \left( t_n, u_n \right) & \text{EP} \\
&u_{n+1} = u_n + h \cdot f \left( t_{n+1}, u_{n+1} \right) & \text{ER} \\
&u_{n+1} = u_{n-1} + 2 \cdot h \cdot f \left( t_n, u_n \right) & \text{PM} \\
&u_{n+1} = u_n + \frac{h}{2} \cdot \left[ f \left( t_n, u_n \right) + f \left( t_{n+1}, u_{n+1} \right) \right] & \text{CN} \\
&u_{n+1} = u_n + \frac{h}{2} \cdot \left[ f \left( t_n, u_n \right) + f \left( t_{n+1}, u_n + h \cdot f \left( t_n, u_n \right) \right) \right] & \text{H} \\
&u_{n+1} = u_n + h \cdot f \left( t_{n+\frac{1}{2}}, u_n + \frac{h}{2} \cdot f \left( t_n, u_n \right) \right) & \text{EM} \\
& \left\{ \begin{array}{l}
u_{n+1} = u_n + \frac{h}{6} \cdot \left( K_1 + 2 \cdot K_2 + 2 \cdot K_3 + K_4 \right) \\
K_1 = f \left( t_n, u_n \right) \\
K_2 = f \left( t_n + \frac{h}{2}, u_n + \frac{h}{2} \cdot K_1 \right) \\
K_3 = f \left( t_n + \frac{h}{2}, u_n + \frac{h}{2} \cdot K_2 \right) \\
K_4 = f \left( t_{n+1}, u_n + h \cdot K_3 \right) \\
\end{array} \right. & \text{RK} \\
\end{aligned} $
\\\hline
\end{tabu}
\begin{tabu}to 0.5\textwidth{ |X| }
\hline
\textbf{Convergence} \newline
\underline{Définitions~:} \newline
$ \begin{aligned}
&\text{Une méthode est dite convergente si} \\
&\forall n = 0, .., N_h~: \abs{u_n - y \left( t_n \right)} \leq C \left( h \right) \\
&\text{} C \left( h \right) \rightarrow 0 \text{ lorsque } h \rightarrow 0 \\
&\text{Si en plus, il existe } p > 0 \text{ tel que } C \left( h \right) = \symcal{O} \left( h^p \right) \text{ on dit que la} \\ &\text{méthode est convergente d'ordre } p
\end{aligned} $ \newline
\underline{Convergence de EP~:} \newline
$ \begin{aligned}
&\text{Si } y \in C^2 \left( \left[ 0;T \right] \right) \comma f \text{ est lipschitzienne et en plus} \\
&-\lambda_{max} < \frac{\partial f \left( t, y \right)}{\partial y} < 0 \qquad \forall t \in \left[ 0;T \right], \forall y \in \left[ -\infty;\infty \right] \\
&\text{Alors } \abs{y \left( t_n \right) - u_n} \leq t_n \cdot \frac{h}{2} \cdot \max_t \abs{y'' \left( t \right)} \\
\end{aligned} $ \newline
\underline{Convergence de EP (2)~:} \newline
$ \begin{aligned}
&\text{Si } y \in C^2 \left( \left[ 0;T \right] \right) \text{ et } f \text{ est lipschitzienne avec sa constante } L \\
&\text{Alors } \abs{y \left( t_n \right) - u_n} \leq h \cdot \frac{\e^{L \cdot t_n} - 1}{2 \cdot L} \cdot \max_t \abs{y'' \left( t \right)} \\
\end{aligned} $ \newline
\underline{Convergence de ER~:} \newline
$ \begin{aligned}
&\text{Le même type de résultat peut être établi pour ER}
\end{aligned} $
\\\hline
\textbf{Nb. pas/Ordre/Stabilité/Explicite-Implicite} \newline
$ \begin{aligned}
&\text{Euler progressif} &&\text{1} &&\text{1} &\text{Cond.} &&\text{Expl.} \\
&\text{Euler rétrograde} &&\text{1} &&\text{1} &\text{Incond.} &&\text{Impl.} \\
&\text{Point millieu} &&\text{2} &&\text{1} &\text{Instable} &&\text{Expl.} \\
&\text{Crank-Nicolson} &&\text{1} &&\text{2} &\text{Incond.} &&\text{Impl.} \\
&\text{Heun} &&\text{1} &&\text{2} &\text{Cond.} &&\text{Expl.} \\
&\text{Euler modifiée} &&\text{1} &&\text{2} &\text{Cond.} &&\text{Expl.} \\
&\text{Runge-Kutta} &&\text{1} &&\text{4} &\text{Cond.} &&\text{Expl.}
\end{aligned} $
\\\hline
\textbf{Systèmes d'équations} \newline
\underline{Problème~:} \newline
$ \begin{aligned}
& \left\{ \begin{array}{l}
\vec{y}' \left( t \right) = A \cdot \vec{y} \left( t \right) + \vec{b} \left( t \right) \\
\vec{y} \left( t_0 \right) = \vec{y}_0 \\
\end{array} \right.
\end{aligned} $ \newline
\underline{Méthodes~:} \newline
$ \begin{aligned}
&\vec{u}_{n+1} = \left( I + h \cdot A \right) \cdot \vec{u}_n + h \cdot \vec{b}_n &\text{EP} \\
& \left( I - h \cdot A \right) \cdot \vec{u}_{n+1} = \vec{u}_n + h \cdot \vec{b}_n &\text{ER} \\
& \left( I - \frac{h}{2} \cdot A \right) \cdot \vec{u}_{n+1} = \left( I + \frac{h}{2} \cdot A \right) \cdot \vec{u}_n + \frac{h}{2} \cdot \left( \vec{b}_n + \vec{b}_{n+1} \right) &\text{CN}
\end{aligned} $ \newline
\underline{Stabilité~:} \newline
$ \begin{aligned}
&\lambda_i \left( A \right) < 0 &&\forall i\\
&h < 2/\rho \left( A \right) &&\text{pour EP; ER et CN incond. stables}
\end{aligned} $
\\\hline
\textbf{Système d'équations non linéaires} \newline
\underline{Problème~:} \newline
$ \begin{aligned}
& \left\{ \begin{array}{l}
\vec{y}' \left( t \right) = \vec{F} \left( t, \vec{y} \left( t \right) \right) \\
\vec{y} \left( t_0 \right) = \vec{y}_0 \\
\end{array} \right. \\
& J = \frac{\partial \vec{F}}{\partial \vec{y}}
\end{aligned} $ \newline
\underline{Méthodes~:} \newline
$ \begin{aligned}
&\vec{u}_{n+1} = \vec{u}_n + h \cdot \vec{F} \left( t_n, \vec{u}_n \right) &\text{EP} \\
&\vec{u}_{n+1} = \vec{u}_n + h \cdot \vec{F} \left( t_{n+1}, \vec{u}_{n+1} \right) &\text{ER} \\
&\vec{u}_{n+1} = \vec{u}_n + \frac{h}{2} \cdot \left[ \vec{F} \left( t_n, \vec{u}_n \right) + \vec{F} \left( t_{n+1}, \vec{u}_{n+1} \right) \right] &\text{CN}
\end{aligned} $ \newline
\underline{Stabilité~:} \newline
$ \begin{aligned}
&\lambda_i \left( J \right) < 0 &&\forall i\\
&h < 2/\rho \left( J \right) &&\text{pour EP; ER et CN incond. stables}
\end{aligned} $
\\\hline
\end{tabu}
\end{multicols}