1047 lines
47 KiB
TeX
1047 lines
47 KiB
TeX
\begin{multicols}{2}[\centering{\large\textbf{Définitions}}]
|
||
|
||
\begin{tabu}to 0.5\textwidth{ |X| }
|
||
\hline
|
||
\textbf{Méthodes numériques~:} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&F \left( x, d \right) = 0 \text{ un problème } \\
|
||
&F_n \left( x_n, d_n \right) = 0 \comma n > 1 \text{ une suite de problèmes } \\
|
||
&x = G \left( d \right) \text{ t.q } F \left( G \left( d \right), d \right) = 0 \text{ une application résolvante } \\
|
||
&x_n \rightarrow x \text{ pour } n \rightarrow \infty \\
|
||
&d_n \rightarrow d \text{ pour } n \rightarrow \infty \\
|
||
&F_n \text{ approche } F \text{ pour } n \rightarrow \infty
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Consistance~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{La méthode numérique (} P_n \text{) est consistante si} \\
|
||
&F_n \left( x_n, d_n \right) - F \left( x, d \right) \rightarrow 0 \text{ pour } n \rightarrow \infty \\
|
||
&\text{où } x \text{ est la solution du problème (} P \text{) correspondant à la donnée } d \\
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Stabilité~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Une méthode numérique est bien posée (ou stable) s’il existe, pour tout } n \text{ une unique} \\ &\text{solution } x_n \text{ correspondant à la donnée } d_n \text{ et si } x_n \text{ dépend continûment des données, i.e.} \\
|
||
&\forall d_n, \exists \eta_0 = \eta_0 \left( d_n \right) > 0 \comma \exists K_0 = K_0 \left( \eta_0, d_n \right) \text{t.q} \\
|
||
&\forall \delta d_n~: \norm{\delta d_n} \leq \eta_0 \rightarrow \norm{\delta x_n} \leq K_0 \cdot \norm{\delta d_n}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Si le problème numérique (} P_n \text{) est consistant avec le problème (} P \text{), alors il est} \\ &\text{convergent si, et seulement si, il est stable}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
|
||
\end{multicols}
|
||
\newpage
|
||
\begin{multicols}{2}[\centering{\large\textbf{Équations non-linéaires}}]
|
||
|
||
\begin{tabu}to 0.5\textwidth{ |X| }
|
||
\hline
|
||
|
||
\textbf{Dichotomie ou bissection} \newline
|
||
\underline{Conditions~:} \newline
|
||
$ \begin{aligned}
|
||
&f \left( a \right) \cdot f \left( b \right) < 0 \text{ et } f \left( x \right) \text{ continue sur } \left[ a;b \right] \\
|
||
&k \in \symbb{N}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&x^{\left( k \right)} = \frac{a^{\left( k \right)} + b^{\left( k \right)}}{2} \\
|
||
&\text{Si } f \left( x^{\left( k \right)} \right) = 0 \qquad \text{ fin} \\
|
||
&\text{Si } f \left( x^{\left( k \right)} \right) \cdot f \left( a \right) < 0 \comma a^{\left( k+1 \right)} = a^{\left( k \right)} \text{ et } b^{\left( k+1 \right)} = x^{\left( k \right)} \\
|
||
&\text{Si } f \left( x^{\left( k \right)} \right) \cdot f \left( b \right) < 0 \comma a^{\left( k+1 \right)} = x^{\left( k \right)} \text{ et } b^{\left( k+1 \right)} = b^{\left( k \right)}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Erreur~:} \newline
|
||
$ \begin{aligned}
|
||
& \abs{\e^{\left( k \right)}} = \abs{x^{\left( k \right)} - \alpha} \leq \frac{b - a}{2^{k+1}}
|
||
\end{aligned} $
|
||
\\\hline
|
||
\textbf{Méthode de Newton} \newline
|
||
\underline{Conditions~:} \newline
|
||
$ \begin{aligned}
|
||
&f \left( x \right) \text{ dérivable } \\
|
||
&k \in \symbb{N}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&x^{\left( k+1 \right)} = x^{\left( k \right)} - \frac{f \left( x^{\left( k \right)} \right)}{f' \left( x^{\left( k \right)} \right)}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence locale~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Si } f \left( x \right) \text{ continue et deux fois dérivable sur } \left[ a;b \right] \\
|
||
&\text{Si } f \left( \alpha \right) = 0 \text{ et } f' \left( \alpha \right) \neq 0 \\
|
||
&\text{Alors } \exists \delta > 0 \text{ t.q. si } \abs{x^{\left( 0 \right)} - \alpha} \leq \delta \text{, la méthode converge} \\
|
||
&\text{Alors } \lim_{k \to \infty}{\frac{x^{\left( k+1 \right)} - \alpha}{\left( x^{\left( k \right)} - \alpha \right)^2}} = \frac{f'' \left( \alpha \right)}{2 \cdot f' \left( \alpha \right)} \qquad \text{ (ordre 2)}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Point fixe} \newline
|
||
\underline{Conditions~:} \newline
|
||
$ \begin{aligned}
|
||
&\phi \left( \alpha \right) = \alpha \quad \Leftrightarrow \quad f \left( \alpha \right) = 0 \comma x^{\left( k \right)} \rightarrow \alpha \text{ et } \phi \left( x \right) \text{ continue sur } \left[ a;b \right] \\
|
||
&k \in \symbb{N}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&x^{\left( k+1 \right)} = \phi \left( x^{\left( k \right)} \right)
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence globale~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Si } \phi \left( x \right) \text{ continue sur } \left[ a;b \right] \\
|
||
&\text{Si } \phi \left( x \right) \in \left[ a;b \right] &&\forall x \in \left[ a;b \right] \\
|
||
&\text{Si } \exists L < 1 \tq \abs{\phi \left( x_1 \right) - \phi \left( x_2 \right)} \leq L \cdot \abs{x_1 - x_2} &&\forall x_1, x_2 \in \left[ a;b \right]
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence globale (2)~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Si } \phi \left( x \right) \text{ continue et dérivable sur } \left[ a;b \right] \\
|
||
&\text{Si } \phi \left( x \right) \in \left[ a;b \right] &&\forall x \in \left[ a;b \right] \\
|
||
&\text{Si } \exists K < 1 \tq \abs{\phi' \left( x \right)} \leq K &&\forall x \in \left[ a;b \right]
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence locale~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Si } \phi \left( x \right) \text{ continue et dérivable sur } \left[ a;b \right] \\
|
||
&\text{Si } \abs{\phi' \left( \alpha \right)} < 1 \\
|
||
&\text{Alors } \exists \delta > 0 \text{ t.q. si } \abs{x^{\left( 0 \right)} - \alpha} \leq \delta \text{, la méthode converge} \\
|
||
&\text{Alors } \lim_{k \to \infty}{\frac{x^{\left( k+1 \right)} - \alpha}{x^{\left( k \right)} - \alpha}} = \phi' \left( \alpha \right) \qquad \text{ (ordre 1)}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence locale (2)~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Si } \phi \left( x \right) \text{ continue et deux fois dérivable sur } \left[ a;b \right] \\
|
||
&\text{Si } \phi' \left( \alpha \right) = 0 \text{ et } \phi'' \left( \alpha \right) \neq 0 \\
|
||
&\text{Alors } \lim_{k \to \infty}{\frac{x^{\left( k+1 \right)} - \alpha}{\left( x^{\left( k \right)} - \alpha \right)^2}} = \frac{\phi'' \left( \alpha \right)}{2} \qquad \text{ (ordre 2)}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
\begin{tabu}to 0.5\textwidth{ X| }
|
||
\hline
|
||
|
||
\textbf{Méthode de Newton modifiée} \newline
|
||
\underline{Conditions~:} \newline
|
||
$ \begin{aligned}
|
||
&f \left( x \right) \text{ dérivable et } \alpha \text{ de multiplicité de } m \\
|
||
&k \in \symbb{N}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&x^{\left( k+1 \right)} = x^{\left( k \right)} - m \cdot \frac{f \left( x^{\left( k \right)} \right)}{f' \left( x^{\left( k \right)} \right)}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence locale~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Si } f \left( x \right) \text{ continue et dérivable sur } \left[ a;b \right] \\
|
||
&\text{Si } f \left( \alpha \right) = 0 \text{ et } f' \left( \alpha \right) = 0 \\
|
||
&\text{Alors } \exists \delta > 0 \text{ t.q. si } \abs{x^{\left( 0 \right)} - \alpha} \leq \delta \text{, la méthode converge}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Méthode de la corde} \newline
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&x^{\left( k+1 \right)} = x^{\left( k \right)} - \frac{f \left( x^{\left( k \right)} \right)}{q \left( x^{\left( k \right)} \right)} \\
|
||
&q = \frac{f \left( b \right) -f \left( a \right)}{b-a} \qquad \text{ ou } \qquad q = \frac{f \left( b \right) -f \left( x^{\left( k \right)} \right)}{b-x^{\left( k \right)}}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence~:} \newline
|
||
$ \begin{aligned}
|
||
\abs{1 - \frac{f' \left( \alpha \right)}{q \left( \alpha \right)}} < 1
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Critères d'arrêt} \newline
|
||
\underline{Contrôle de l'incrément~:} \newline
|
||
$ \begin{aligned}
|
||
& \abs{x^{\left( k+1 \right)} - x^{\left( k \right)}} < \epsilon
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Contrôle du résidu~:} \newline
|
||
$ \begin{aligned}
|
||
& \abs{f \left( x^{\left( k \right)} \right)} < \epsilon
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Cas du point fixe~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Le contrôle de l'incrément est optimal si } \phi' \left( \alpha \right) = 0 \text{, satisfaisant si } -1 < \phi' \left( \alpha \right) < 0 \\ &\text{et n'est pas satisfaisant si } \phi' \left( \alpha \right) \text{ est proche de 1.} \\
|
||
&\text{Le contrôle du résidu est satisfaisant si } \abs{f'} \simeq 1 \text{ au voisinage de la racine } \alpha \text{.}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Multiplicité} \newline
|
||
\underline{Définition~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{On dit qu'un zéro } \alpha \text{ de } f \text{ est de multiplicité } m \in \symbb{N} \text{ si} \\
|
||
&f \left( \alpha \right) = \dots = f^{m-1} \left( \alpha \right) = 0 \qquad \text{ et } \qquad f^m \left( \alpha \right) \neq 0 \\
|
||
&\text{Un zéro de multiplicité } m = 1 \text{ est appelé zéro simple.}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Ordre de convergence} \newline
|
||
\underline{Définition~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{On dit que la convergence est d'ordre } p \geq 1 \text{ s'il existe une constante } C > 0 \\ &\text{ (avec } C < 1 \text{ lorsque } p = 1 \text{) telle que l'inégalité suivante soit satisfaite :} \\
|
||
& \abs{x^{\left( k+1 \right)} - \alpha} \leq C \cdot \abs{x^{\left( k \right)} - \alpha}^p \\
|
||
&\text{Lorsque } p = 1 \text{, la convergence est dite linéaire.} \\
|
||
&\text{Lorsque } p = 2 \text{, la convergence est dite quadratique.}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
|
||
\end{multicols}
|
||
\newpage
|
||
\begin{multicols}{2}[\centering{\large\textbf{Interpolation}}]
|
||
|
||
\begin{tabu}to 0.5\textwidth{ |X| }
|
||
\hline
|
||
|
||
\textbf{Polynôme d'interpolation (de degré n)} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Soient } n + 1 \text{ noeuds distincts } x_0, x_1, \dots x_n &\text{et } n + 1 \text{ valeurs } y_0, y_1, \dots, y_n \\
|
||
&p \left( x_j \right) = y_j \comma 0 \leq j \leq n \\
|
||
&p \left( x \right) = \Pi_n \left( x \right) = \Pi_nf \left( x \right) \\
|
||
&I = \left[ a;b \right] \\
|
||
&h = \frac{b-a}{n}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&\varphi_k \left( x \right) = \prod_{j = 0, j \neq k}^n \frac{x - x_j}{x_k - x_j} &\text{ (Base de Lagrange)} \\
|
||
&\Pi_n \left( x \right) = \sum_{k = 0}^n y_k \cdot \varphi_k \left( x \right) &\text{ (Polynôme d'interpolation)} \\
|
||
&\Pi_nf \left( x \right) = \sum_{k = 0}^n f \left( x_k \right) \cdot \varphi_k \left( x \right) &\text{ (Interpolant de } f \text{)} \\
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Erreur~:} \newline
|
||
$ \begin{aligned}
|
||
&\max_{x \in I} \abs{E_n f \left( x \right)} \leq \frac{1}{4 \cdot \left( n+1 \right)} \cdot h^{n+1} \cdot \max_{x \in I} \abs{f^{\left( n+1 \right)} \left( x \right)}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Interpolation par morceaux~:} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&a = x_0 < x_1 < \dots < x_N = b \text{ les points qui divisent } I \text{ en} \\ &\text{réunion d'intervalles } I_i = \left[ x_i, x_{i+1} \right] \\
|
||
&H = \frac{b-a}{N}
|
||
\end{aligned} $ \newline
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&\Pi_1^Hf \left( x \right) = f \left( x_i \right) + \frac{f \left( x_{i+1} \right) - f \left( x_i \right)}{x_{i+1} - x_i} \cdot \left( x - x_i \right) \text{ pour } x \in I_i
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Erreurs~:} \newline
|
||
$ \begin{aligned}
|
||
&\max_{x \in I} \abs{E_1^H f \left( x \right)} \leq \frac{H^2}{8} \cdot \max_{x \in I} \abs{f'' \left( x \right)} \\
|
||
&\max_{x \in I} \abs{E_r^H f \left( x \right)} \leq \frac{H^{r+1}}{4 \cdot \left( r+1 \right)} \cdot \max_{x \in I} \abs{f^{\left( r+1 \right)} \left( x \right)}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Méthode des moindres carrés (de degré m)} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&\sum_{i = 0}^n \abs{y_i - \tilde{f}_m \left( x_i \right)}^2 \leq \sum_{i = 0}^n \abs{y_i - p_m \left( x_i \right)}^2 &\forall p_m \left( x \right) \in \symbb{P}_m \\
|
||
&\sum_{i = 0}^n \abs{f \left( x_i \right) - \tilde{f}_m \left( x_i \right)}^2 \leq \sum_{i = 0}^n \abs{f \left( x_i \right) - p_m \left( x_i \right)}^2 &\forall p_m \left( x \right) \in \symbb{P}_m \\
|
||
&\tilde{f}_m \left( x \right) = a_0 + a_1 \cdot x + a_2 \cdot x^2 + \dots + a_m \cdot x^m
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&\Phi \left( b_0, b_1, \dots, b_m \right) = \sum_{i = 0}^n \left( y_i - \left( b_0 + b_1 \cdot x_i + b_2 \cdot x_i^2 + \dots + b_m \cdot x_i^m \right) \right)^2 \\
|
||
&\Phi \left( a_0, a_1, \dots, a_m \right) = \min_{b_i, i = 0, \dots, m} \Phi \left( b_0, b_1, \dots, b_m \right) \\
|
||
&\frac{\partial \Phi}{\partial b_i} \left( a_0, a_1, \dots, a_m \right) = 0 \comma 0 \leq i \leq m \qquad \text{ (Système de degré } m+1 \text{)}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode (2)~:} \newline
|
||
$ \begin{aligned}
|
||
&B = \begin{pmatrix}
|
||
1 & x_0 & \ldots & x_0^m \\
|
||
1 & x_1 & \ldots & x_1^m \\
|
||
\vdots & \vdots & \ddots & \vdots \\
|
||
1 & x_n & \ldots & x_n^m \\
|
||
\end{pmatrix} &&\vec{y} = \begin{pmatrix}
|
||
y_0 \\
|
||
y_1 \\
|
||
\vdots \\
|
||
y_n \\
|
||
\end{pmatrix} \\
|
||
&B^T \cdot B \cdot \vec{a} = B^T \cdot \vec{y}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
\begin{tabu}to 0.5\textwidth{ X| }
|
||
\hline
|
||
|
||
\textbf{Interpolation par fonctions splines} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&I = \left[ a;b \right] \\
|
||
&a = x_0 < x_1 < \dots < x_n = b \text{ les points qui divisent } I \text{ en réunion} \\ &\text{d'intervalles } I_i = \left[ x_i, x_{i+1} \right]
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Spline~:} \newline
|
||
$ \begin{aligned}
|
||
&s_{3 \mid I_i} \in \symbb{P}_3 &&\forall i = 0, \dots, n-1 \\
|
||
&s_3 \left( x_i \right) = f \left( x_i \right) &&\forall i = 0, \dots, n \\
|
||
&s_3 \in C^2 \left( I \right)
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Conditions aux bords~:} \newline
|
||
$ \begin{aligned}
|
||
&s_3 \left( x_i^- \right) = s_3 \left( x_i^+ \right) \\
|
||
&s_3' \left( x_i^- \right) = s_3' \left( x_i^+ \right) \\
|
||
&s_3'' \left( x_i^- \right) = s_3'' \left( x_i^+ \right)
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Spline naturelle~:} \newline
|
||
$ \begin{aligned}
|
||
&s_3'' \left( x_0^+ \right) = 0 \\
|
||
&s_3'' \left( x_n^- \right) = 0
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Spline not-a-knot~:} \newline
|
||
$ \begin{aligned}
|
||
&s_3''' \left( x_1^- \right) = s_3''' \left( x_1^+ \right) \\
|
||
&s_3''' \left( x_{n-1}^- \right) = s_3''' \left( x_{n-1}^+ \right)
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
|
||
\end{multicols}
|
||
\newpage
|
||
\begin{multicols}{2}[\centering{\large\textbf{Intégration}}]
|
||
|
||
\begin{tabu}to 0.5\textwidth{ |X| }
|
||
\hline
|
||
|
||
\textbf{Formules d'intégration simples} \newline
|
||
\underline{Définition~:} \newline
|
||
$ \begin{aligned}
|
||
&I \left( f \right) = \int_a^b f \left( x \right) \cdot \dif x
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthodes~:} \newline
|
||
$ \begin{aligned}
|
||
&I_{pm} \left( f \right) = \left( b - a \right) \cdot f \left( \frac{a+b}{2} \right) &\text{ (Point millieu)} \\
|
||
&I_t \left( f \right) = \left( b - a \right) \cdot \frac{f \left( a \right) + f \left( b \right)}{2} &\text{ (Trapèze)} \\
|
||
&I_s \left( f \right) = \frac{b - a}{6} \cdot \left[ f \left( a \right) + 4 \cdot f \left( \frac{a+b}{2} \right) + f \left( b \right) \right] &\text{ (Simpson)}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Formule générale~:} \newline
|
||
$ \begin{aligned}
|
||
&I_{appr} \left( f \right) = \sum_{k = 0}^n \alpha_k \cdot f \left( x_k \right) \\
|
||
&x_k \text{ sont les noeuds et } \alpha_k \text{ sont les poids}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Noeuds et poids~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Point milieu} &&x_0 = \frac{1}{2} \cdot \left( a+b \right) && \alpha_0 = b-a \\
|
||
&\text{Trapèze} &&x_0 = a, x_1 = b && \alpha_0 = \alpha_1 = \frac{1}{2} \cdot \left( b-a \right) \\
|
||
&\text{Simpson} &&\begin{array}{@{}l} x_0 = a \\ x_1 = \frac{1}{2} \cdot \left( a+b \right) \\ x_2 = b \\ \end{array} &&\begin{array}{@{}l} \alpha_0 = \alpha_2 = \frac{1}{6} \cdot \left( b-a \right) \\ \alpha_1 = \frac{2}{3} \cdot \left( b-a \right) \\ \end{array}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Erreur~:} \newline
|
||
$ \begin{aligned}
|
||
& \abs{I \left( f \right) - I_{appr} \left( f \right)} \leq \max_{x \in \left[ a;b \right]} \abs{f \left( x \right) - \Pi_nf \left( x \right)} \cdot \left( b-a \right)
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Degré d'exactitude} \newline
|
||
\underline{Défintion~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Une formule de quadrature } I_{appr} \left( f \right) \text{ sur l'intervalle } \left[ a;b \right] \\ &\text{est exacte de degré } r \text{ pour une fonction } f \text{ si} \\
|
||
&I_{appr} \left( f \right) = \int_a^b f \left( x \right) \cdot \dif x \qquad \forall f \in \symbb{P}_r \\
|
||
&\text{mais pas pour } r+1
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Ordre} \newline
|
||
\underline{Défintion~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{On définit l'ordre d'une formule d'intégration par l'ordre de son erreur par rapport à } H
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
|
||
\end{tabu}
|
||
\begin{tabu}to 0.5\textwidth{ X| }
|
||
\hline
|
||
|
||
\textbf{Formules d'intégration composites} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Soient } M \text{ sous-intervalles } I_k = \left[ x_{k-1};x_k \right] \comma \qquad k = 1, \dots, M \\
|
||
&x_k = a + k \cdot H \\
|
||
&H = \frac{b-a}{M} \\
|
||
&I \left( f \right) = \sum_{k = 1}^M \int_{I_k} f \left( x \right) \cdot \dif x \approx \sum_{k = 1}^M \int_{I_k} \Pi_nf \left( x \right) \cdot \dif x \approx \int_a^b \sum_{k = 1}^M \Pi_n^Hf \left( x \right) \cdot \dif x
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthodes~:} \newline
|
||
$ \begin{aligned}
|
||
&I_{pm}^c \left( f \right) = H \cdot \sum_{k = 1}^M f \left( \frac{x_{k-1} + x_k}{2} \right) \\
|
||
&I_t^c \left( f \right) = \frac{H}{2} \cdot \sum_{k = 1}^M \left[ f \left( x_{k-1} \right) + f \left( x_k \right) \right] = \frac{H}{2} \cdot \left[ f \left( a \right) + f \left( b \right) \right] + H \cdot \sum_{k = 1}^{M-1} f \left( x_k \right) \\
|
||
&I_s^c \left( f \right) = \frac{H}{6} \cdot \sum_{k = 1}^{M} \left[ f \left( x_{k-1} \right) + 4 \cdot f \left( \frac{x_{k-1} + x_k}{2} \right) + f \left( x_k \right) \right]
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Erreurs~:} \newline
|
||
$ \begin{aligned}
|
||
& \abs{I \left( f \right) - I_{pm}^c \left( f \right)} \leq \frac{b-a}{24} \cdot H^2 \cdot \max_{x \in \left[ a;b \right]} \abs{f'' \left( x \right)} \\
|
||
& \abs{I \left( f \right) - I_t^c \left( f \right)} \leq \frac{b-a}{12} \cdot H^2 \cdot \max_{x \in \left[ a;b \right]} \abs{f'' \left( x \right)} \\
|
||
& \abs{I \left( f \right) - I_s^c \left( f \right)} \leq \frac{b-a}{180 \cdot 16} \cdot H^4 \cdot \max_{x \in \left[ a;b \right]} \abs{f'''' \left( x \right)}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Degrés d'exactitude~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Point milieu} &&\text{1} \\
|
||
&\text{Trapèze} &&\text{1} \\
|
||
&\text{Simpson} &&\text{3}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Ordres par rapport à H~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Point milieu} &&\text{2} \\
|
||
&\text{Trapèze} &&\text{2} \\
|
||
&\text{Simpson} &&\text{4}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
|
||
\end{multicols}
|
||
\newpage
|
||
\begin{multicols}{2}[\centering{\large\textbf{Systèmes linéaires - Méthodes directes}}]
|
||
|
||
\begin{tabu}to 0.5\textwidth{ |X }
|
||
\hline
|
||
|
||
\textbf{Énoncé du problème} \newline
|
||
\underline{Problème~:} \newline
|
||
$ \begin{aligned}
|
||
&A \cdot \vec{x} = \vec{b} &\text{Système linéaire d'ordre } n \\
|
||
&\sum_{j = 1}^n a_{ij} \cdot x_j = b_i \comma & i = 1, \dots, n
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Régularité~:} \newline
|
||
$ \begin{aligned}
|
||
&A \text{ est dite régulière (non signulière) } \quad \Leftrightarrow \quad \det \left( A \right) \neq 0 \\
|
||
&\text{Si } A \text{ est régulière, la solution } \vec{x} \text{ du système est unique}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Substitution progressive} \newline
|
||
\underline{Condition~:} \newline
|
||
$ \begin{aligned}
|
||
&L \text{ matrice triangulaire inférieur}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&y_1 = b_1/l_{11} \\
|
||
&y_i = \frac{1}{l_{ii}} \cdot \left( b_i - \sum_{j = 1}^{i-1} l_{ij} \cdot y_j \right) \comma i = 2, 3, \dots, n
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Coût~:} \newline
|
||
$ \begin{aligned}
|
||
&n^2 \text{ opérations}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Substitution rétrograde} \newline
|
||
\underline{Condition~:} \newline
|
||
$ \begin{aligned}
|
||
&U \text{ matrice triangulaire supérieure}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&x_n = y_n/u_{nn} \\
|
||
&x_i = \frac{1}{u_{ii}} \cdot \left( y_i - \sum_{j = i+1}^{n} u_{ij} \cdot x_j \right) \comma i = n-1, n-2, \dots, 1
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Coût~:} \newline
|
||
$ \begin{aligned}
|
||
&n^2 \text{ opérations}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Factorisation LU} \newline
|
||
\underline{Condition~:} \newline
|
||
$ \begin{aligned}
|
||
&A \text{ matrice carrée non singulière}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&A \cdot \vec{x} = \vec{b} \quad \Leftrightarrow \quad L \cdot U \cdot \vec{x} = \vec{b} \quad \Leftrightarrow \quad \left\{ \begin{array}{r c l} L \cdot \vec{y} & = & \vec{b} \\ U \cdot \vec{x} & = & \vec{y} \\ \end{array} \right.
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Coût~:} \newline
|
||
$ \begin{aligned}
|
||
&\frac{2 \cdot n^3}{3} \text{ opérations (pour la factorisation)}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Remarque~:} \newline
|
||
$ \begin{aligned}
|
||
&\det \left( A \right) = \det \left( L \right) \cdot \det \left( U \right) = \det \left( U \right) = \prod_{k = 1}^n u_{kk}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Changement de pivot} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&P \cdot A \cdot Q = L \cdot U \\
|
||
&P = P_{n-1} \cdot \dots \cdot P_1 \\
|
||
&Q = Q_1 \cdot \dots \cdot Q_{n-1}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&A \cdot \vec{x} = \vec{b} \quad \Leftrightarrow \quad P \cdot A \cdot Q \cdot Q^{-1} \cdot \vec{x} = P \cdot \vec{b} \quad \Leftrightarrow \quad \left\{ \begin{array}{r c l} L \cdot \vec{y} & = & P \cdot \vec{b} \\ U \cdot \vec{x^{*}} & = & \vec{y} \\ x & = & Q \cdot \vec{x^{*}} \\ \end{array} \right.
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
\begin{tabu}to 0.5\textwidth{ |X| }
|
||
\hline
|
||
|
||
\textbf{Méthode d'élimination de Gauss} \newline
|
||
\underline{Conditions~:} \newline
|
||
$ \begin{aligned}
|
||
&A \text{ matrice carrée non singulière} \\
|
||
&k = 1, \dots, n-1
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&l_{ik} = \frac{a_{ik}^{\left( k \right)}}{a_{kk}^{\left( k \right)}} \comma &&i = k+1, \dots, n \\
|
||
&a_{ij}^{\left( k+1 \right)} = a_{ij}^{\left( k \right)} - l_{ik} \cdot a_{kj}^{\left( k \right)} \comma &&i, j = k+1, \dots, n \\
|
||
&b_{i}^{\left( k+1 \right)} = b_{i}^{\left( k \right)} - l_{ik} \cdot b_{k}^{\left( k \right)} \comma &&i = k+1, \dots, n \\
|
||
&l_{ii} = 1 \comma U = A^{\left( n \right)}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Coût~:} \newline
|
||
$ \begin{aligned}
|
||
&\frac{2 \cdot n^3}{3} \text{ opérations}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Existence~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{La factorisation existe et est unique} \\ & \quad \leftrightarrow \quad \text{Les sous-matrices } A_i \left( i = 1, \dots, n-1 \right) \text{ ne sont pas singulières} \\
|
||
&\text{Ou si la matrice A est à diagonale dominante par ligne} \\ & \abs{a_{ii}} \geq \sum_{j = 1, \dots, n;j \neq i} \abs{a_{ij}} \comma \qquad i = 1, \dots, n \\
|
||
&\text{Ou si la matrice A est à diagonale dominante par colonne} \\ & \abs{a_{jj}} \geq \sum_{i = 1, \dots, n;i \neq j} \abs{a_{ij}} \comma \qquad j = 1, \dots, n \\
|
||
&\text{Ou si la matrice A est symétrique définie positive} \\ &A = A^T \text{ et } \lambda_i \left( A \right) > 0 \comma \qquad i = 1, \dots, n \\
|
||
&\text{La factorisation existe et est infinie} \\ & \quad \leftrightarrow \quad \text{Les sous-matrices } A_i \left( i = 1, \dots, n \right) \text{ sont singulières} \\
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Factorisation de Cholesky} \newline
|
||
\underline{Condition~:} \newline
|
||
$ \begin{aligned}
|
||
&A \text{ matrice symétrique définie positive}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Définition~:} \newline
|
||
$ \begin{aligned}
|
||
&A = R^T \cdot R \\
|
||
&i = 2, \dots, n
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&r_{11} = \sqrt{a_{11}} \\
|
||
&r_{ji} = \frac{1}{r_{jj}} \cdot \left( a_{ij} - \sum_{k = 1}^{j-1} r_{ki} \cdot r_{kj} \right) \comma &&j = 1, \dots, i-1 \\
|
||
&r_{ii} = \sqrt{a_{ii} - \sum_{k = 1}^{i-1} r_{ki}^2} \\
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Coût~:} \newline
|
||
$ \begin{aligned}
|
||
&\frac{n^3}{3} \text{ opérations}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Divers} \newline
|
||
\underline{Matrice de Hilbert~:} \newline
|
||
$ \begin{aligned}
|
||
&a_{ij} = \frac{1}{i+j-1} \comma &&i, j = 1, \dots, n \\
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Conditionnment~:} \newline
|
||
$ \begin{aligned}
|
||
&K \left( A \right) = \frac{\lambda_{max} \left( A \right)}{\lambda_{min} \left( A \right)}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Erreur~:} \newline
|
||
$ \begin{aligned}
|
||
&\frac{\norm{\vec{x} - \vec{\hat{x}}}}{\norm{x}} \leq K \left( A \right) \cdot \frac{\norm{\vec{r}}}{\norm{\vec{b}}} \comma \vec{r} = \vec{b} - A \cdot \vec{\hat{x}}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
|
||
\end{multicols}
|
||
\newpage
|
||
\begin{multicols}{2}[\centering{\large\textbf{Systèmes linéaires - Méthodes itératives}}]
|
||
|
||
\begin{tabu}to 0.5\textwidth{ |X }
|
||
\hline
|
||
|
||
\textbf{Méthode de Jacobi, Gauss-Seidel et SOR} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&\vec{e}^{\left( k \right)} = \vec{x} - \vec{x}^{\left( k \right)} \\
|
||
&\vec{e}^{\left( k+1 \right)} = B^{k+1} \cdot \vec{e}^{\left( 0 \right)} \\
|
||
&\rho \left( B \right) = \max \abs{\lambda_i \left( B \right)} < 1 \\
|
||
&\vec{r}^{\left( k \right)} = \vec{b} - A \cdot \vec{x}^{\left( k \right)} \\
|
||
&B = P^{-1} \cdot \left( P - A \right) = I - P^{-1} \cdot A \\
|
||
&\vec{x}^{\left( k+1 \right)} = B \cdot \vec{x}^{\left( k \right)} + \vec{g}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode de Jacobi~:} \newline
|
||
$ \begin{aligned}
|
||
&x_i^{\left( k+1 \right)} = \frac{1}{a_{ii}} \cdot \left( b_i - \sum_{j = 1, j \neq i}^n a_{ij} \cdot x_j^{\left( k \right)} \right) \\ %\comma &&j = 1, \dots, n \\
|
||
&B_J = D^{-1} \cdot \left( D - A \right) = I - D^{-1} \cdot A \\
|
||
&\vec{g}_J = D^{-1} \cdot \vec{b}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode de Gauss-Seidel~:} \newline
|
||
$ \begin{aligned}
|
||
&x_i^{\left( k+1 \right)} = \frac{1}{a_{ii}} \cdot \left( b_i - \sum_{j = 1}^{i-1} a_{ij} \cdot x_j^{\left( k+1 \right)} - \sum_{j = i+1}^n a_{ij} \cdot x_j^{\left( k \right)} \right) \\ %\comma &&j = 1, \dots, n \\
|
||
&B_{GS} = \left( D - E \right)^{-1} \cdot \left( D - E - A \right) = \left( D - E \right)^{-1} \cdot F \\
|
||
&\vec{g}_{GS} = \left( D - E \right)^{-1} \cdot \vec{b}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode de sur-relaxation successive~:} \newline
|
||
$ \begin{aligned}
|
||
&x_i^{\left( k+1 \right)} = \frac{\omega}{a_{ii}} \cdot \left( b_i - \sum_{j = 1}^{i-1} a_{ij} \cdot x_j^{\left( k+1 \right)} - \sum_{j = i+1}^n a_{ij} \cdot x_j^{\left( k \right)} \right) + \left( 1 - \omega \right) \cdot x_i^{\left( k \right)} \\ %\comma &&j = 1, \dots, n \\
|
||
&B_{SOR} = \left( \frac{1}{\omega} \cdot D - E \right)^{-1} \cdot \left( \frac{1}{\omega} \cdot D - E - A \right) \\
|
||
&\hphantom{B_{SOR}} = \left( I - \omega \cdot D^{-1} \cdot E \right)^{-1} \cdot \left[ \left( 1-\omega \right) \cdot I + \omega \cdot D^{-1} \cdot F \right] \\
|
||
&\vec{g}_{SOR} = \left( \frac{1}{\omega} \cdot D - E \right)^{-1} \cdot \vec{b}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Si } A \text{ à diagonale dominante stricte par ligne, Jacobi et Gauss-Seidel sont convergentes} \\
|
||
&\text{Si } A \text{ régulière, tridiagonale et dont les coefficients diagonaux sont tous non-nuls, } \\ &\text{Jacobi et Gauss-Seidel sont toutes les deux soit divergentes, soit convergentes, } \\ &\text{dans ce dernier cas, } \qquad \rho \left( B_{GS} \right) = \rho \left( B_J \right)^2 \\
|
||
&\text{Si } A \text{ symétrique définie positive, Gauss-Seidel converge, Jacobi pas forcément} \\
|
||
&\text{Si } A \text{ symétrique définie positive, SOR converge } \quad \Leftrightarrow \quad 0 < \omega < 2 \\
|
||
&\text{Si } A \text{ à diagonale dominante stricte, SOR converge si } \qquad 0 < \omega < 1 \\
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Méthode de Richardson stationnaire préconditionné} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&P \cdot \left( \vec{x}^{\left( k+1 \right)} - \vec{x}^{\left( k \right)} \right) = \alpha \cdot \vec{r}^{\left( k \right)} \\
|
||
&\lambda_i = \text{ valeurs propres de } P^{-1} \cdot A \text{ strictement positives} \\
|
||
&\lambda_{max} = \lambda_1 \geq \lambda_2 \geq \dots \geq \lambda_N = \lambda_{min} \\
|
||
&\alpha_{opt} = \frac{2}{\lambda_{max} + \lambda_{min}} \\
|
||
&\rho_{opt} = \frac{\lambda_{max} - \lambda_{min}}{\lambda_{max} + \lambda_{min}}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence~:} \newline
|
||
$ \begin{aligned}
|
||
&A \text{ et } P \text{ symétriques définies positives} \\
|
||
&0 < \alpha < 2/\lambda_{max}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Erreur~:} \newline
|
||
$ \begin{aligned}
|
||
& \norm{\vec{x}^{\left( k \right)} - \vec{x}}_A \leq \left( \frac{K \left( P^{-1} \cdot A \right) - 1}{K \left( P^{-1} \cdot A \right) + 1} \right)^k \cdot \norm{\vec{x}^{\left( 0 \right)} - \vec{x}}_A \comma &&k \geq 0
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
\begin{tabu}to 0.5\textwidth{ |X| }
|
||
\hline
|
||
|
||
\textbf{Méthode de Richardson dynamique précondionné} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&P \cdot \left( \vec{x}^{\left( k+1 \right)} - \vec{x}^{\left( k \right)} \right) = \alpha_k \cdot \vec{r}^{\left( k \right)} \\
|
||
&\alpha_k = \frac{\left( \vec{r}^{\left( k \right)}, \vec{z}^{\left( k \right)} \right)}{\left( A \cdot \vec{z}^{\left( k \right)}, \vec{z}^{\left( k \right)} \right)} \\
|
||
&\vec{z}^{\left( k \right)} = P^{-1} \cdot \vec{r}^{\left( k \right)}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&\vec{r}^{\left( 0 \right)} = \vec{b} - A \cdot \vec{x}^{\left( 0 \right)} \\
|
||
&P \cdot z^{\left( k \right)} = r^{\left( k \right)} \\
|
||
&\alpha_k = \frac{\left( \vec{r}^{\left( k \right)}, \vec{z}^{\left( k \right)} \right)}{\left( A \cdot \vec{z}^{\left( k \right)}, \vec{z}^{\left( k \right)} \right)} \\
|
||
&\vec{x}^{\left( k+1 \right)} = \vec{x}^{\left( k \right)} + \alpha_k \cdot \vec{z}^{\left( k \right)} \\
|
||
&\vec{r}^{\left( k+1 \right)} = \vec{r}^{\left( k \right)} - \alpha_k \cdot A \cdot \vec{z}^{\left( k \right)}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Erreur~:} \newline
|
||
$ \begin{aligned}
|
||
& \norm{\vec{x}^{\left( k \right)} - \vec{x}}_A \leq \left( \frac{K \left( P^{-1} \cdot A \right) - 1}{K \left( P^{-1} \cdot A \right) + 1} \right)^k \cdot \norm{\vec{x}^{\left( 0 \right)} - \vec{x}}_A \comma &&k \geq 0
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Si } A \text{ et } P \text{ symétriques définies positives} \\
|
||
&\text{Si } P = I \text{, on a la méthode du gradient}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Méthode du gradient conjugué} \newline
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&\vec{r}^{\left( 0 \right)} = \vec{b} - A \cdot \vec{x}^{\left( 0 \right)} \comma \vec{p}^{\left( 0 \right)} = \vec{r}^{\left( 0 \right)} \\
|
||
&\alpha_k = \frac{\left( \vec{r}^{\left( k \right)}, \vec{p}^{\left( k \right)} \right)}{\left( A \cdot \vec{p}^{\left( k \right)}, \vec{p}^{\left( k \right)} \right)} \\
|
||
&\vec{x}^{\left( k+1 \right)} = \vec{x}^{\left( k \right)} + \alpha_k \cdot \vec{p}^{\left( k \right)} \\
|
||
&\vec{r}^{\left( k+1 \right)} = \vec{r}^{\left( k \right)} - \alpha_k \cdot A \cdot \vec{p}^{\left( k \right)} \\
|
||
&\beta_k = \frac{\left( \vec{r}^{\left( k+1 \right)}, A \cdot \vec{p}^{\left( k \right)} \right)}{\left( \vec{p}^{\left( k \right)}, A \cdot \vec{p}^{\left( k \right)} \right)} \\
|
||
&\vec{p}^{\left( k+1 \right)} = \vec{r}^{\left( k+1 \right)} - \beta_k \cdot \vec{p}^{\left( k \right)}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Méthode du gradient conjugué préconditionné} \newline
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&\vec{r}^{\left( 0 \right)} = \vec{b} - A \cdot \vec{x}^{\left( 0 \right)} \comma \vec{z}^{\left( 0 \right)} = P^{-1} \cdot \vec{r}^{\left( 0 \right)} \comma \vec{p}^{\left( 0 \right)} = \vec{z}^{\left( 0 \right)} \\
|
||
&\alpha_k = \frac{\left( \vec{r}^{\left( k \right)}, \vec{p}^{\left( k \right)} \right)}{\left( A \cdot \vec{p}^{\left( k \right)}, \vec{p}^{\left( k \right)} \right)} \\
|
||
&\vec{x}^{\left( k+1 \right)} = \vec{x}^{\left( k \right)} + \alpha_k \cdot \vec{p}^{\left( k \right)} \\
|
||
&\vec{r}^{\left( k+1 \right)} = \vec{r}^{\left( k \right)} - \alpha_k \cdot A \cdot \vec{p}^{\left( k \right)} \\
|
||
&P \cdot z^{\left( k+1 \right)} = r^{\left( k+1 \right)} \\
|
||
&\beta_k = \frac{\left( \vec{z}^{\left( k+1 \right)}, A \cdot \vec{p}^{\left( k \right)} \right)}{\left( \vec{p}^{\left( k \right)}, A \cdot \vec{p}^{\left( k \right)} \right)} \\
|
||
&\vec{p}^{\left( k+1 \right)} = \vec{z}^{\left( k+1 \right)} - \beta_k \cdot \vec{p}^{\left( k \right)}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Erreur~:} \newline
|
||
$ \begin{aligned}
|
||
& \norm{\vec{x}^{\left( k \right)} - \vec{x}}_A \leq \frac{2 \cdot c^k}{1 + c^{2 \cdot k}} \cdot \norm{\vec{x}^{\left( 0 \right)} - \vec{x}}_A \comma &&k \geq 0 \\
|
||
&c = \frac{\sqrt{K \left( P^{-1} \cdot A \right)} - 1}{\sqrt{K \left( P^{-1} \cdot A \right)} + 1}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Critère de convergence} \newline
|
||
\underline{Convergence~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Si } P^{-1} \cdot A \text{ symétrique définie positive} \\
|
||
&\frac{\norm{\vec{x}^{\left( k \right)} - \vec{x}}}{\norm{\vec{x}}} \leq K \left( P^{-1} \cdot A \right) \cdot \frac{\norm{P^{-1} \cdot \vec{r^{\left( k \right)}}}}{\norm{P^{-1} \cdot \vec{b}}}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
|
||
\end{multicols}
|
||
\newpage
|
||
\begin{multicols}{2}[\centering{\large\textbf{Systèmes linéaires - Méthodes directes (suite)}}]
|
||
|
||
\begin{tabu}to 0.5\textwidth{ |X }
|
||
\hline
|
||
|
||
\textbf{Inverse d'un matrice} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&A^{-1} = \left( \vec{x}^{\left( 1 \right)}, \dots, \vec{x}^{\left( n \right)} \right) \\
|
||
&\vec{e}^{\left( k \right)} \text{ vecteur avec composantes nulle sauf la k\textsuperscript{ième} composante qui vaut} 1
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
&A \cdot \vec{x}^{\left( k \right)} = \vec{e}^{\left( k \right)}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
\begin{tabu}to 0.5\textwidth{ |X| }
|
||
\hline
|
||
|
||
\textbf{Systèmes triangulaires} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Une matrice } U = \left( u_{ij} \right) \text{ est triangulaire supérieure si} \\
|
||
&u_{ij} = 0 \qquad \forall i, j~: 1 \leq j < i \leq n \\
|
||
&\text{Une matrice } L = \left( l_{ij} \right) \text{ est triangulaire inférieure si} \\
|
||
&l_{ij} = 0 \qquad \forall i, j~: 1 \leq i < j \leq n
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
|
||
\end{multicols}
|
||
|
||
\begin{multicols}{2}[\centering{\large\textbf{Systèmes linéaires - Méthodes itératives (suite)}}]
|
||
|
||
\begin{tabu}to 0.5\textwidth{ |X| }
|
||
\hline
|
||
|
||
\textbf{Splitting de A} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&A = D - E - F \\
|
||
& \left\{ \begin{array}{l l} d_{ij} = a_{ij} &\text{si } i = j \\ d_{ij} = 0 & \text{si } i \neq j \\ \end{array} \right. && \text{Diagonale} \\
|
||
& \left\{ \begin{array}{l l} e_{ij} = -a_{ij} & \text{si } i > j \\ e_{ij} = 0 & \text{si } i \leq j \\ \end{array} \right. && \text{Triangulaire inf.}\\
|
||
& \left\{ \begin{array}{l l} f_{ij} = -a_{ij} & \text{si } i < j \\ f_{ij} = 0 & \text{si } i \geq j \\ \end{array} \right. && \text{Triangulaire sup.}\\
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
\begin{tabu}to 0.5\textwidth{ X| }
|
||
\hline
|
||
|
||
\textbf{Produit scalaire et normes} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
& \norm{\vec{v}} = \sqrt{\vec{v}^T \cdot \vec{v}} \\
|
||
& \norm{\vec{v}}_A = \sqrt{\vec{v}^T \cdot A \cdot \vec{v}} \\
|
||
& \left( \vec{v}, \vec{w} \right) = \vec{w}^T \cdot \vec{v} \\
|
||
\end{aligned} $
|
||
\\\hline
|
||
\end{tabu}
|
||
|
||
\end{multicols}
|
||
|
||
\begin{multicols}{2}[\centering{\large\textbf{Équations différentielles ordinaires (suite)}}]
|
||
|
||
\begin{tabu}to 0.5\textwidth{ |X| }
|
||
\hline
|
||
|
||
\textbf{Stabilité absolue} \newline
|
||
\underline{Problème modèle~:} \newline
|
||
$ \begin{aligned}
|
||
& \left\{ \begin{array}{l}
|
||
y' \left( t \right) = \lambda \cdot y \left( t \right), \qquad \lambda < 0 \\
|
||
y \left( t_0 \right) = y_0 \\
|
||
\end{array} \right. \\
|
||
&0 = t_0 < t_1 < \dots < t_n < t_{n+1} \dots \text{ tels que } t_n = n \cdot h && \left( h > 0 \right) \\
|
||
&\text{dont la solution est } y \left( t \right) = \e^{\lambda \cdot t} \text{ et } \lim_{t \rightarrow \infty} y \left( t \right) = 0
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Définition~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Un schéma de résolution est absolument stable si} \\
|
||
&\lim_{n \rightarrow \infty} u_n = 0
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Stablilité~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{EP~: si } 0 < h < 2/\lambda \\
|
||
&\text{ER~: inconditionnellement stable }\\
|
||
&\text{PM~: inconditionnellement instable }\\
|
||
&\text{CN~: inconditionnellement stable }\\
|
||
\end{aligned} $
|
||
\\\hline
|
||
\end{tabu}
|
||
\begin{tabu}to 0.5\textwidth{ X| }
|
||
\hline
|
||
|
||
\textbf{Stabilité} \newline
|
||
\underline{Définition~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Une méthode numérique absolument stable pour le problème} \\ &\text{modèle est stable pour un problème de Cauchy quelconque.} \\
|
||
&\text{Il existe } 0 < \lambda_{min} < \lambda_{max} < \infty \text{ tel que} \\
|
||
&-\lambda_{max} < \frac{\partial f \left( t, y \right)}{\partial y} < - \lambda_{min} \qquad \forall t \geq 0, \forall y \in D_y \\
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Stablilité~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{EP~: si } 0 < h < 2/\lambda_{max} \\
|
||
&\text{ER~: inconditionnellement stable }\\
|
||
&\text{PM~: inconditionnellement instable }\\
|
||
&\text{CN~: inconditionnellement stable }\\
|
||
\end{aligned} $
|
||
\\\hline
|
||
\end{tabu}
|
||
|
||
\end{multicols}
|
||
|
||
\begin{multicols}{2}[\centering{\large\textbf{Systèmes non linéaires}}]
|
||
|
||
\begin{tabu}to 0.5\textwidth{ |X| }
|
||
\hline
|
||
|
||
\textbf{Méthode de Newton} \newline
|
||
\underline{Définition~:} \newline
|
||
$ \begin{aligned}
|
||
&\vec{f} \left( \vec{x} \right) = 0
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthode~:} \newline
|
||
$ \begin{aligned}
|
||
& \left[ J_f \left( \vec{x}^{\left( k \right)} \right) \right] \cdot \left( \vec{x}^{\left( k+1 \right)} - \vec{x}^{\left( k \right)} \right) = -\vec{f} \left( \vec{x}^{\left( k \right)} \right) \comma &&k = 0, 1, 2, \dots \\
|
||
& \quad \leftrightarrow \quad \vec{x}^{\left( k+1 \right)} = \vec{x}^{\left( k \right)} - \left[ J_f \left( \vec{x}^{\left( k \right)} \right) \right]^{-1} \cdot \vec{f} \left( \vec{x}^{\left( k \right)} \right) \comma &&k = 0, 1, 2, \dots
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
|
||
\end{multicols}
|
||
\newpage
|
||
\begin{multicols}{2}[\centering{\large\textbf{{Équations différentielles ordinaires}}}]
|
||
|
||
\begin{tabu}to 0.5\textwidth{ |X }
|
||
\hline
|
||
|
||
\textbf{Énoncé du problème} \newline
|
||
\underline{Problème de Cauchy~:} \newline
|
||
$ \begin{aligned}
|
||
& \left\{ \begin{array}{l}
|
||
y' \left( t \right) = f \left( t, y \left( t \right) \right) \\
|
||
y \left( t_0 \right) = y_0 \\
|
||
\end{array} \right.
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Solution~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Si la fonction } f \left( t, y \right) \text{ est continue par rapport à ses deux variables et lipschitzienne} \\ & \text{par rapport à sa deuxième variable, alors la solution existe, est unique et appartient} \\ & \text{à } C^1 \left( I \right)
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Dérivée numérique} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Soient } t_0, t_1, \dots, t_{N_h} N_h + 1 \text{ noeuds équirépartis dans } \left[ t_0;t_{N_h} \right] \\
|
||
&h = \frac{t_{N_h} - t_0}{N_h} \\
|
||
& \left( Dy \right)_n \approx y' \left( t_n \right)
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthodes~:} \newline
|
||
$ \begin{aligned}
|
||
& \left( Dy \right)_n^P = \frac{y \left( t_{n+1} \right) - y \left( t_n \right)}{h} \comma &&n = 0, \dots, N_h-1 \\
|
||
& \left( Dy \right)_n^R = \frac{y \left( t_n \right) - y \left( t_{n-1} \right)}{h} \comma &&n = 1, \dots, N_h \\
|
||
& \left( Dy \right)_n^C = \frac{y \left( t_{n+1} \right) - y \left( t_{n-1} \right)}{2 \cdot h} \comma &&n = 1, \dots, N_h-1
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Erreurs~:} \newline
|
||
$ \begin{aligned}
|
||
& \abs{y' \left( t_n \right) - \left( Dy \right)_n^P} \leq \frac{h}{2} \cdot \max_{t \in \left[ t_n;t_{n+1} \right]} \abs{y'' \left( t \right)} \\
|
||
& \abs{y' \left( t_n \right) - \left( Dy \right)_n^R} \leq \frac{h}{2} \cdot \max_{t \in \left[ t_{n-1};t_n \right]} \abs{y'' \left( t \right)} \\
|
||
& \abs{y' \left( t_n \right) - \left( Dy \right)_n^C} \leq \frac{h^2}{6} \cdot \max_{t \in \left[ t_{n-1};t_{n+1} \right]} \abs{y''' \left( t \right)}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Résolution} \newline
|
||
\underline{Définition~:} \newline
|
||
$ \begin{aligned}
|
||
&u_n \text{ une approximation de } y \left( t_n \right)
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthodes~:} \newline
|
||
$ \begin{aligned}
|
||
&u_{n+1} = u_n + h \cdot f \left( t_n, u_n \right) & \text{EP} \\
|
||
&u_{n+1} = u_n + h \cdot f \left( t_{n+1}, u_{n+1} \right) & \text{ER} \\
|
||
&u_{n+1} = u_{n-1} + 2 \cdot h \cdot f \left( t_n, u_n \right) & \text{PM} \\
|
||
&u_{n+1} = u_n + \frac{h}{2} \cdot \left[ f \left( t_n, u_n \right) + f \left( t_{n+1}, u_{n+1} \right) \right] & \text{CN} \\
|
||
&u_{n+1} = u_n + \frac{h}{2} \cdot \left[ f \left( t_n, u_n \right) + f \left( t_{n+1}, u_n + h \cdot f \left( t_n, u_n \right) \right) \right] & \text{H} \\
|
||
&u_{n+1} = u_n + h \cdot f \left( t_{n+\frac{1}{2}}, u_n + \frac{h}{2} \cdot f \left( t_n, u_n \right) \right) & \text{EM} \\
|
||
& \left\{ \begin{array}{l}
|
||
u_{n+1} = u_n + \frac{h}{6} \cdot \left( K_1 + 2 \cdot K_2 + 2 \cdot K_3 + K_4 \right) \\
|
||
K_1 = f \left( t_n, u_n \right) \\
|
||
K_2 = f \left( t_n + \frac{h}{2}, u_n + \frac{h}{2} \cdot K_1 \right) \\
|
||
K_3 = f \left( t_n + \frac{h}{2}, u_n + \frac{h}{2} \cdot K_2 \right) \\
|
||
K_4 = f \left( t_{n+1}, u_n + h \cdot K_3 \right) \\
|
||
\end{array} \right. & \text{RK} \\
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
\begin{tabu}to 0.5\textwidth{ |X| }
|
||
\hline
|
||
|
||
\textbf{Convergence} \newline
|
||
\underline{Définitions~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Une méthode est dite convergente si} \\
|
||
&\forall n = 0, .., N_h~: \abs{u_n - y \left( t_n \right)} \leq C \left( h \right) \\
|
||
&\text{Où } C \left( h \right) \rightarrow 0 \text{ lorsque } h \rightarrow 0 \\
|
||
&\text{Si en plus, il existe } p > 0 \text{ tel que } C \left( h \right) = \symcal{O} \left( h^p \right) \text{ on dit que la} \\ &\text{méthode est convergente d'ordre } p
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence de EP~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Si } y \in C^2 \left( \left[ 0;T \right] \right) \comma f \text{ est lipschitzienne et en plus} \\
|
||
&-\lambda_{max} < \frac{\partial f \left( t, y \right)}{\partial y} < 0 \qquad \forall t \in \left[ 0;T \right], \forall y \in \left[ -\infty;\infty \right] \\
|
||
&\text{Alors } \abs{y \left( t_n \right) - u_n} \leq t_n \cdot \frac{h}{2} \cdot \max_t \abs{y'' \left( t \right)} \\
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence de EP (2)~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Si } y \in C^2 \left( \left[ 0;T \right] \right) \text{ et } f \text{ est lipschitzienne avec sa constante } L \\
|
||
&\text{Alors } \abs{y \left( t_n \right) - u_n} \leq h \cdot \frac{\e^{L \cdot t_n} - 1}{2 \cdot L} \cdot \max_t \abs{y'' \left( t \right)} \\
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Convergence de ER~:} \newline
|
||
$ \begin{aligned}
|
||
&\text{Le même type de résultat peut être établi pour ER}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Nb. pas/Ordre/Stabilité/Explicite-Implicite} \newline
|
||
$ \begin{aligned}
|
||
&\text{Euler progressif} &&\text{1} &&\text{1} &\text{Cond.} &&\text{Expl.} \\
|
||
&\text{Euler rétrograde} &&\text{1} &&\text{1} &\text{Incond.} &&\text{Impl.} \\
|
||
&\text{Point millieu} &&\text{2} &&\text{1} &\text{Instable} &&\text{Expl.} \\
|
||
&\text{Crank-Nicolson} &&\text{1} &&\text{2} &\text{Incond.} &&\text{Impl.} \\
|
||
&\text{Heun} &&\text{1} &&\text{2} &\text{Cond.} &&\text{Expl.} \\
|
||
&\text{Euler modifiée} &&\text{1} &&\text{2} &\text{Cond.} &&\text{Expl.} \\
|
||
&\text{Runge-Kutta} &&\text{1} &&\text{4} &\text{Cond.} &&\text{Expl.}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Systèmes d'équations} \newline
|
||
\underline{Problème~:} \newline
|
||
$ \begin{aligned}
|
||
& \left\{ \begin{array}{l}
|
||
\vec{y}' \left( t \right) = A \cdot \vec{y} \left( t \right) + \vec{b} \left( t \right) \\
|
||
\vec{y} \left( t_0 \right) = \vec{y}_0 \\
|
||
\end{array} \right.
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthodes~:} \newline
|
||
$ \begin{aligned}
|
||
&\vec{u}_{n+1} = \left( I + h \cdot A \right) \cdot \vec{u}_n + h \cdot \vec{b}_n &\text{EP} \\
|
||
& \left( I - h \cdot A \right) \cdot \vec{u}_{n+1} = \vec{u}_n + h \cdot \vec{b}_n &\text{ER} \\
|
||
& \left( I - \frac{h}{2} \cdot A \right) \cdot \vec{u}_{n+1} = \left( I + \frac{h}{2} \cdot A \right) \cdot \vec{u}_n + \frac{h}{2} \cdot \left( \vec{b}_n + \vec{b}_{n+1} \right) &\text{CN}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Stabilité~:} \newline
|
||
$ \begin{aligned}
|
||
&\lambda_i \left( A \right) < 0 &&\forall i\\
|
||
&h < 2/\rho \left( A \right) &&\text{pour EP; ER et CN incond. stables}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\textbf{Système d'équations non linéaires} \newline
|
||
\underline{Problème~:} \newline
|
||
$ \begin{aligned}
|
||
& \left\{ \begin{array}{l}
|
||
\vec{y}' \left( t \right) = \vec{F} \left( t, \vec{y} \left( t \right) \right) \\
|
||
\vec{y} \left( t_0 \right) = \vec{y}_0 \\
|
||
\end{array} \right. \\
|
||
& J = \frac{\partial \vec{F}}{\partial \vec{y}}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Méthodes~:} \newline
|
||
$ \begin{aligned}
|
||
&\vec{u}_{n+1} = \vec{u}_n + h \cdot \vec{F} \left( t_n, \vec{u}_n \right) &\text{EP} \\
|
||
&\vec{u}_{n+1} = \vec{u}_n + h \cdot \vec{F} \left( t_{n+1}, \vec{u}_{n+1} \right) &\text{ER} \\
|
||
&\vec{u}_{n+1} = \vec{u}_n + \frac{h}{2} \cdot \left[ \vec{F} \left( t_n, \vec{u}_n \right) + \vec{F} \left( t_{n+1}, \vec{u}_{n+1} \right) \right] &\text{CN}
|
||
\end{aligned} $ \newline
|
||
|
||
\underline{Stabilité~:} \newline
|
||
$ \begin{aligned}
|
||
&\lambda_i \left( J \right) < 0 &&\forall i\\
|
||
&h < 2/\rho \left( J \right) &&\text{pour EP; ER et CN incond. stables}
|
||
\end{aligned} $
|
||
\\\hline
|
||
|
||
\end{tabu}
|
||
|
||
\end{multicols}
|