next up previous
Next: Bibliographie

Cours de Mathématiques
DEUG SM2 1er semestre
2004-2005

Frédéric Klopp

Dans tout le cours, $ \mathbb{K}$ désigne $ \mathbb{R}$ ou $ \mathbb{C}$.
  1. Déterminants :
    1. Déterminants des matrices $ 2\times2$ ; interprétation en tant que volume d'un parallélogramme orienté.
    2. constatation des propriétés suivantes :
      • det$ (I)=1$ ;
      • le déterminant est linéaire par rapport aux lignes ;
      • le déterminant est nul si deux lignes sont identiques.
    3. Matrice extraite. Définition par récurrence du déterminant d'une matrice $ n\times n$ ; vérification des trois propriétés énoncées ci-dessus et de quelques conséquences (interversion de lignes, remplacement d'une ligne par elle-même augmentée d'une autre ligne, cas où une ligne est nulle)
    4. Usage des matrices élémentaires (opérations sur les lignes par multiplication à gauche) :
      1. Rappels sur les matrices élémentaires ;
      2. vérification de det$ (EA)=$det$ (E)\cdot$det$ (A)$ pour $ E$ une matrice élémentaire et $ A\in\mathcal{M}_n(\mathbb{K})$ ;
      3. calcul du déterminant par décomposition en produit de matrices élémentaires.
    5. Th. : Il existe une unique application det $ :\mathcal{M}_n(\mathbb{K})\to\mathbb{K}$ qui vérifie les trois propriétés énoncées ci-dessus.
    6. Autres propriétés du déterminant :
      1. Th. : det$ (A)\not=0$ si et seulement si $ A$ est inversible, et, dans ce cas, det $ (A^{-1})=($det$ (A))^{-1}$.
      2. Th. : det$ (AB)=$det$ (A)\cdot$det$ (B)$.
      3. Th. : det$ (\;^tA)=$det$ (A)$$ ^tA$ désigne la transposée de $ A$.
    7. Développement total d'un déterminant :
      1. Définition d'une permutation des entiers et de la permutation des coordonnées (associée).
      2. Matrice $ M_p$ de la permutation (des coordonnées) $ p$.
      3. Prop. : Ces matrices forment un groupe multiplicatif isomorphe au groupe des permutations ; on a $ M_{p^{-1}}=\;^tM_p$.
      4. Prop. et déf. : le déterminant d'une matrice de permutation vaut $ 1$ ou $ -1$ ; c'est la signature de la permutation.
      5. Développement total d'un déterminant
    8. Formule de Cramer :
      1. Définition des mineurs.
      2. Matrice des cofacteurs.
      3. Formule de Cramer : l'inverse de $ A$ est égal à la matrice des cofacteurs de $ A$ divisée par le déterminant de $ A$.
    9. Applications :
      1. Rang d'une matrice, d'un système de vecteurs ;
      2. Rappels sur les espaces vectoriels :
        1. Sous-espaces supplémentaires.
        2. Bases.
        3. Matrice d'une application linéaire dans deux bases.
        4. Changement de base ; matrice semblables.
      3. Déterminant d'une application linéaire.
  2. Réduction des endomorphismes :
    1. Polynôme caractéristique et valeurs propres d'une application linéaire :
      1. Valeurs propres et vecteurs propres d'un endomorphisme; sous-espaces propres.
      2. Th. : les sous-espaces propres associés à des valeurs propres distinctes sont supplémentaires.
      3. Définition du polynôme caractéristique d'une matrice ; écriture en terme de trace, déterminant, etc.
      4. Invariance par similitude.
      5. Polynôme caractéristique d'une application linéaire.
      6. Th. : les valeurs propres sont les racines du polynôme caractéristique. Cas des matrices triangulaires.
      7. Th. : la dimension du sous-espace propre associé à $ \lambda$ est inférieure ou égale à la multiplicité de $ \lambda$ en tant que zéro du polynôme caractéristique.
    2. Trigonalisation d'une matrice :
      1. Définition de la trigonalisation.
      2. Th. : toute matrice $ M\in\mathcal{M}_n(\mathbb{C})$ est trigonalisable.
    3. Diagonalisation d'une matrice :
      1. Th. : si $ M\in\mathcal{M}_n(\mathbb{C})$ a $ n$ valeurs propres distinctes, alors $ M$ est diagonalisable.
      2. Th. : $ M\in\mathcal{M}_n(\mathbb{C})$ est diagonalisable s et seulement si $ \mathbb{C}^n$ est la somme directe des sous-espaces propres de $ M$.
      3. Th. : une matrice $ M\in\mathcal{M}_n(\mathbb{C})$ est diagonalisable si et seulement si pour chacune de ses valeurs propres la dimension de l'espace propre associé est égale à sa multiplicité en tant que racine du polynôme caractéristique de $ M$.
  3. Applications de la réduction des endomorphismes :
    1. Puissance d'une matrice.
    2. Systèmes d'équations aux différences finies linéaires (en particulier, récurrences linéaires).
    3. Systèmes d'équations différentielles linéaires.
  4. Espaces euclidiens (de dimension finie) :
    1. Produit scalaire et orthogonalité :
      1. Définition d'une forme bilinéaire ; exemple dans $ \mathbb{R}^d$.
      2. Définition d'un produit scalaire ; exemples dans $ \mathbb{R}^d$.
      3. Orthogonalité.
      4. Inégalité de Cauchy-Schwartz ; norme ; inégalité de Minkowski.
      5. Théorème de Pythagore ; formule de la médiane (explications géométrique dans $ \mathbb{R}^2$) ; formule de polarisation.
    2. Orthogonal d'un sous-espace :
      1. Définition.
      2. Th. : un sous-espace est égal à l'orthogonal de son orthogonal.
      3. Th. : un sous-espace et son orthogonal sont en somme directe.
      4. Projection orthogonale : définition par le sous-espace orthogonal.
      5. Caractérisation variationelle du projeté orthogonal.
      6. Exemples : calcul dans le cas d'une droite.
      7. Symétrie orthogonale : définition. Propriétés géométriques.
    3. Bases orthonormées :
      1. Définition. Développement sur une base orthonormée.
      2. Th. : tout espace euclidien de dimension fini admet une base orthonormée.
      3. Procédure d'orthonormalisation de Gram-Schmidt.
      4. Changement de bases orthonormées.
      5. Diagonalisation des matrices réelles symétriques.
  5. Séries numériques :
    1. Définitions et premiers exemples (série géométrique, série exponentielle).
    2. Séries à termes complexes.
    3. Convergence, convergence absolue.
    4. Inégalité triangulaire.
    5. Opérations sur les séries.
    6. Séries à termes positifs :
      1. Comparaison ; cas particulier de la série géométrique.
      2. Séries de Riemann ; comparaison avec une série de Riemann.
      3. Comparaison avec les intégrales (sans parler encore d'intégrales impropres).
    7. Séries alternées réelles :
      1. Lemme d'Abel.
      2. Critère de convergence.
  6. Intégrales impropres :
    1. Définitions (différents types de singularités en des points finis ainsi qu'à l'infini).
    2. Les intégrales de la fonction $ x^{-\alpha}$ ($ \alpha>0$) en 0 et $ +\infty$.
    3. Intégrales absolument et simplement convergentes ; utilisation de l'intégration par partie.
    4. Comparaison avec une série.
  7. Séries entières :
    1. Définition.
    2. Rayon de convergence. Exemples de calculs. Formule d'Hadamard simplifiée (?).
    3. Opérations sur les séries entières : somme, produit, dérivation :
      1. le rayon de convergence d'une somme (resp. d'un produit) des deux séries entières est supérieur ou égal au minimum des deux rayons de convergence des deux séries entières ;
      2. le rayon de convergence de la série dérivée d'une série entière est égal à celui de la série entière que l'on dérive.
    4. Fonctions développables en séries entières :
      1. Définition.
      2. Lien avec le développement limité.
      3. Le développement en série entière dépend de l'endroit où l'on développe.
    5. Développement en série entière de fonctions usuelles.
    6. Applications à la résolution d'équations différentielles.
  8. Séries de Fourier :
    1. Un exemple : le circuit RLC forcé ; résolution à l'aide de séries de Fourier.
    2. Définition et théorème : pour une fonction continuement dérivable, la série des coefficients de Fourier converge absolument. La série de Fourier converge absolument vers la fonction considérée (point par point).
    3. Théorème : une fonction continue est déterminée par ses coefficients de Fourier. Elle est paire (resp. impaire) si et seulement si ses coefficients en sinus (resp. cosinus) s'annulent tous.
    4. Décroissance des coefficients de Fourier d'une fonction régulière : cas d'une fonction $ k$ fois continuement dérivable.
    5. Théorème de Dirichlet. Dans ce cas, la convergence n'est pas absolue.
  9. Équations différentielles linéaires :
    1. Définitions (équation homogène, avec second membre).
    2. Théorème : l'espace vectoriel des solutions d'une équation différentielle linéaire homogène d'ordre $ n$ est un espace vectoriel de dimension $ n$.
    3. Un exemple concret : $ y''+y=0$.
    4. Réduction à un système.
    5. Équations linéaires d'ordre 1 : résolution explicite
    6. Équations linéaires à coefficients constants :
      1. Cas du système d'ordre 1 $ Y'=AY$ : si $ v$ est un vecteur propre de $ A$ associé à la valeur propre $ \lambda$, alors $ y(t)=e^{\lambda t}v$ est solution de $ Y'=AY$.
      2. Théorème : si $ A$ est diagonalisable, l'espace des solutions de $ Y'=AY$ admet pour base $ (e^{\lambda_j t}v_j)_{1\leq j\leq
n}$ $ (v_j)_{1\leq j\leq n}$ est une base de vecteurs propres de $ A$ et $ (\lambda_j)_{1\leq j\leq n}$ sont les valeurs propres associées.
      3. Cas de l'équation scalaire d'ordre $ n$. Forme spéciale du polynôme caractéristique de $ A$. Forme générale des solutions lorsque les racines du polynôme caractéristiques sont deux à deux distinctes.
      4. Étude détaillée du cas de l'équation scalaire d'ordre $ 2$.
    7. Méthode de la variation de la constante :
      1. Cas de l'équation d'ordre 1.
      2. Cas de l'équation d'ordre 2 :
        1. Définition et propriétés du wronskien.
        2. Calcul de la solution.



next up previous
Next: Bibliographie
Frédéric Klopp
2005-01-10