Notes cours LM270

LM270 Algèbre et géométrie 2012-2013
Polycopié 2012-13:
poly2013
chapitre 0 (nouvelle version du 23/1/13, avec quelques ajouts)   chapitre 6
en attendant que le poly du chap.7 soit tiré, il est disponible ici: chapitre 7
et feuilles de TD: TD1 TD2   TD3   TD4-5   TD6   TD7   TD8  

Contrôle continu (CC):  pour les étudiants inscrits en TD, il y aura 5 devoirs sur table de 2h, comptant pour le contrôle continu, de 10h45 à 12h45 les 5 vendredis suivants: 8/2, 22/2, 8/3, 22/3, 12/4
Pour tous les contrôles et examens: Aucun document autorisé. Téléphones portables interdits.
Pour les étudiants inscrits en TD, la note de CC sera sur 50, la note E de l'examen (3h) sera sur 50, et la note finale F de l'UE sera donnée par F = Sup(E+CC,2E). Pour les étudiants en télé-enseignement (FOAD), la note de CC est sur 25, la note E de l'examen sera sur 75, et la note finale F de l'UE sera F = Sup(E+CC, 4E/3). Dans tous les cas, le CC ne peut qu'améliorer la note de l'examen.
Organisation du cours et programme des devoirs:
Prérequis: Comme l'an passé, les rappels de L1 ne seront pas traités en cours: ils ont été regroupés dans un Chapitre 0 de rappels, auquel les étudiants pourront se reporter si nécessaire. Les résultats de ce Chapitre sont supposés connus. En particulier, il faut avoir bien assimilé les notions et résultats suivants:
(0.2.8): toutes les bases de V ont même cardinal = la dimension de V. De toute famille génératrice on peut extraire une base, et toute famille libre peut être complétée en une base.
(0.3.2): Théorème du rang
(0.4.3): correspondance entre applications linéaires et matrices, qui transforme la composition des applications en le produit des matrices. Retenir aussi le slogan: Une application linéaire est entièrement déterminée par l'image d'une base.
(0.4.9): Noyau, image et rang d'une matrice.
(0.5.5 à 0.5.8): Définition de la matrice de passage, formules de changement de coordonnées et de changement de base A' = Q-1 AP.
(0.5.10 et 0.5.11): Toute matrice A est équivalente à une matrice A' = Q-1 AP dont le coin supérieur gauche est la matrice identité Ir, où r = rang(A), et les autres coefficients sont nuls. Corollaire: rang(A) = rang( tA). Une autre démonstration de ce corollaire sera donnée en 1.2.7.1.
(0.5.13): Changement de base pour les endomorphismes: A' = P-1 AP. Terminologie: matrices semblables et classes de similitude.

Pour la suite du cours, on ne suivra pas l'ordre du polycopié et l'on adoptera l'ordre suivant: Chapitre 1 (en puisant dans le Chap.4 les éléments nécessaires à la définition du déterminant, en particulier: signature d'une permutation et définition des applications multilinéaires alternées), puis paragraphe 2.1 du Chap.2, puis Chapitres 5,6,7,8 dans cet ordre. On abordera à la fin du cours la trigonalisation et les espaces caractéristiques (2.2), puis les espaces quotients (3.5) et enfin, si le temps le permet, la décomposition de Jordan et les exponentielles de matrices (3.1 à 3.4).

Par conséquent, le programme (prévisionnel) pour les Devoirs 1,2,3 est le suivant:
Devoir 1 (8 février 2013): opérations sur les colonnes d'une matrice, espace dual et formes linéaires, suite récurrentes, calculs de déterminants, de polynômes caractéristiques, de valeurs propres et vecteurs propres. Savoir que les espaces propres sont en somme directe.
Devoir 1 du 8/2/13   (nouvelle version du 12/2/13 avec modif dans la formulation de 1.9)
Corrigé du devoir 1 (nouvelle version du 12/2/13 avec quelques ajouts)
Devoir 2 (22 février 2013): Calculs de déterminants, Polynôme caractéristique, valeurs propres et vecteurs propres, diagonalisation (parag. 2.1), permutations (parag. 4.3), formes bilinéaires symétriques et formes quadratiques (Chap.5), et début du Chap.6: espaces euclidiens, bases orthonormées, inégalité de Cauchy-Schwarz et norme euclidienne (6.1.6), orthogonal d'un sous-espace (6.3.1 à 6.3.4).
Devoir 2 du 22/2/13   Corrigé du devoir 2 (nouvelle version du 25/2/13 avec ajout d'une 2ème solution de l'Exo 2)
Devoir 3 (8 mars 2013): Tout le chap.6: espaces euclidiens, inégalité de Cauchy-Schwarz et norme euclidienne, groupe O(n), isométries de R2 et R3, Th. de Gram-Schmid, diagonalisation des matrices symétriques réelles, diagonalisation "simultanée" (c.-à-d., dans une b.o.n.) d'une fbs et application aux calculs de signature.
Devoir 3 du 8/3/13   Corrigé du devoir 3
Devoir 4 (22 mars 2013): Tout le chap.7 sauf le parag. 7.6 sur les quadriques, c.-à-d.: espaces affines et applications affines, barycentres et sous-espaces affines, sous-espaces supplémentaires, espaces affines euclidiens et isométries affines, classification des isométries affines en dimension 2 et 3, coniques.
Devoir 4 du 22/3/13   Corrigé du devoir 4 (version du 25/3/13 avec correction de O - u en O - f3 dans 2.6)
Devoir 5 (12 avril 2013): La partie du Chap.8 concernant les produits scalaires hilbertiens et le thm. de diagonalisation dans une bon des endomorphismes normaux (en particulier, hermitiens, anti-hermitiens et unitaires). Totalité du Chap. 2 (trigonalisation, espaces caractéristiques, etc.). Les parties du Chap.3 concernant la décomp. de Dunford (3.2.5), les exponentielles de matrices et équations différentielles linéaires (3.3 et 3.4), et les espaces quotients (3.5).
Devoir 5 du 12/4/13   Corrigé du devoir 5
Examen du 15 mai 2013   Corrigé de l'examen du 15 mai
Examen 2ème session du 5 juin 2013   Corrigé de l'examen du 5 juin (mis en ligne le 6 juin; des figures pour l'exo sur les coniques seront peut-être insérées plus tard)
Programme de l'examen 2ème session du 5 juin: tout le contenu des chapitres 1,2,3,5,6,7, y compris réduction d'une forme quadratique en sommes de carrés (Chap. 5) et les coniques!
Exercices faits dans le groupe de TD1:
21/1: résumé de cours sur les opérations sur les colonnes, puis Feuille 1, Exos 2,4,6
22/1: résumé de cours sur la somme directe externe de deux e.v. E et F, puis lorsque E,F sont des sev d'un e.v. V, étude de la projection p de cette somme directe externe sur le sev E+F de V, projection dont le noyau est isomorphe à l'intersection de E et F. Conséquence: la formule dim(E) + dim(F) = dim(E+F) + dim(E inter F): ceci remplace l'Exo 5. Puis, armés de ceci, retour sur l'exo 6 (en fait une version simplifiée, avec 4 vecteurs dans R3). Puis début de l'Exo 7.
28/1: Feuille 1, Exo 7 et questions 1,2 de l'exo 13
29/1: Fin de l'exo 13 et Exos 3, 12. Puis Feuille 2, question 3 de l'Exo 3.
31/1: Feuille 2: fin de l'Exo 3, puis Exos 4,6, et questions 1,2 de l'exo 7.
4/2: Fin de l'exo 7 puis retour sur les Exos 5 et 6: calculs de polynômes caractéristiques et de vecteurs propres en faisant des opérations sur les colonnes.
5/2: Feuille 2, Exos 8,9,10.
11/2: Correction du Devoir 1. Puis début de l'Exo 11 (feuille 2). Rappel: (oublié en cours) la trace est la somme des valeurs propres (cf. 2.2.4 du poly).
12/2: Feuille 2, Exos 11, 13 puis Feuille 4, Exos 1,2.
14/2: Feuille 4-5, Exos 5,6,7
18/2: Feuille 4-5, Exos 9,10,11 + un exercice sur le produit scalaire standard dans Rn
19/2: autre exercices sur le produit scalaire standard dans Rn, et Feuille 6, exos 1, 2 et début du 3.
21/2: Feuille 6, fin de l'exo 3 puis exo 12.
25/2: Correction du Devoir 2 (dont l'Exo 4 compte comme l'Exo 15 de la feuille 6) puis Feuille 6, exos 3 et début du 4.
26/2: Feuille 6, fin de l'exo 4 puis exo 14, matrices A et B. Les questions 1 à 7 de l'exo 13 ont été traitées en cours, donc cet exercice est considéré comme fait.
4/3: Fin de l'exo 14, puis exo 7 et exo 8, matrice A.
5/3: Exo 8, matrice B, puis retour sur la matrice A (un espace propre de dimension > 1), puis exo 16.1
7/3: Exo 16.2, puis exos 10 et 5, ou bien questions diverses.
11/3: Correction de l'exercice 6 du Devoir 3, puis Feuille 7, Exo 1 et début de l'Exo 2.
12/3: Feuille 7, fin de l'exo 2 et Exo 5, questions 1,2.
14/3: Fin de l'exo 5 et exo 4.
18/3: Exo 9.
19/3: Exo 7 et un exo sur les coniques.
25/3: Correction du devoir 4: exos 1,2,3,5,6.
26/3: Correction de l'exo 4 du Devoir 4, puis Feuille 8, exos 2, 5.
28/3: Feuille 8, Exo 6.
2/4: Feuille 2, Exos 12 et 15, puis Feuille 3, Exo 10.
4/4: Feuille 3, Exo 11, puis début des exos 14 et 15 (le 14 étant considéré comme partie de la question 15.3)
8/4: Feuille 3, fin des Exos 14 et 15.
9/4: Feuille 3, exo 13: questions 1,2, puis questions 7 en remplaçant la matrice JA par une certaine matrice de Jordan J. Puis début de l'exo 7 de la feuille 8.
15/4: (prévisions) Correction du devoir 5.
16/4: (prévisions) retour sur l'exo 13, mais en partant de la matrice A donnée dans l'exemple 2 de 3.1.14 du poly.
Avancement du cours dans l'amphi A (mardi et vendredi 16h-18h). --- Pour l'amphi B (lundi et jeudi 16h-18h), voir la page de Laurent Koelblen : Amphi B
Mardi 22/1/13: Opérations sur les colonnes d'une matrice A, d'où bases de Im(A) et Ker(A). Example 1.2.3 du poly. Au passage, définition des matrices élémentaires Eij et étude du produit Eij Epq, égal à Eiq si j = p, et à 0 sinon. Puis opérations sur les lignes de A, d'où équations de Ker(A) et Im(A). Exemple du poly (bas de page 24 et page 25). Puis lien avec les systèmes linéaires et démonstration de l'égalité rang(tA) = rang (A). (Ceci couvre le parag. 1.2 du poly jusque 1.2.7.1). On a vu aussi le ''rappel de L1'' suivant: si l'on a un système linéaire AX = 0 à n variables sous forme résolue, c.-à-d., avec A ayant s lignes échelonnées, on a la notion de variables libres et de variables liées, et l'on obtient une base (v1, ..., vn-s) de l'espace des solutions en prenant la base canonique e1 = (1,0,...,0), ..., en-s = (0,...,0,1) de l'espace des variables libres et en résolvant dans chaque cas le système exprimant les variables liées en fonction des variables libres pour obtenir les vi. Application de ceci à l'exemple précédent: bases de Ker(A) et Im(A). Pour finir, définition du dual V* d'un esp. vect. V.
Vendredi 25/1/13: Calcul de l'inverse d'une matrice carrée (1.2.8). Puis:
Lemme (ne figure pas dans le poly). Soient X un ensemble et W un k-ev. Alors l'ensemble Fonc(X,W) de toutes les fonctions de X dans W est muni d'une structure de k-ev.
Corollaire: l'ensemble des suites d'éléments de k = fonctions de N dans k, est un k-ev.
Th. 0.4.3: Soient V,W deux k-ev. L'ensemble L(V,W) des applications linéaires u de V dans W est un k-ev, car c'est un sev de Fonc(V,W). Si B est une base de V et C une base de W, on note MatC,B(u) la matrice de u dans les bases: B au départ, et C à l'arrivée. La notation est choisie pour avoir la formule fondamentale: si U est un 3ème k-ev, A une base de U et v une application linéaire de U dans V, on a:
MatC,A(uv)= MatC,B(u)MatB,A(v).
Alors l'application qui à u associe MatC,B(u) est un isomorphisme de k-ev entre L(V,W) et Matm,n(k), où m = dim(W) et n = dim(V) (fin du Th. 0.4.3).
Puis pour dim(V) = n et B une base de V, définition de la base duale B* de V* (Th. 1.1.2), puis matrices colonnes et matrices lignes (1.1.3). Puis codimension d'un sev E de V (1.3.1), définition de l'orthogonal Ebot, et calcul de sa dimension = codim(E). On a admis provisoirement la:
Prop (1.1.4.2 du poly). Pour toute base B' de V*, il existe une unique base B de V dont la base duale est B'.
Puis définition de l'orthogonal F0 d'un sev F de V* et calcul de sa dimension = n - dim(F), en utilisant le théorème précédent. Conséquence:
Théorème (= remarque 1.3.6.1 du poly): E est l'orthogonal de son orthogonal, et de même pour F.
Puis, une base B de V étant donnée, donc aussi la base duale B*de V*, exemples de calculs explicites (voir Exo 13 de la Feuille 1):
(I) Etant donné des formes linéaires f1,...,fm, et notant F le sev de V* qu'elles engendrent, déterminer l'orthogonal F0 revient à résoudre un système linéaire dont les lignes sont f1,...,fm.
(II) Etant donné des vecteurs v1,...,vm de V et notant E le sev de V qu'ils engendrent, déterminer l'orthogonal Ebot revient à chercher les formes linéaires f = a1 e1* + ... + an en*, où les scalaires ai sont solutions d'un système déterminé par les vecteurs v1,...,vm. Exemples dans V = R3 avec E = une droite, puis E = un plan.
Mardi 29/1/13: Soient V,W,E trois k-ev. Définition de la notion d'application bilinéaire b de V x W dans E. Lorsque E = k, ceci induit des applications linéaires de V dans W* et de W dans V*. Ceci sera surtout utile dans le Chap.5 (Prop. 5.1.5), mais on en a donné l'application suivante, qui est un complément de cours (donc pas au programme des évaluations): application canonique de V dans son bidual V** et démonstration de V = V** lorsque dim(V) = n, puis démonstration de la prop. 1.1.4.2 du poly: lorsque dim(V) = n, toute base de V* est la base duale d'une base de V (voir 1.7.1 et 1.7.2 du poly).
Puis début de l'étude des déterminants en se plaçant sur un anneau commutatif k (par exemple, k = K[X], où K est un corps, ou bien k = Z). Cas des matrices 2x2, puis énoncé du théorème 1.4.1 (a), (b), (c), ainsi que d'un point (d) = formules (*j) et (*i) de développement par rapport à la colonne j ou bien la ligne i (page 34 du poly), puis exemple de développements pour la matrice 3x3 dans 1.2.8 du poly. Puis début de la démonstration du théorème 1.4.1. Deux démos sont données dans le poly: l'une dans le parag. 1.4, l'autre dans le Chap.4. Aucune n'est pleinement satisfaisante: la 1ère ne donne pas la formule explicite 4.4.6, la 2ème a l'inconvénient de se placer sur un corps k, afin de ne pas parler de modules libres sur un anneau k. Dans le cours, on a donné une 3ème démonstration = celle du Chap. 4 en travaillant sur l'ensembles des colonnes d'élements de k (sans prononcer le terme de module libre) et en notant ei la colonne dont tous les termes sont nuls, sauf le i-ème qui vaut 1. On a ainsi montré que pour toute application D de Mn(k) dans k vérifiant les conditions (1) et (2) de (a), D(A) est la somme sur les éléments s du groupe symétrique Sn des termes:
as(1)1...as(n)n D(es(1), ..., es(n)).
Puis, on a admis (provisoirement) le théorème ci-dessous (Th. 4.36 et 4.3.8 du poly):
Th.: (1) Tout élément de Sn est un produit de transpositions.
(2) Il existe un (unique) morphisme de groupes, de Sn vers le groupe à deux éléments 1, -1, tel que la signature d'une transposition soit -1. Ce morphisme est appelé la signature et est noté epsilon.
En utilisant ceci, on montre que pour toute application D de Mn(k) dans k vérifiant les conditions (1) et (2) de (a), on a, pour toute permutation s:
D(es(1), ..., es(n)n) = epsilon(s) D(e1, ..., en) = epsilon(s) D(I_n)
d'où l'assertion d'unicité plus précise dans le point (a) du Th.1.4.1. (La démonstration donnée en cours était légèremment incorrecte, on la corrigera le 1er février.)
Vendredi 1/2/13: Reprise de la démonstration indiquée plus haut, puis démonstration de l'existence du déterminant (4.4.2 et 4.4.4). Deux typos à corriger dans le poly: dans la Prop. 4.4.2, remplacer Xp par Ep, et 3 lignes au-dessus de 4.4.3, remplacer tau sigma(s) = sigma(s) par: xtau sigma(s) = xsigma(s). Puis fin de la démonstration du Th.1.4.1, puis déterminant d'une matrice triangulaire par blocs (1.4.6), et cas d'un corps (1.4.7). Puis déterminant, polynôme caractéristique et trace d'un endomorphisme (1.5.2), puis valeurs et vecteurs propres (1.5.5 à 1.5.7). Fin du Chap.1. Puis début du Chap.2:
Th. 2.1.8. Les espaces propres sont en somme directe.
Mardi 5/2/13: Retour sur les sev en somme directe: des sev E1, ..., En de V (avec dim(V) = n) sont en somme directe si et seulement si E = E1 + ... + En est de dimension dim(E1) + ... + dim(En), et dans ce cas une base de E est obtenue en prenant la réunion disjointe de bases des Ei. Puis définition de l'ordre (ou multiplicité) d'une racine d'un polynôme, puis:
Prop. 2.1.12 (un peu plus générale que dans le poly): Soit u un endomorphisme de V (dim(V) = n) et P son polynôme caractéristique. Alors u est diagonalisable ssi:
(1) P est scindé dans k[X].
(2) Pour toute racine t de P, la multiplicité géométrique (= dimension de l'espace propre associé) est égale à la multiplicité algébrique (= ordre de t comme racine de P).
(Comme ceci est un rappel de L1, tout le contenu du cours jusqu'ici est au programme du Devoir 1 du 8 février 2013.)
Contre-exemples: (a) Soit u l'endomorphisme de k2 tel que u(e2) = e1 et u(e1) = 0, son polynôme caractéristique est X2 mais u n'est pas diagonalisable car Ker(u) est de dimension 1.
(b) Soit A dans M2(R) la matrice d'une rotation d'angle theta, où theta n'est pas un multiple entier de pi=3,14.... Alors A n'est pas diagonalisable dans M2(R), car ses valeurs propres sont les nombres complexes non réels exp(i theta) et exp(-i theta). Par contre, A est diagonalisable dans M2(C).
Suite du cours du 5/2/13: parag. 4.2 du poly (hors programme des évaluations): définition de la k-algèbre des polynômes à n variables et démonstration de sa propriété universelle (Th. 4.2.4 et 4.2.8). Puis, comme application de ceci, définition du morphisme signature (Th. 4.3.8). Au passage, on a introduit le diagramme d'une permutation s, dont les cases (i,j) représentent les inversions de s (ceci n'est pas dans le poly). Puis démonstration des résultats admis précédemment sur les permutations: décomposition en cycles (Th. 4.3.5), puis: un r-cycle est produit de (r-1) transpositions (Prop. 4.3.10) et comme conséquence: toute permutation est produit de transpositions (voir le Th. 4.3.6 pour une autre démonstration donnant un résultat un peu plus fort). Ceci termine le Chap.4 (i.e. la partie du Chap.4 qu'on voulait traiter pour construire le déterminant).
Vendredi 8/2/13: Début du Chap.5: formes bilinéaires symétriques et formes quadratiques. Exemples: produit scalaire euclidien sur Rn, et formes quadratiques f(x,y) sur R2: cas où l'on a un minimum, un maximum, ou un point-selle (à voir en LM216). Puis Définition des formes bilinéaires symétriques (fbs) (5.1.1) et des matrices symétriques (5.1.2). Puis Th-Déf. 5.1.3: matrice d'une fbs dans une base, formule matricielle f(v,w) = tXAY, formule de changement de base A' = tPAP. Puis retour sur la formule 5.1.3(*) récrite sous la forme 5.1.6 (*') et définition des formes quadratiques (5.1.10) et de la forme polaire f d'une forme quadratique Q: elle est déterminée par l'écriture de Q comme un polynôme homogène de degré 2 en les coordonnées xi: en effet aii est le coefficient du terme carré xi2, tandis que aij = aji est la moitié du coefficient de xi xj (formule 5.1.10 (4)). D'autre part, on a les formules de polarisation qui expriment f(x,y) en fonction de valeurs de Q:
f(x,y)=(1/2)(Q(x+y) - Q(x) - Q(y)) = (1/4)(Q(x+y) - Q(x-y))
(cf. 5.1.10 (2), où la 2ème formule ci-dessus a été oubliée). Puis:
Déf-Prop. 5.1.4 et 5.1.11. Soient Q une forme quadratique, f sa forme polaire et A la matrice de f dans une base B.
On définit rang(Q) = rang(f) = rang(A). On définit aussi le noyau N(Q) = N(f) = Ker(A). Dans les 2 cas, ceci ne dépend pas du choix de B. On dit que Q (ou f) est non dégénérée si rang(f) = dim(E), ce qui équivaut à N(f) = 0. De plus, N(Q) = N(f) est l'ensemble des y dans E tels que f(x,y) = 0 pour tout x dans E. Attention de ne pas confondre ce noyau, qui est un sev, avec le cône isotrope C(Q) de Q, qui est l'ensemble des x dans E tels que Q(x) = 0, et qui n'est pas un sev en général.
Exemples des formes x2 + y2 sur R2, puis des formes x2 + y2 + z2 sur R3, et x2 + y2 sur R3.
Et pour finir:
Prop.5.1.5: dim(E) = n. Toute forme bilinéaire f sur E définit une application linéaire f' de E vers son dual E* et pour toute base B de E, la matrice A de f dans la base B n'est autre que la matrice de l'application linéaire f' dans les bases B (au départ) et B* (base duale) à l'arrivée. Ceci explique les égalités rang(f) = rang(A) = rang(f') et N(f) = Ker(A) = Ker(f').
Mardi 12/2/13: Suite du Chap.5: Orthogonal d'un sev et existence de bases orthogonales: on n'a pas suivi exactement le poly, c.-à-d., on a défini l'orthogonal d'une partie X de E et démontré la Prop. 5.1.7, puis l'on a démontré le Th. 5.1.8 seulement dans le cas où la forme f est non dégénérée, puis on a démontré l'existence de bases orthogonales (Th. 5.1.13) d'abord dans le cas non dégénéré, puis en s'y ramenant en considérant un supplémentaire du noyau N(f). Puis cas où le corps de base est C (Th. 5.1.14), ou R: théorème de Sylvester = définition de la signature d'une forme quadratique réelle (Th. 5.1.15). Puis algorithme de Gauss de réduction d'une forme quadratique en "somme de carrés": explication du cas (a) = il existe un coeff. diagonal non nul et on "complète le carré", et du cas (b) = tous les coeff. diagonaux sont nuls et on choisit un couple de variables (x,y) qu'on remplace par X = (x+y)/2 et Y = (x-y)/2, c.-à-d., on pose x = X+Y et y = X-Y.
Vendredi 15/2/13: fin du Chap.5: retour sur l'algorithme de Gauss: explication de la méthode (b') (= variante sophistiquée de (b)). Puis application: Hessienne d'une fonction de n variables et application à l'étude d'extremum (cf. LM 216). Puis début du Chap.6: définition des produits scalaires et espaces euclidiens (6.1.1), exemples 6.1.2, puis Théorème 6.1.4: existence de bases orthonormées (en abrégé b.o.n.), inégalité de Cauchy-Schwarz et norme euclidienne (6.1.5 et Th. 6.1.6).
Mardi 19/2/13: suite du Chap.6: Théorème de Pythagore (6.1.7), puis:
Théorème 6.3.2 et Prop. 6.3.3: projection orthogonale sur un sous-espace F de dimension finie (attention, l'hypothèse F de dimension finie manque dans le poly, où la démonstration de 6.3.2 (1) n'est valable que pour E de dimension finie), et symétrie orthogonale par rapport à l'orthogonal F' de F.
(On a oublié d'énoncer la Prop.6.3.5 = le cas particulier où dim(F)=1; on y reviendra.) Puis définition des isométries vectorielles (Prop. 6.1.9), Corollaire 6.1.10: tout espace euclidien de dimension n est isométrique à Rn muni du produit scalaire standard, puis définition du groupe orthogonal O(n) et caractérisation de ses éléments par les propriétés équivalentes de la Prop. 6.1.12. Puis étude détaillée de O(2): 6.4.10 à 6.4.13.
Vendredi 22/2/13: Généralités sur O(n) pour n arbitraire (6.4.3 à 6.4.5), puis notion d'orientation de Rn, i.e. de bases directes et indirectes: 6.4.1, 6.4.2, 6.4.6, 6.4.14, et description des éléments de O(3) (Th. 6.4.18).
Mardi 26/2/13: Parag. 6.4.19 = produit vectoriel et déterminant des éléments de O(3), puis début de la section 6.2: adjoint dans le cas euclidien (Th. 6.2.3) (on n'a pas fait l'adjoint dans le cas général: Th. 6.2.1) puis définition des endomorphismes auto-adjoints (6.2.4), puis diagonalisation des endomorphismes auto-adjoints et des matrices symétriques réelles (Th. 6.2.6 et Cor. 6.2.7): on a donné une démonstration de l'existence d'une valeur propre réelle (Prop. 6.2.8) plus simple que celle du poly.
Vendredi 1/3/13: Thm. de diagonalisation simultanée et application au calcul de signatures (Th. 6.2.9 et Cor. 6.2.10, 6.2.11). Puis Th. de Gram-Schmid (Th. 6.3.5). Fin du Chap.6 Puis Début du Chap.7: Définition des espaces affines (7.1.3), repères et coordonnées dans un repère (7.1.6), Th. de changement de repère (7.1.8), applications affines, partie linéaire et écriture dans des repères (7.1.9 et 7.1.10), une composée d'applications affines est affine (7.1.14), définition et propriétés des translations (7.1.12 et 7.1.13). Définition de l'ensemble Taff(E) des transformations affines de E, et Th. 7.1.15 (3): f est bijective si et seulement si sa partie linéaire l'est.
Mardi 5/3/13: Retour sur: "la relation de Chasles est équivalente au Lemme 7.1.13: la composée des translations de vecteurs u et v est la translation de vecteur u + v". Retour sur le point (3) de 7.1.15 et démonstration du point (4). Puis définition des barycentres (Th. 7.2.1), exemple du segment [A,B] et de la droite (AB). Puis Définition des sous-espaces affines (SEA) d'un espace affine de dimension finie, en regroupant les propositions et définitions 7.2.6, 7.2.7, 7.2.8, 7.2.10, 7.2.12. Puis définition du sous-espace affine engendré par des points A0, ..., Ap (Cor. 7.2.14, on n'a pas traité le cas plus général 7.2.13) et notion de points affinement indépendants (7.2.16) et retour sur les repères (7.2.17). Définition de SEA faiblement parallèles ou parallèles (7.2.18), puis:
Prop. 7.3.1 Soient (calE, E) un espace affine, (calF, F) et (calF', F') deux SEA tels que F + F' = E. Alors l'intersection de calF et calF' est non vide et est un SEA de direction F inter F'.
Cor. 7.3.2 et déf. 7.3.3 Sous les hypothèses précédentes, supposons de plus que E soit la somme directe de F et F'. Alors l'intersection de calF et calF' est formée d'un unique point I, et l'on peut définir la projection sur calF parallèlement à calF' ainsi que la symétrie par rapport à calF parallèlement à calF'.
Vendredi 8/3/13: Retour sur la notion de SEA, en particulier le fait qu'un SEA est bien un espace affine (Remarque 7.2.7), et SEA définis par des équations (Prop. 7.2.10). Puis définition et propriétés des points fixes (7.3.4 et 7.3.5) et illustration de leur intérêt par le fait que si f est affine de partie linéaire u et si f(I) = I, alors pour tout M le vecteur f(I)f(M) égale u(IM), donc on est ramené à une situtation "linéaire". Puis définition des espaces affines euclidiens et de leur distance euclidienne (7.4.1), des repères orthonormés (7.4.10), des isométries (7.4.2) et des propriétés des isométries affines (7.4.3 et 7.4.4). On n'utilisera pas le Th. 7.4.5, donc on parlera dans la suite "d'isométries affines". Définition du groupe des isométries et du sous-groupe des isométries directes (déplacements), ainsi que de l'ensemble des isométries indirectes (anti-déplacements). On a admis provisoirement le "théorème mirifique" 7.4.9 Décomposition canonique d'une isométrie affine et l'on en a déduit la classification des isométries affines du plan euclidien: rotations, translations, symétries orthogonales glissées (parag. 7.4.11).
Mardi 12/3/13: Classification des isométries de l'espace affine euclidien de dimension 3 : rotations, translations, vissages, symétries orthogonales ou centrales, rotations gauches, symétries orthogonales glissées (parag. 7.4.12). correction du poly: page 151, 2 lignes en-dessous de (3), il manque les mots de centre I dans l'expression: "f est une rotation gauche de centre I et d'axe ..." Puis démonstration du thm. 7.4.9. Puis début des coniques: on a énoncé le th. 7.5.8 et on l'a démontré lorsque le discriminant est nul (paraboles) ou > 0 (ellipses).
Vendredi 15/3/13: Fin de la démonstration du Th. 7.5.8. Puis les deux définitions géométriques des coniques: par directrice, foyer et excentricité (7.5.1 à 7.5.5) et définition bifocale des ellipses (7.5.6) et des hyperboles (7.5.7). Fin du Chap.7 (on ne traitera pas les quadriques).
Mardi 19/3/13: Début du Chap.8: Rappels sur les nombres complexes (8.0) puis définition des formes hermitiennes (8.1.2) et Théorèmes 8.1.6 et Prop. 8.1.8 = Matrice, rang et noyau d'une forme hermitienne et formule de changement de base. ATTENTION, on s'est écarté du polycopié en adoptant la convention qu'une forme hermitienne est linéaire en la 2ème variable (au lieu de la 1ère, comme dans le poly), ce qui modifie légèrement toutes les formules données. En particulier, la formule de changement de base 8.1.6 (4) devient: A' = P* A P, où P* est la matrice "transposée conjuguée" de P. Puis on a défini rapidement l'orthogonal d'un sous-espace F et admis le th. 8.1.10, puis on a démontré les identités de polarisation 8.1.4 qui montrent que la forme hermitienne est définie par la forme "quadratique hermitienne" associée, et en utilisant ces deux résultats (8.1.10 et 8.1.4) on a démontré le:
Théorème 8.1.12: Existence de bases orthogonales et définition de la signature (p,q) d'une forme hermitienne. De plus la base orthogonale peut être choisie de sorte que la matrice diagonale n'ait pour coefficients que des 1, des -1 et des 0.
Puis définition des produits scalaires hilbertiens (8.3.1) et familles orthonormées (8.3.3). Exemple: le produit scalaire hilbertien standard sur Cn: correction à faire dans 8.3.2 du poly: il manque les barres (conjugaison complexe) sur les xi (convention du cours) ou les yi (convention du poly).
Vendredi 22/3/13: Suite et FIN du Chap.8: Corollaire du thm. 8.1.12: tout espace hilbertien de dimension finie admet une base orthonormée. Puis:
Théorème 8.3.6: (sous une forme plus générale que dans le poly) Soit E un C-espace vectoriel muni d'un produit scalaire hilbertien et soit F un sev de dimension finie (on ne suppose pas E de dimension finie). Alors E est la somme directe de F et de son orthogonal G, et l'on peut définir les projections orthogonales sur F et sur G, et les symétries orthogonales par rapport à F ou G.
Puis Th. 8.3.8 (Inégalité de Cauchy-Schwarz et norme hilbertienne), puis définition rapide des isométries vectorielles (8.3.10) et du groupe unitaire U(n) (8.3.12). On a traité en détail le cas du groupe U(2). Puis définition de l'adjoint d'un endomorphisme dans le cas hilbertien (Th. 8.4.3). (On n'a pas traité le cas plus général 8.4.1). Puis définition des endomorphismes normaux, auto-adjoints, unitaires (8.4.5) et Théorème de diagonalisation dans une bon des endomorphismes normaux (8.4.7). Puis conséquences matricielles:
Théorème 8.4.8: si A dans Mn(C) est hermitienne (resp. anti-hermitienne, resp. unitaire), il existe P dans U(n) telle que P* A P = D soit diagonale, et ses valeurs propres sont réelles (resp. imaginaires pures, resp. des nombres complexes de module 1).
Enfin, on a énoncé sans démonstration le théorème 8.5.1 sur la "forme normale" des éléments de O(n).
Mardi 26/3/13: Retour sur le Chap.2: Th. de trigonalisation (lorsque Pu(X) est scindé) 2.2.3, Cor. 2.2.4: le déterminant (resp. la trace) est le produit (resp. la somme) des valeurs propres (comptées avec leur multiplicité algébrique), définition des polynômes d'endomorphismes (2.2.5), th. de Cayley-Hamilton lorsque Pu(X) est scindé (2.2.6), puis définition de la suite des noyaux pour un endomorphisme U (voir Chap.3, Prop. 3.1.4) et démonstration du fait qu'elle est strictemennt croissante, puis stationnaire, de valeur notée K(U). Puis:
Définition des espaces caractéristiques: (meilleure que celle donnée dans le poly en 2.2.8, mais qui coïncide avec celle-ci d'après 2.2.12): pour toute valeur propre t de u, on note K(t) ou V(t), la réunion de la suite des noyaux pour l'endomorphisme U = u - t id, et on l'appelle l'espace caractéristique (ou espace propre généralisé) associé à la valeur propre t.
Exemple pour l'endomorphisme u de k3 tel que u(ei) = ei-1 pour i = 2,3 et u(e1) = 0. Puis énoncé du théorème de Bézout 2.2.10 (admis), puis démonstration du:
Th. 2.2.11 (décomposition en espaces caractéristiques). Soient V de dimension n, u un endomorphisme de V dont le polynôme caractéristique est scindé, de racines ti, i = 1,...,r, chacune de multiplicité algébrique mi. Alors V est la somme directe des espaces caractéristiques K(ti), et chacun est de dimension mi. En particulier, pour chaque i on a K(ti) = Ker((u - ti Id)ri) pour un certain ri inférieur ou égal à mi.
Puis définition du polynôme minimal Mu d'un endomorphisme u (en se plaçant sur k = C afin de disposer de Cayley-Hamilton), puis énoncé et démonstration de la prop.2.2.13 sous la forme suivante: les conditions suivantes sont équivalentes: (a) u est annulé par un polynôme scindé à racines simples, (b) Mu est scindé à racines simples, (c) u est diagonalisable. Enfin, comme application, le Cor. 2.2.14 (automorphismes d'ordre fini de Cn).
Vendredi 29/3/13: Retour sur la suite des noyaux et la trigonalisation des endomorphismes nilpotents (utilisée dans la démo. du Th. 2.2.11). Puis existence de la décomposition de Dunford (3.2.5), en admettant l'unicité. Puis parag. 3.3 sur les exponentielles de matrices jusque 3.3.14.
Mardi 2/4/13: Fin du parag. 3.3 = Th. 3.3.16, puis parag. 3.4 sur les équations différentielles linéaires à coefficients constants, puis début du parag. 3.5: groupes abéliens quotients (Prop. 3.5.1). Application: quel jour de la semaine était le 1er avril 1993?
Vendredi 4/4/13: Espaces vectoriels quotients (Th. 3.5.2), passage au quotient d'un morphisme et théorème d'isomorphisme de Noether (Théorèmes 3.5.3 et 3.5.4). Applications: matrices triangulaires par blocs (3.5.5) et retour sur le thm. de trigonalisation (3.5.6). Puis on a démontré l'existence de la décomposition de Jordan des endomorphismes nilpotents, par une méthode rapide (ne figurant pas dans le poly), utilisant l'exo 14 de la feuille 3 et l'existence d'une forme linéaire f telle que f(ur-1(e)) soit non nul pour montrer que tout bloc de Jordan "de taille maximale" possède un supplémentaire stable. On a aussi introduit les notions de partition d'un entier, représentation graphique et partition transposée (3.1.3).
Mardi 9/4/13: Résultat d'unicité de la décomposition de Jordan dans le cas nilpotent (Th. 3.1.6): la partition donnée par la taille des blocs de Jordan est la transposée de la partition associée à la suite des noyaux. Puis extension à un endomorphisme u dont le polynôme caractéristique est scindé (Th. 3.1.10). Une coquille dans le poly: dans 3.1.8(2), le terme après le signe + doit être Jp au lieu de Jp(lambda). Puis exemple de calcul explicite d'une base de Jordan en faisant des opérations sur les colonnes: exemple 2 de 3.1.14 du poly.
Vendredi 12/4/13: Dernier cours! suite de l'exemple précédent: résolution explicite de l'équation différentielle X' = AX pour la matrice A précédente. Puis questions diverses.
Pour information, on a conservé plus bas l'avancement du cours en 2011-2012.

LM270 Algèbre et géométrie 2011-2012
Archives 2011-2012 (avec corrigés)

Devoir 1 du 24/2/12   Corrigé du devoir 1
Devoir 2 du 9/3/12     Corrigé du devoir 2
Partiel du 23/3/12     Corrigé du partiel
Devoir 3 du 6/4/12   Corrigé du devoir 3
Devoir 4 du 11/5/12   Corrigé du devoir 4
Examen du 8 juin 2012     Corrigé de l'examen du 8 juin
Examen 2e session du 29 juin 2012     Corrigé de l'examen du 29 juin

Archives 2010-2011 (avec corrigés):
TE2a (23 mars 2011, groupes 1,2,3)  corrigé TE2a   TE2b (25 mars 2011, groupes 4,5,6)  corrigé TE2b  
TE3a (28 avril 2011, groupes 1,2,3)  corrigé TE3a   TE3b (29 avril 2011, groupes 4,5,6)  corrigé TE3b  
TE4a (19 mai 2011, groupes 1,2,3)  corrigé TE4a     TE4b (20 mai 2011, groupes 4,5,6)  corrigé TE4b  
Partiel du vendredi 1er avril 2011(2h) corrigé du partiel
Examen du 7 juin 2011 (3h) corrigé de l'examen du 7 juin
Examen 2e session du 28 juin 2011 (3h) corrigé de l'examen du 28 juin

Archives 2009-2010 (avec corrigés):
TE1_09-10      corTE1_09-10     TE2_09-10     corTE2_09-10
TE3a_09-10   corTE3a_09-10   TE3b_09-10   corTE3b_09-10
TE4a_09-10   corTE4a_09-10   TE4b_09-10   corTE4b_09-10  
Partiel_09-10     corPartiel_09-10
Exam1S_09-10   corExam1S_09-10
Exam2S_09-10   corExam2S_09-10  

Verbatim 2011-2012
Mardi 7/2/12: Opérations sur les colonnes et bases de Im(A) et Ker(A) (1.2.1-1.2.3). Puis définition de l'espace dual V* de V (1.1.1) et, une base B de V étant donnée, définition de la base duale B*, formée des formes "coordonnées" par rapport à la base B (1.1.2). Puis, relativement à la base B, écriture des éléments de V* comme matrices lignes (1.1.3).
Vendredi 10/2/12: Rappel de la 1ère séance: les opérations sur les colonnes donnent des bases de Im(A) et de Ker(A). Puis démonstration du fait que les opérations sur les lignes donnent des équations de Ker(A) et de Im(A) (1.2.4-1.2.6). (Une coquille à corriger dans le poly: en haut page 25, dans la 2ème ligne du système, remplacer y2 par y2 - y1.) Puis, rappels sur les matrices de passage (0.5.5), la formule de changement de base A' = Q-1 AP (0.5.7), et celle de changement de coordonnées Y' = Q-1Y, vue comme conséquence de la précédente (voir 0.5.6 pour une autre démonstration, également donnée en cours). Puis lien avec les systèmes linéaires et conséquence: rang(A) = rang( tA) (1.2.7 et 1.2.7.1). Puis: "les lignes vivent dans l'espace dual": retour sur espace dual et base duale. Puis début du parag. 1.3: Prop. 1.3.2, puis définition, pour F un sev de V*, de son orthogonal Fo dans V et égalité dim(Fo) = n - dim(F) (1.3.3). Puis, pour E un sev de V, définition de son orthogonal Ebot dans V* et égalités dim(Ebot) = n - dim(E) et (Ebot)o = E (1.3.4 et 1.3.6).
Mardi 14/2/12: Fin du parag. 1.3: définition de la codimension (1.3.1), égalité (Fo)bot = F (1.3.6) et exemples (1.3.5). Puis fin du parag. 1.1: matrices de passage et base préduale (1.1.4). Le calcul de l'inverse d'une matrice n'a pas été traité en cours, mais est considéré comme connu: cf. 1.2.8 du poly. Puis propriétés du déterminant des matrices de taille 2. Puis, avant de construire le déterminant des matrices de taille n arbitraire, on a introduit les concepts suivants: applications bilinéaires (4.1.2), exemple du couplage 4.1.8, puis exemple des k-algèbres (4.2.1), en particulier l'algèbre de matrices Mn(k) et l'algèbre des polynômes k[X]. Construction de l'algèbre des polynômes à n variables (4.2.7) et vérification de l'associativité (resp. commutativité) par trilinéarité (resp. bilinéarité). Puis propriétés universelle de k[X] et de k[X1,...,Xn] (théorèmes 4.2.4 et 4.2.8).
Vendredi 17/2/12: : Définition du groupe symétrique Sn (4.3.1) et des transpositions (4.3.3).
Lemme 4.3.7. Sn agit sur les polynômes en n variables par permutation des variables.
Théorème 4.3.8. Existence du morphisme signature, de Sn dans le groupe à deux éléments 1, -1, tel que la signature d'une transposition soit -1.
Décomposition d'une permutation en cycles (4.3.5) et calcul de la signature d'un cycle (4.3.10).
Soit k un anneau commutatif (par exemple k = k0 un corps, ou k = k0[X], ou k = Z ou Z/dZ).
Définition de dét : Mn(k) --> k par la formule explicite 4.4.6. Puis démonstration du fait que dét vérifie les propriétés (1) (2) et (3) de 1.4.1 (a). Puis:
Théorème. Soit k un anneau commutatif. Toute application f: Mn(k) --> k, vérifiant les propriétés (1) et (2) précédentes, est antisymétrique en les colonnes de A, i.e. change de signe si l'on échange deux colonnes, et est un multiple du déterminant: plus précisément, on a f(A) = f(I_n) dét(A) pour toute matrice A. De plus, on a la formule de développement du déterminant par rapport à une colonne = formule (*j) au-dessus de 1.4.2.
Le théorème ci-dessous n'a pas été (et ne sera pas) traité en cours:
Théorème 4.3.6. Sn est engendré par les transpositions, et même par les transpositions (i, i+1), pour i = 1,...,n-1.
Mardi 21/2/12: Suite des propriétés du déterminant: dét(A) = dét( tA), formule de développement suivant une ligne, puis: dét(BA) = dét(B)dét(A), et égalité
A t C = dét(A) In = t C A,
où C désigne la matrice des cofacteurs (1.4.3). Conséquence: A est inversible si et seulement si dét(A) est un élément inversible de l'anneau k (en particulier, si k est un corps, alors A est inversible ssi dét(A) est non nul).
Déterminant d'une matrice triangulaire ou triangulaire par blocs (1.4.6). Lorsque k est un corps, calcul d'un déterminant au moyen d'opérations sur les lignes ou les colonnes (1.4.7). Déterminant d'une matrice de taille 3 et règle de Sarrus (ne figure pas dans le poly). Déterminant, trace et polynôme caractéristique d'un endomorphisme ou d'une matrice (1.5.2). Définition des valeurs propres et espaces propres (1.5.5). Les valeurs propres sont les racines du polynôme caractéristique (1.5.6).
On a aussi montré que si v est un vecteur propre de l'endomorphisme u pour la valeur propre z, alors pour tout polynôme Q, on a Q(u)(v) = Q(z) v (cf. 2.2.5.1 dans le Chap.2). Enfin on a traité, comme complément (hors programme de l'examen), la transposée d'une application linéaire (parag. 1.6).
Vendredi 24/2/12: Début du Chap.2: sev en somme directe, définition et remarques (2.1.1 à 2.1.3), sev supplémentaires (2.1.4 et 2.1.5), les espaces propres d'un endomorphisme sont en somme directe (2.1.8), deux exemples en dimension infinie (2.1.9), endomorphismes diagonalisables (2.1.10), cas de n valeurs propres distinctes, où n = dim(V) (2.1.11), polynômes scindés et corps algébriquement clos (2.2.2), multiplicités algébrique et géométrique d'une valeur propre (2.1.12), Corollaire: exemples d'endomorphismes non diagonalisables. Endomorphismes trigonalisables (2.2.1), Théorème de trigonalisation pour les endomorphismes dont le polynôme caractéristique est scindé (2.2.3). Corollaire: déterminant (resp. trace) = produit (resp. somme) des valeurs propres (2.2.4).
La Prop.2.1.16 (cas des symétries) n'a pas été traitée.
Mardi 28/2/12: Polynômes d'endomorphismes ou de matrices (2.2.5), Théorème de Cayley-Hamilton sur C et sur R (2.2.6 et 2.2.7). Définition des espaces caractéristiques (2.2.8), Th. de Bézout (2.2.10, admis), Théorème: V est somme directe des espaces caractéristiques (2.2.11). La Prop. 2.2.13 n'a pas été traitée, on y reviendra plus tard. .
Vendredi 2/3/12: Début du Chap.3: Endomorphismes nilpotents (3.1.1), exemple des matrices triangulaires strictes (3.1.2), partitions d'un entier, représentation graphique et partition transposée (3.1.3), Forme normale de Jordan d'un endomorphisme nilpotent (3.1.4 à 3.1.6), puis cas des endomorphismes u tels que Pu(X) = (t-X)n : ce cas ne figure pas explicitement dans le poly mais est contenu dans le cas plus général traité en 3.1.9. Puis retour sur le Théorème: V est somme directe des espaces caractéristiques (2.2.11), qui décompose V en somme directe de sous-espaces Ei sur lesquels u - ti id est nilpotent.
Mardi 6/3/12: Formale normale de Jordan dans le cas général (3.1.9). Une coquille dans le poly: page 60, 9 lignes au-dessus de 3.1.10, remplacer "de la base canonique de B' " par: "de la base B' ".
Puis décomposition de Dunford (3.2.5): l'existence est une conséquence immédiate de 3.1.9, mais l'unicité utilise des résultats intéressants en eux-mêmes:
Th. 2.1.14: la restriction d'un endomorphisme diagonalisable à un sev stable est diagonalisable.
Proposition (Lemme 3.2.2, (1)): si deux endomorphismes u,v commutent, alors v laisse stable tout espace propre et tout espace caractéristique de u.
Corollaire (Lemme 3.2.2, (2)): si u,v commutent et sont diagonalisables, il existe une base de V formée de vecteurs propres communs à u et v. Par conséquent, u+v et uv sont diagonalisables.
Lemme (3.2.2, (3)): Formule du binôme et conséquence: si u et v commutent et sont nilpotents, alors u+v est nilpotent.
Exemples de décomposition de Dunford (voir 3.2.6).
Puis retour sur des points non traités du Chap.2:
Proposition 2.2.13. Un endomorphisme annulé par un polynôme scindé sans racines multiples est diagonalisable.
Corollaire 2.2.14: automorphismes d'ordre fini de Cn
Puis: Th. 2.4.2 (admis): si I est un idéal non nul de k[X], il existe un unique polynôme unitaire P tel que I = (P). Puis définition du polynôme minimal Mu d'un endomorphisme u.
Proposition (ne figure pas dans le poly): les racines de Mu sont exactement les valeurs propres de u.
Vendredi 9/3/12: Prop. 2.4.6: u est diagonalisable si et seulement si Mu est scindé sans racines multiples. Puis:
Proposition (ne figure pas dans le poly): Supposons le polynôme caractéristique de u scindé, disons égal au produit des (ti - X)mi. Pour tout i, soit di le plus petit entier tel que Ker(u - ti id)di égale l'espace caractéristique pour ti, i.e. di est le nombre de parts de la partition associée à la suite des noyaux de u - ti id, et c'est aussi la taille du plus grand bloc de Jordan pour la valeur propre ti . Alors M_u est le produit des (ti - X)di.
Remarque: en général la donnée de Pu et de Mu ne suffit pas à déterminer la forme normale de Jordan de u. Par exemple, les matrices de taille 4 suivantes: A = deux blocs de Jordan nilpotents de taille 2 et B = un bloc de Jordan nilpotent de taille 2 et deux blocs de Jordan nilpotents de taille 1, ont toutes deux X4 pour polynôme caractéristique et X2 pour polynôme minimal.
Puis définition de la valeur absolue sur K = R ou C, définition d'une norme sur un K-espace vectoriel (3.3.1), des suites de Cauchy et des espaces complets (3.3.2). Résultats admis: sur un K-ev E de dimension finie, toutes les normes sont équivalentes, et E est complet pour n'importe quelle norme; d'autre part, toute application linéaire entre K-ev de dimension finie est continue (3.3.3 à 3.3.5). Normes matricielles sur Md(K) (3.3.6-7) puis définition des exponentielles de matrices (3.3.8) et diverses propriétés: exponentielle d'une matrice nilpotente (3.3.9) ou triangulaire supérieure (3.3.10), exp(P-1 A P) = P-1 exp(A) P (3.3.11) et exp(A+B) = exp(A)exp(B) si A,B commutent (3.3.13); enfin, pour A fixée dans Md(K), la fonction de R vers Md(K) qui à tout réel t associe exp(tA) est indéfiniment dérivable, et pour tout n sa dérivée n-ième est l'application qui à t associe An exp(tA) (3.3.16).
Mardi 13/3/12: Equations différentielles linéaires (parag. 3.4)
Puis parag. 3.5: Groupes abéliens quotients (3.5.1), exemple de R/Z = S1, espaces vectoriels quotients (Th. 3.5.2).
Vendredi 16/3/12: Passage au quotient d'un homomorphisme de groupes abéliens ou d'espaces vectoriels (3.5.2), propriété universelle du quotient = Th. 3.5.2, Théorème d'isomorphisme de Noether (3.5.4), quotients et matrices triangulaires par blocs (3.5.5), nouvelle démonstration du th. de trigonalisation (3.5.6). Puis, en complément de cours: retour sur l'isomorphisme R/Z = S1 comme groupes abéliens et commes espaces topologiques.
Mardi 20/3/12: Début du Chap. 5: formes bilinéaires: 5.1.1 à 5.1.11, en sautant 5.1.4.
Vendredi 23/3/12: suite et fin du Chap.5: existence de bases orthogonales (5.1.12 et 5.1.13), cas des corps C (5.1.14) et R (5.1.15, Th. de Sylvester). Puis algorithme de réduction d'une forme quadratique en "somme de carrés" = parag. 5.2. Un typo à corriger: dans l'Exemple 5.2.5, définition de Q, remplacer "-3 x2 x4 -4 x3 x4" par "-3 x2 x3 -4 x2 x4".
Mardi 27/3/12: Retour sur la Prop. 5.1.4 = interprétation d'une fbs sur V comme une application linéaire de V vers son dual V*. Puis début du Chap. 6: définition des produits scalaires et espaces euclidiens (6.1.1), deux exemples, dont un en dimension infinie (6.1.2), définition et existence des bases orthonormées (6.1.3 et 6.1.4). Inégalité de Cauchy-Schwarz et norme euclidienne (Th. 6.1.6), Th. de Pythagore et égalités du parallélogramme et de polarisation (6.1.7), angle non orienté de deux vecteurs (6.1.8). Caractérisation des isométries entre deux espaces euclidiens de même dimension n (6.1.9). Corollaire 6.1.10: tout espace euclidien de dimension n est isométrique à Rn muni du produit scalaire standard.
Vendredi 30/3/12: Définition du groupe orthogonal O(n) et caractérisation des isométries de Rn muni du produit scalaire standard, i.e. des éléments de O(n) (6.1.11 et 6.1.12). Puis parag. 6.3: projection orthogonale sur un sev (Th. 6.3.2), puis symétries orthogonales par rapport à un sev (6.3.3, c'est une Prop. mais cela mériterait d'être un Th.). Cas particulier 6.3.4 des réflexions orthogonales = symétries orthogonales par rapport à un sev de codimension 1 (= symétries orthogonales par rapport à une droite dans R2, par rapport à un plan dans R3, etc.). Puis étude détaillée des Isométries de R2 euclidien (pp.119-121, 6.4.10 à 6.4.13).
Mardi 3/4/12: Orientations de Rn (6.4.1) puis retour sur O(2) avec la Prop. 6.4.14, puis généralités sur O(n) (6.4.3 à 6.4.6), puis description des éléments de O(3), en commençant par la:
Proposition (ne figure pas dans le poly, mais voir Exo 10 de la feuille 6). Soit A dans O(3), notons U,V,T ses vecteurs colonnes. On suppose que, par exemple, t3 est non nul. Alors det(A) = 1 si et seulement si le mineur u1 v2 - u2 v1 est du même signe que t3.
Puis description des éléments de SO(3) = partie (1) du Th. 6.4.18.
Vendredi 6/4/12: Description des éléments de O--(3) = partie (2) du Th. 6.4.18. Exemple d'application: la matrice C de l'exo 11 de la feuille 6. Puis début du Chap. 8: rappels sur le corps C des nombres complexes (8.0), définition d'une forme hermitienne f et de la "forme quadratique hermitienne" Q associée (8.1.2 et 8.1.3), égalités de polarisation 8.1.4; conséquence: on peut retrouver f à partir de Q. Puis définition des matrices hermitiennes (8.1.5) et Théorème 8.1.6: matrice d'une forme hermitienne et formule de changement de base.
Mardi 10/4/12: Suite des généralités sur les formes hermitiennes: 8.1.8 à 8.1.11, et théorème 8.1.12: existence de bases orthogonales et théorème de Sylvester. Le parag. 8.2 ne sera pas traité en cours. Puis parag. 8.3 sur formes hermitiennes définies positives = produits scalaires hilbertiens: définition 8.3.1, un exemple en dimension infinie (voir 8.6), et produit scalaire hilbertien standard sur Cn (8.3.2). Puis existence de bases orthonormées (Th. 8.3.4), et Th. 8.3.8 (Inégalité de Cauchy-Schwarz et norme hilbertienne). Attention, typos dans 8.3.9: il faut remplacer 14 fois une parenthèse fermante ) par ||2, voir 8.1.4 pour les formules correcte. Puis définitions des isométries entre espaces hilbertiens (8.3.10), Corollaire 8.3.11, puis définition du groupe unitaire U(n) et ses caractérisations équivalentes (8.3.13). Pour terminer, on a traité trois points ne figurant pas dans le poly:
Remarque. Une matrice A dans Mn(R) appartient à U(n) si et seulement si elle est dans le groupe orthogonal O(n).
Remarque. Si A est dans U(n), son déterminant est un nombre complexe de module 1.
Puis description explicite des élements de U(2), et du groupe spécial unitaire SU(2).
Vendredi 13/4/12: Adjoint d'un endomorphisme (8.4.1 à 8.4.4 et en parallèle 6.2.1 à 6.2.3), puis diagonalisation des endomorphismes auto-adjoints et normaux (8.4.5 à 8.4.8). Cas des matrices symétriques réelles (6.2.6 et 6.2.7). Application aux fbs: 6.2.5, Théorème de diagonalisation simultanée 6.2.9 et Corollaire 6.2.11 = calculs de signature, exemple (très classique) 6.2.12. Puis Théorème d'orthonormalisation de Gram-Schmidt 6.3.5. FIN des Chapitres 6 et 8!
Puis Vacances de printemps du 14 au 29 avril. Pas de cours le mardi 1er mai.
Vendredi 4/5/12: Début du Chap. 7: Définition des espaces affines (7.1.3) et exemples: 7.1.1 et plus généralement sous-espaces affines de kn définis par des équations linéaires "avec second membre" (7.2.10), espace affine des suites vérifiant une relation de récurrence linéaire "avec second membre", ou des solutions d'une équation différentielle linéaire "avec second membre". Définition des repères (7.1.6) et théorème de changement de repère (7.1.8). Puis définition d'une application affine et de sa partie linéaire (7.1.9) et écriture d'une application affine dans un repère (7.1.11). Définition et propriétés des translations d'un espace affine (7.1.12 et 7.1.13).
Mercredi 9/5/12 (en remplacement du mardi 8 mai): Composée d'applications affines (7.1.14) et transformations affines d'un espace affine (7.1.15). Puis sous-espaces affines (7.2.6 à 7.2.14) (on ne mentionnera pas les barycentres). Retour sur les repères (7.2.17). Espaces parallèles (7.2.18). Puis projections, symétries, points fixes (parag. 7.3). Définition des espaces affines euclidiens et isométries affines (7.4.1 à 7.4.4) (on ne traitera pas le Th.7.4.5, i.e. les isométries seront supposées affines).
Vendredi 11/5/12: Points fixes d'une application affine (7.3.5), puis Théorème de décomposition canonique d'une isométrie affine (Th. 7.4.9) puis classification des isométries affines de R2 et R3 (7.4.11 et 7.4.12).
Mardi 15/5/12 (dernier cours): Retour sur le Th. 7.4.9, puis illustration de son usage pour déterminer les caractéristiques géométriques d'une rotation affine ou d'une symétrie glissée dans le plan affine euclidien, puis d'une symétrie tournée affine, d'un vissage ou d'une symétrie glissée dans l'espace affine euclidien de dimension 3. FIN DU COURS!.