[FAQ] fr.sci.maths - partie 1/3

medtib@alussinan.org (Mehdi Tibouchi)


Archive-Name: fr/maths/maths-faq

Last modified: 2006-11-11
Version 2.12


          #####################################################
          #                                                   #
          #           FAQ fr.sci.maths (partie 1/3)           #
          #                                                   #
          #####################################################

fr.sci.maths est un groupe de discussion destiné à recueillir les
discussions en français concernant les mathématiques.

Ce document rassemble les questions qui ont été fréquemment posées dans
ce forum.

Remarque sur la notation : le signe de multiplication utilisé ici est
l'astérisque *, comme souvent en informatique.

La version texte de ce document a été divisée en trois parties, afin de
faciliter sa difusion sur les forums francophones.

On trouvera, dans cette partie, les chapitres I et II.

Pour les chapitres III et IV, se referer au document intitulé :
             "[FAQ] fr.sci.maths - partie 2/3".
Pour les chapitre V à VII, se referer au document intitulé :
             "[FAQ] fr.sci.maths - partie 3/3".


Table des matières :

I   Contradictions.
     1. Est-ce que 0,9999... = 1 ?
     2. J'ai réussi à montrer que 2=1.
     3. Zéro puissance zéro égal un (0^0 = 1).

II  Démonstrations.
     1. Le petit théorème de Fermat.
     2. ab et a+b premiers entre eux.
     3. Irrationalité de la racine carrée de 2.
     4. Irrationalité de la racine d'un nombre premier.
     5. Irrationalité de e.
     6. Transcendance de e.
     7. Somme des puissances des premiers entiers.
     8. Les nombres et les polynômes de Bernoulli.
     9. Par combien de zéros le nombre 1998! se termine-t-il ?
    10. Expression par radicaux des racines d'un polynôme de degré n.

-+- Début de la deuxième partie -+-

III Géométrie.
     1. Problème de la chèvre.
     2. Problème (dit) de Napoléon.

IV  Énigmes.
     1. Pièces et balance, traduit par Vincent Lefèvre. 
     2. Les âges du capitaine.
     3. Quel est le nombre qui continue cette suite : 2, 12, 1112,...
     4. Probabilité que 2 personnes soient nées le même jour.
     5. Somme et produit de deux entiers.
     6. Les deux échelles.
     7. La cuve de vin.

-+- Début de la troisième partie -+-

V   Questions fondamentales.
     1. Les nombres premiers.
     2. Pi.
     3. Le grand théorème de Fermat.
     4. La conjecture de Syracuse.
     5. Les cardinaux des ensembles infinis - Partie I.
     6. Les cardinaux des ensembles infinis - Partie II. 
     7. Qu'est-ce que le nombre e ?

VI  Mathématiques et Ordinateur.
     1. Logiciels de mathématiques.
     2. L'algorithme de CORDIC sur les calculatrices.

VII Conclusion.
     1. Références.
     2. Remerciements.
     
========================================================================

Changements intervenus depuis la version précédente :
  - Mises à jour ou suppression des liens morts.
  - Rééquilibrage des trois parties pour tenir dans la limite de 64ko.
  - Révision du paragraphe I.3.
  - Suppression du paragraphe VI.1 de Frédéric Bastok (double-emploi
    avec le document posté chaque quinzaine).
  - Réécriture du paragraphe VI.2 (maintenant VI.1), qui était dépassé
    et étrangement structuré.
  - Autres détails cosmétiques.

Les changements sont précédés du caractère : |

========================================================================

I Contradictions.
  ===============


1. Est-ce que 0,9999... = 1 ?
   --------------------------

On  note  0.9999... (avec les  points de suspension)  pour  désigner  un
« nombre » qui se termine par une  infinité  de  9.

Et donc, est-ce que 0.999... (avec une infinité de  9)  est  égal  à 1 ?
OUI ! Voici  5  arguments pour vous en convaincre.  Les 3 premiers n'ont
absolument  aucune rigueur  et ne peuvent pas être  considérés comme des
démonstrations  mathématiques,  mais  ils  sont  plus  simples  et  plus
convaincants  pour les gens  qui n'ont pas forcément  les  connaissances
mathématiques nécessaires pour accepter les 2 autres.

 a) On part de :
             1/3 = 0,33333...
    On multiplie par 3 des deux côtés :
             3 * 1/3 = 3 * 0,33333...
    Ce qui donne :
             1 = 0,99999...

 b) On pose x = 0,99999...
    On multiplie par 10 des deux côtés : 10 * x = 9,99999...
    On soustrait les deux expressions côté par côté :
       10 * x - x = 9,99999... - 0,99999... = 9,00000...
   Donc 9 * x = 9, c'est-à-dire x = 1, d'où 0,99999... = 1


 c) Un argument très court se déduit du fait suivant :
    "si 2 nombres réels  sont différents, alors il en existe au moins un
     3ème  entre  les  deux,  différent  des  deux  autres".
    (ce  troisième  nombre  peut  être  la  moyenne  entre   les   deux)
    Or, on ne peut pas intercaler de nombre entre 0,99999... et 1 ;  ils
    sont donc égaux.

Pour  les  arguments  plus  rigoureux,  il  faut  commencer  par définir
proprement ce qu'est 0,99999...

En écrivant 0,99999... = 0,9 + 0,09 + 0,009 + ... , on définit 0,9999...
comme une série géométrique  (c'est-à-dire une somme dont  chaque  terme
est  égal  au  précédent  multiplié  par  une  constante,   ici   1/10 -
on dit que c'est une série géométrique de  raison 1/10),  et  on  écrit:
(inf. signifie "infini")
                           n
                          ___ 
                          \     9
     0,99999... := lim     )   ---
                  n->inf. /__    i
                          i=1  10

 d) On peut facilement montrer que la somme des n premiers termes d'une
    série géométrique de raison q et de premier terme a vaut :
                        n
                   1 - q
          S = a * -------
           n       1 - q

    Cette somme tend vers une limite pour n tendant vers l'infini si  et
    seulement si q est strictement plus petit que 1, et cette limite est
    alors :

                a
          S = -----
              1 - q

    Ici, a=0,9, q=1/10, ce qui est plus petit que 1, donc

                 0,9           10
          S = -------- = 0,9 * --  = 1
              1 - 1/10          9

    Donc 0,99999...=1

 e) L'argument le plus direct est de vérifier directement, à  partir  de
    la définition de la limite, que 1 est la limite pour n tendant  vers
    l'infini de la série

            n
           ___    9
           \     ---
      S =  /__     i
       n   i=1   10


    Cela signifie qu'à condition de prendre suffisamment de  termes dans
    la série, on peut s'approcher  d'aussi  près  de  1  que  l'on  veut
    (c'est-à-dire rendre la différence | 1 - S_n | aussi petite que l'on
    veut).

    Mathématiquement, cette définition de limite s'écrit :
    (eps signifiant "epsilon")

       Quel que soit eps, il existe n_0 tel que pour tout n>n_0,
       on a |1 - S_n | < eps

    En calculant

     |       n        |
     |      ___    9  |     1
     |      \     --- | = -----
     | 1 -  /__     i |     n+1
     |      i=1   10  |   10

    on voit facilement que si n  (nombre  de  termes)  est  suffisamment
    grand, alors notre somme peut s'approcher d'aussi près que l'on veut
    de  1, puisque leur différence, 1/(10^(n+1)) devient de plus en plus
    petite quand n augmente.

    Pour être plus précis, si on se donne eps,  la  différence  maximale
    que l'on s'autorise, alors il suffit de  prendre:
    (log représentant le logarithme en base 10)

       n_0 > - log(eps) - 1

    Si n > n_0, on aura alors :

     |       n        |
     |      ___    9  |     1
     |      \     --- | = -----   < eps
     | 1 -  /__     i |     n+1
     |      i=1   10  |   10

    la condition est respectée, donc la limite vaut 1, et 0,99999...=1



2. J'ai réussi à montrer que 2=1.
   ------------------------------

Deux petites démonstrations, fausses, bien  entendu,  mais  qui  peuvent
induire   en   erreur.   N'oublions   pas   le   vieil    adage   latin:

|                     « ex falso, quodlibet »
      (de quelque chose de faux, on peut trouver n'importe quoi)

 a) Par la dérivée.
    Soit x appartenant à R*
    On a la relation: x^2 = x + x + x +...+ x , x fois.
    On dérive: 2 * x= 1 + 1 + 1 + 1 +...+ 1 , x fois.
    C'est-à-dire : 2*x = x. Et comme x<>0, on obtient 2=1.

    L'erreur vient de la définition de la dérivée.
    "x^2 = x + x + x + ... + x, x fois" n'a de sens que si x est entier.
    Or, pour dériver en un  point,  il  faut  considérer  un   voisinage
    de ce point   (grosso-modo un intervalle ouvert contenant ce  point)
    qui, forcément, sera loin de ne contenir que des entiers.

    Par exemple, si on essaye d'appliquer cela en x = 3 :
    -- Il est exact que 3^2 = 3 + 3 + 3.
    -- Par contre, pour x proche de trois mais x différent de 3,
       x^2 est différent de 3 * x
    -- la dérivée en x d'une fonction ne dépend pas de la  valeur  de la
       fonction en x mais de son comportement local et  le  comportement
       de x^2 en 3 est très différent de celui de 3 * x.

    De plus, si tu dérives x+..+x (x fois), tu ne  différencies  pas  le
    'x fois', que tu considères donc comme une constante.
    Quand j'étais au lycée on m'avait posé ce problème et j'avais trouvé
    un moyen (tordu et absurde) de retomber sur ses pattes, en  ajoutant
    "x+..+x ('dérivée de x' fois)",  comme  ça  on  a  aussi  dérivé  le
    'x fois'.

 b) Grâce aux polynômes.
    Supposons que a et b soient des nombres réels non nuls tels que a=b.
    Alors a^2=ab (on multiplie par a des deux côtés)
    D'où a^2-b^2 = ab - b^2 (on soustrait b^2 des deux côtés)
    D'où (a-b)(a+b)=b(a-b) (on met en évidence a-b)
    D'où a+b=b (on simplifie par a-b)
    D'où 2b=b (puisque a=b)
    D'où 2=1 (puisque b est non nul)

    Ici, l'erreur vient de la simplification  par  (a-b)  qui  est  nul.
    On a divisé par zéro, ce  qui  est  impossible.  Bien  souvent,  ces
    démonstrations trouvent leur erreur dans une division par zéro.

c) En utilisant les puissances.
   -1=(-1)^1=(-1)^(1/1)=(-1)^(2/2)=((-1)^2)^(1/2)=1^(1/2)=1

   L'erreur  vient du fait  que l'on néglige,  ici,  la définition de la
   puissance.  En effet, on ne peut pas écrire a^q pour q rationnel et a
   réel négatif.

   Plus  précisément,  on peut  expliquer  le phénomène  de  la  manière
   suivante.
  Définition 1:
   Dans un ensemble stable par la loi multiplicative  (pour être le plus
   général possible),  on note  (pour un élément a de l'ensemble et pour
   b entier naturel non nul)   a^b  pour désigner a multiplié b fois par
   lui-même .
  Définition 2:
   Dans le cas ou on l'on veut mettre un rationnel en exposant,  il faut
   utiliser la définition de la puissance par l'exponentielle :
   pour a réel strictement positif et b réel, a^b=exp(b*ln(a)).

    On a en fait le droit d'écrire  (-1)^(2/2).  Mais pas  d'utiliser la
    loi a^(b*d)=(a^b)^d, car pour utiliser cette loi de composition,  il
    faut,  du fait que d est ici rationnel,   prendre la définition avec
    l'exponentielle, qui interdit à a d'être négatif.

    On a bien la loi de composition a^(b*d)=(a^b)^d pour la définition 1
    et la définition 2, mais on peut l'appliquer (pour a, b et d réels):
    -- Selon la définition 1, seulement si b et d entiers naturels
    -- Selon la définition 2, seulement si a est strictement positif.



3. Zéro puissance zéro égal un (0^0 = 1).
   --------------------------------------

| Les mathématiciens posent systématiquement que zéro à la puissance zéro
| est égal à un (0^0=1). Il arrive que cette convention intrigue certains
| non-mathématiciens, notamment à cause d'une confusion au sujet de
| l'expression « forme indéterminée » que l'on trouve parfois dans les
| ouvrages de lycée.
| 
| En effet, rappelons que pour x et y réels, x > 0, l'expression x^y
| désigne le réel exp[y ln(x)]. Alors la fonction de deux variables
| (x,y)->x^y n'a pas de limite au point (0,0) : suivant la direction selon
| laquelle on tend vers (0,0), on peut obtenir des limites différentes, ou
| éventuellement pas de limite du tout. En particulier, si f et g sont deux
| fonctions continues sur R ayant pour limite 0 en +infty, disons, avec
| f>0, on ne peut pas calculer la limite :
| 
|     lim    f(x)^g(x)
|  x->+infty
| 
| sans information supplémentaire sur le comportement asymptotique de f et
| g. Par exemple, si A est un réel positif quelconque et qu'on choisit
| f(x) = exp(-Ax) et g(x) = 1/x, la limite précédente vaut exp(-A).
| C'est en ce sens que l'on dit parfois, de manière assez malheureuse,
| que « 0^0 est une forme indéterminée ».
| 
| Ce problème d'analyse n'a pas vraiment de rapport avec la question de
| savoir ce que vaut 0^0 à proprement parler. On pourrait naïvement
| souhaiter choisir une définition qui prolongerait par continuité la
| fonction (x,y)->x^y, mais précisément, un tel prolongement n'existe pas.
| Cela n'a rien de particulièrement choquant une fois qu'on s'est départi
| de l'idée que toutes les fonctions devraient être continues, et c'est une
| question par ailleurs relativement anecdotique.
| 
| Il y a en revanche des raisons de notation considérablement plus
| importantes pour lesquelles on doit définir 0^0 comme égal à 1. Par
| exemple, on veut pouvoir écrire un polynôme a_n x^n + ··· + a_1 x + a_0
| sous la forme condensée :
| 
|    \sum_{k=0}^n a_k x^k
| 
| et ce n'est vrai que dans la mesure où « a_0 x^0 » désigne bien la même
| chose que le monôme constant a_0. De même, on souhaite que la formule du
| binôme puisse s'écrire sous la forme :
| 
|    (a + b)^n = \sum_{k=0}^n C_n^k a^k b^{n-k}
| 
| même quand a ou b vaut 0. Tout autre définition de 0^0 imposerait des
| restrictions déraisonnables à ces expressions très importantes.
| 
| Un autre argument qu'on peut avance, d'importance peut-être plus modeste,
| relève du dénombrement. On voudrait que le résultat suivant soit
| vérifié :
| 
|   Théorème. Pour tous entiers naturels m et n, il existe exactement n^m
|   applications d'un ensemble à m éléments dans un ensemble à n éléments.
| 
| C'est certainement vrai pour m et n non nuls. Et par ailleurs, pour tout
| ensemble X, il existe une unique application de l'ensemble vide dans X
| (c'est en particulier le cas lorsque X est lui même l'ensemble vide,
| auquel cas l'application en question est l'identité), et si X est non
| vide, il n'existe aucune application de X dans l'ensemble vide. C'est
| cohérent avec le fait que pour tout entier naturel n :
| 
|    n^0 = 1 dans tous les cas, et 0^n = 0 si n n'est pas nul.
| 
| Raison supplémentaire, donc, pour vouloir que 0^0 égale 1. Comme il
| n'existe par ailleurs pas de situation notable où une autre convention
| pourrait avoir un intérêt, c'est le choix universellement adopté.
| 
| On pourra trouver une discussion alternative, notamment historique, de la
| question sur la FAQ du forum anglophone <news:sci.math>, à l'adresse :
| 
|    http://www.faqs.org/faqs/sci-math-faq/specialnumbers/0to0/

========================================================================


II Démonstrations.
   ===============


1. Le petit théorème de Fermat.
   ----------------------------

Enoncé :
Si p est un nombre premier, et x  un  entier  quelconque  non  divisible
par p, alors le reste de la division de x^(p-1) par p est égal à 1.

Par exemple, si on prend p = 1999 qui est premier, et x = 1665, année de
la mort de Fermat, qui n'est pas divisible par 1999, alors  le  théorème
dit que le reste de la division de 1665^1998 par  1999  est  égal  à  1.

Ce théorème a sans aucun doute été démontré par Fermat.  (Il  me  semble
qu'on n'a pas retrouvé la démonstration  de  Fermat,  mais  Euler  en  a
publié une dès le XVIIIe siècle).


 a) Soient donc p un nombre premier et x un entier non divisible par p.
    Modulo p, (x*1,x*2,...,x*(p-1)) est une permutation de (1,2...,p-1).
    parce que x est inversible modulo p, car car il est premier avec p.
    On a donc, modulo p,
    (x*1)*(x*2)*(x*3)...*(x*(p-1)) = 1 * 2 * 3 * ... * (p-1)
    C'est à dire (p-1)! * x^(p-1) = (p-1)!
    Mais, comme p est premier, (p-1)! est inversible modulo p.
    On obtient donc finalement
    x^(p-1) = 1 modulo p.

 b) Soit p un nombre premier.
    Si 0 < k < p, comb(p,k) = p!/(k!*(p-k)!) est multiple de p.
    Ainsi, le binôme de Newton donne tout de suite :
    (1 + a)^p = 1 + a^p  modulo p.
    Sommons pour a variant de 0 à x-1.  Les termes se détruisant deux  à
    deux, il reste seulement : x^p = x modulo p.

    Si x n'est pas multiple de p, cela équivaut à x^(p-1) = 1 modulo p.



2. ab et a+b premiers entre eux.
   -----------------------------

Enoncé:
Soient a et b deux nombres entiers relatifs tels qu'ils soient  premiers
entre eux. Le problème est de  montrer  que  ab  et  a+b  sont  premiers
entre eux.

 a) Pour cette démonstration il  faut  connaître  le  lemme  d'Euclide :
    Soit p un nombre premier, et a, b  deux  nombres  entiers  relatifs.
    Si p divise ab, alors p divise soit a soit b.

    Soit p un nombre premier tel qu'il divise ab et a+b.
    p divise ab, donc par le lemme d'Euclide, p divise soit a, soit b.
    Supposons que p divise a, alors on a:
    p divise a et p divise (a+b) donc p divise (a+b) - a = b.
    Donc p divise a et p divise b. Or deux  nombres  premiers  entre eux
    n'ont pas de facteurs premiers communs. Comme a et b  sont  premiers
    entre eux, il vient que ab et a+b sont premiers entre eux.

 b) Voici une autre démonstration qui n'utilise pas les  propriétés  des
    nombres  premiers,  mais  uniquement   la   relation   de   Bézout :
    a et b sont premiers entre eux, ssi il existe deux  nombres  entiers
    relatifs u et v tels que au + bv = 1.

 -- Lemme 1 : Si a et b sont premiers entre eux, alors a+b  est  premier
    avec a et avec b.
    De au + bv = 1, on déduit a(u-v) + (a+b)v = 1, donc a  et  a+b  sont
    premiers entre eux. De même pour b et a+b.
 -- Lemme 2 : Si a est premier avec b et avec c,  alors  a  est  premier
    avec bc.
    De au + bv = 1, on déduit acu + bcv = c. Donc il existe deux nombres
    entiers U=cu et V=v tels que  (a)U + (bc)V = c  donc  tout  diviseur
    commun de a et bc divise c, donc divise pgcd(a,c)=1.
 -- Conclusion :  Soient  a  et  b  premiers  entre eux ;   alors,   par
    le lemme 1, a+b est premier avec a et avec b, donc, par le lemme  2,
    a+b est premier avec ab.

 c) En partant de la relation de Bézout, comme  a  et  b  sont  premiers
    entre eux, il existe u et v deux nombres entiers relatifs  tels  que
    au + bv = 1 donc
    1 = 1² = (au+bv)² = (au)² + 2abuv +(bv)²
      = (au)² + abv² + abu² +(bv)²- abv² + 2abuv - abu²
      = (a+b)(au² + bv²) - ab(u-v)²
    Or (au² + bv²) et (u-v)²  sont des nombres  entiers  relatifs,  donc
    par la relation  de  Bézout,  on  en  déduit  que  a+b  et  ab  sont
    premiers entre eux.


3. Irrationalité de la racine carrée de 2.
   ---------------------------------------

La racine carrée de 2 est  le  premier  exemple  de  nombre  irrationnel
qu'aient rencontré les mathématiciens. Il est connu  depuis  l'Antiquité
grecque et cette découverte a suscité à l'époque beaucoup de perplexité.
Une preuve de ce résultat procède par l'absurde. Il semble que  ce  soit
le premier exemple de raisonnement par  l'absurde  dans  l'histoire  des
mathématiques.


Avant d'aborder la preuve proprement dite, nous devons établir ce  petit
résultat intermédiaire :
   Soit n un nombre entier. n est pair si et seulement si n^2  est  pair
   et  n   est   impair   si   et   seulement   si   n^2   est   impair.
   (Le  lecteur  familier  des  calculs  modulo,  reconnaîtra   un   cas
   particulier du petit théorème de Fermat : n^2 = n [mod 2].)

Preuve :
   Si n est pair, par définition, il existe un entier k tel que  n = 2k.
   On a alors n^2=4k^2 soit n^2=2*(2k^2). Ceci montre  que  n^2  est  un
   nombre pair.
   Si n est impair, il  existe  un  entier  k  tel  que  n=2k+1.  Alors,
   n^2=(2k+1)^2=4k^2+4k+1 et n^2=2(2k^2+2k)+1, ce qui montre que n^2 est
   impair.

Munis de ce résultat, nous pouvons prouver l'irrationalité  de  sqrt(2).

Nous souhaitons raisonner par l'absurde, c'est-à-dire que nous supposons
que sqrt(2) est rationnel.  Nous  allons  montrer  que  cette  hypothèse
conduit à une contradiction. Nous en déduirons donc que l'hypothèse  est
fausse, c'est-à-dire que sqrt(2) est irrationnel.

Si sqrt(2) est rationnel, on peut donc écrire sqrt(2)=m/n où m et n sont
deux nombres entiers strictement positifs. Nous pouvons supposer de plus
que l'écriture m/n est la forme irréductible de cette fraction, c'est-à-
dire que m et n n'ont pas de diviseurs communs. En  particulier,  m et n
ne sont pas simultanément pairs.

Élevons au carré l'égalité sqrt(2)=m/n. Il  vient  2=m^2/n^2  ou  encore
m^2=2n^2. Ainsi, m^2 est un nombre pair. Or, nous avons vu qu'un  nombre
et son carré ont toujours la même parité. Il s'ensuit que m est lui-même
un nombre pair. Nous pouvons donc poser  m=2m'.

Notre égalité devient alors 4m'^2=2n^2 ou encore 2m'^2=n^2. n^2 est donc
un nombre pair. Comme plus haut, nous en déduisons que  n  est  lui-même
un nombre pair.

m et n sont donc simultanément pairs, ce qui est contradictoire avec nos
hypothèses. Il s'ensuit  que  la  racine  carrée  de  2  est  un  nombre
irrationnel.


4. Irrationalité de la racine d'un nombre premier.
   -----------------------------------------------

Sachant  que  la  racine  carrée  de  2  est  irrationnelle,   on   peut
s'interroger sur la racine cubique de 2, la racine  carrée  de  3,  d'un
nombre premier quelconque.

Chacun de ces nombres est en fait  irrationnel,  mais  pour  établir  un
résultat relativement  général  sur  ces  questions,  il  est  utile  de
recourir à  des  outils  un  peu  plus  élaborés  que  dans  la  section
précédente : la décomposition  factorielle  d'un  nombre  entier  et  la
valuation p-adique sur les entiers.

On rappelle que pour tout nombre premier p la  valuation  p-adique  d'un
entier x est le nombre noté v_p(x) défini comme  le  plus  grand  entier
naturel a tel que p^a divise x. C'est aussi  l'exposant  de  p  dans  la
décomposition de x, en facteurs premiers.

On voit facilement que la valuation p-adique  possède  la  propriété  de
morphisme suivante : v_p(x*y) = v_p(x)+v_p(y), pour tous entiers x et y,
et donc aussi v_p(x^a) = a*v_p(x) pour a entier positif.

Une généralisation du problème de l'irrationalité de la racine carrée de
2 peut se formuler comme suit :

Soit a un nombre entier strictement  positif.  A  quelle  condition  sur
l'entier positif x  le  nombre  x^(1/a)  (racine  a-ième  de  x)  est-il
rationnel ?

Posons x^(1/a)=m/n. Il vient m^a=x*n^a. Pour tout nombre premier p, on a
donc v_p(m^a) = v_p(x*n^a) et donc a*v_p(m) = v_p(x)+a*v_p(n) ou  encore
v_p(x) = a*(v_p(m)-v_p(n)). v_p(x) est ainsi un multiple de a  quel  que
soit le nombre premier p. Il s'ensuit que x est  lui-même  la  puissance
a-ième d'un entier.

Il est par ailleurs évident que la racine a-ième  d'un  nombre  qui  est
puissance a-ième d'un entier est rationnelle. On  peut  donc  affirmer :

x^(1/a) est un nombre rationnel si et seulement si x  est  la  puissance
a-ième d'un entier.

Ainsi, en particulier, les nombres entiers dont  la  racine  carrée  est
rationnelle sont les carrés d'entiers.


5. Irrationalité de e.
   -------------------

L'irrationalité de e fut prouvée dès  1737  par  Euler,  toujours  lui !
(voir la remarque 2, ci-après), de la façon suivante.

e = série, pour k variant de 0 à l'infini, de 1/k!

Donc, une première évidence :  la  somme  partielle  (appelons-la  S_n),
pour k variant de 0 à n de cette série est strictement inférieure à e.

Ensuite, on majore la "queue" de la série (k variant de n+1 à l'infini),
en  y  remplaçant  chaque  1/k!  =  (1/n!) * 1/((n+1)*(n+2)*(n+3)*...*k)
par (1/n!)* 1/(n+1)^k.
Cela donne une "bête" série géométrique dont la  somme  vaut  finalement
1/(n!*n).

Résumons : S_n < e < S_n + 1(n!*n)

(N.B. ceux qui ont quelque idée de l'approximation  rationnelle  savent
déjà que c'est gagné : voir la remarque 1 ci-après).

On peut écrire cela comme e = S_n + r(n)/(n!*n), avec r(n)  dans  ]0,1[.

Supposons maintenant que  e  soit  rationnel,  et  soit  alors  a/b  son
écriture canonique.

Dans ce qui précède, en choisissant le cas particulier n = b, on obtient
donc :

a/b = S_b + r(b)/(b!*b), avec toujours r(b) dans ]0,1[.

Multiplions par b!.  On trouve

(b-1)! * a = (somme, pour k variant de 0 à b, de b!/k!) + r(b)/b.

C'est absurde, parce que le premier membre est entier, le premier  terme
du second membre l'est aussi (somme de termes tous évidemment  entiers),
tandis que le "terme d'erreur" r(b)/b ne l'est pas.


Remarque 1.
   On sait (c'est d'ailleurs quasi évident) qu'un rationnel alpha  n'est
   jamais approchable par une suite (illimitée) de rationnels  s/t  avec
   une "vitesse" v supérieure à 1.
   (je veux dire par  là : |alpha - s/t| < constante/t^v,  avec  v > 1).

   L'encadrement obtenu par Euler était donc bien entendu trop minuscule
   pour " être honnête ", c'est à dire pour cerner un rationnel.

   Généralisation : Liouville a montré en 1844 qu'un  nombre  algébrique
   d'ordre d n'est pas approchable à une vitesse strictement  supérieure
   à d.

   Il s'est servi de ce résultat  (de  démonstration  élémentaire)  pour
   construire effectivement une infinité (non  dénombrable)  de  nombres
   transcendants.
   Exemple : somme, pour k variant de 0 à l'infini, de 1/10^(k!).

   Roth a mis un point final  à  cette  histoire  en  prouvant  qu'aucun
   nombre algébrique de degré > 1 (c-à-d irrationnel) n'est  approchable
   à un ordre strictement supérieur ***à 2***.

   Comme par ailleurs les réduites  de  la  fraction  continue  pour  ce
   nombre (leur suite est illimitée, puisqu'il s'agit d'un  irrationnel)
   l'approchent précisément  à  l'ordre  2,  ce  théorème  est  optimal.
   Il a valu à Roth l'une des médailles Fields de 1955.

Remarque 2.
   Une  réclame  de  la  Mathematical  Association  of  America  annonce
   la parution du livre " Euler, the Master of us all ".  (ce titre  est
   une citation de Laplace).  Le livre est  écrit  par  William  Dunham,
   dans la série " Dolciani Mathematical Expositions ", bien  connue  de
   tous les familiers de la MAA.


6. Transcendance de e
   ------------------

La transcendance de e fut prouvée par Charles Hermite en 1873 (Lindemann
devait  suivre  avec  pi  en  1882,  seulement).   C'est  beaucoup  plus
difficile et horrible à écrire ici. Je résume donc brutalement.

Soit f(t) un polynôme (quelconque pour l'instant) et F(t)  la  somme  de
toutes ses dérivées successives.

En intégrant par parties, on prouve  d'abord  (c'est  très  facile)  que

exp(x) * (intégrale, de 0 à x, de exp(-t) * f(t)) =
- F(x) + exp(x) * F(0).

On  suppose  ensuite  que  e  satisfait  à   l'équation   algébrique   à
coefficients entiers : somme, pour k variant de 0 à n, de a_k * exp(k)=0

(Ce n'est évidemment pas une restriction que de supposer  a_0  non nul).

L'identité générale précédente donne alors :

somme, pour k variant de 0 à n,
de a_k * exp(k) * (intégrale, de 0 à k, de exp(-t) * f(t)) =

- somme, pour k variant de 0 à n, de a_k * F(k).  (1)

Ici, coup de génie de Hermite : il choisit maintenant le polynôme

f(t) = (t^(p-1))/(p-1)!) * produit pour j variant de 1 à n, de (j-t)^p,

où p est un nombre premier supérieur à n et à |a_0|.

(C'est possible, puisqu'il existe une infinité de nombres premiers)

Il démontre ensuite que le second  membre  de  (1)  est  un  entier  non
multiple de p (c'est élémentaire, mais subtil), donc non  nul,  donc  de
valeur absolue valant au moins  1  (astuce classique en arithmétique !).

Par ailleurs, le premier membre de (1) -> 0 lorsque p -> +oo,  selon  la
suite  des  nombres  premiers  (par  des  majorations  fort   brutales).

C'est la contradiction cherchée.


7. Somme des puissances des premiers entiers.
   ------------------------------------------

On  cherche  à  connaître  la  valeur  de  la  somme  de i=0 à n  de i^k
en fonction de n.

k=1.
    La formule est due à Léonard Euler. Il suffit d'écrire:
    S =  1  +  2  +...+(n-1)+ n
    S =  n  +(n-1)+...+  2  + 1    et en additionnant:
    2S=(n+1)+(n+1)+...+(n+1)+(n+1)  c'est-à-dire
    S = n(n+1)/2

k>1.

    Il faut alors définir les nombres de Bernoulli, que l'on notera B_t.
    On peut les définir comme suit:
     les B_t sont les nombres de Bernoulli définis (par exemple) par
     la série génératrice :

  +oo
 -----      t
 \         x        x
  )    B_t -  = ----------
 /         t!   exp(x) - 1
 -----
 t = 0

Alors on peut écrire:
   n             k
 -----         -----
 \     k    1  \          t        (k+1-t)
  )   i  = ---  )    B_i C    (n+1)
 /         k+1 /          k+1
 -----         -----
 i = 1         i = 0

Remarque.
    Les C(t, k+1) représentent les  coefficients  du  binôme  de
Newton,
    c'est-à-dire le nombre de combinaisons de t  éléments  d'un
ensemble
    à k+1 éléments.

    La définition des  nombres  de  Bernoulli  n'est  pas  tout  à  fait
    standardisée : il  y  traîne  chez  certains  auteurs  des  facteurs
    (-1)^t; chez d'autres les indices t deviennent t/2, et  j'en  passe.
    Il convient donc de toujours bien regarder  la  définition  adoptée.

    Avec celle-ci, on a :
      B_0 = 1, B_1 = -1/2, B_2 = 1/6, B_4 = -1/30, B_6 = 1/42,
      B_8 = -1/30, B_10 = 5/66, B_12 = -691/2730, B_14 = 7/6,...
      et B_3 = B_5 = B_7 = ... = 0.
    On connaît bien sûr des techniques de calcul rapide des  nombres  de
    Bernoulli, la plupart récurrentes.

A propos de formules explicites pour calculer rapidement ces nombres, on
dispose tout de même du  théorème de  von Staudt - Clausen  qui  dit que
B_(2k) + la somme des 1/p,  étendue  aux  nombre  premiers  p  tels  que
(p-1) divise (2*k) est un entier.

Sachant par ailleurs que, pour k > 0,
B_(2k) = (-1)^(k-1) * 2 * (2*k)! * zeta(2*k)/(2*pi)^(2*k),
zeta étant bien sûr la fonction de Riemann,

on peut programmer le problème par un procédé hybride sans  utiliser  de
récurrence  (d'abord  approcher,   en  multi-précision,   puis   obtenir
la valeur rationnelle exacte grâce à von Staudt).

On a alors comme valeurs pour k variant de 2 à 9 (inclus):

   n
 -----
 \     2
  )   i  = 1/6 n (n + 1) (2 n + 1)
 /
 -----
 i = 1

   n
 -----
 \     3        2        2
  )   i  = 1/4 n  (n + 1)
 /
 -----
 i = 1

   n
 -----
 \     4                                2
  )   i  = 1/30 n (2 n + 1) (n + 1) (3 n  + 3 n - 1)
 /
 -----
 i = 1

   n
 -----
 \     5         2     2                   2
  )   i  = 1/12 n  (2 n  + 2 n - 1) (n + 1)
 /
 -----
 i = 1

   n
 -----
 \     6                                4      3
  )   i  = 1/42 n (2 n + 1) (n + 1) (3 n  + 6 n  - 3 n + 1)
 /
 -----
 i = 1

   n
 -----
 \     7         2     4      3    2                   2
  )   i  = 1/24 n  (3 n  + 6 n  - n  - 4 n + 2) (n + 1)
 /
 -----
 i = 1

   n
 -----
 \     8                              6      5     4      3   2
  )   i  = 1/90 n (2 n + 1)(n + 1)(5 n  +15 n  +5 n - 15 n  -n + 9 n- 3)
 /
 -----
 i = 1

   n
 -----
 \     9         2   2              4      3    2                   2
  )   i  = 1/20 n  (n  + n - 1) (2 n  + 4 n  - n  - 3 n + 3) (n + 1)
 /
 -----
 i = 1

On peut également dévélopper une approche algébrique assez détaillée.

On montre dans un premier temps que cette  somme  S(r,n)  peut  s'écrire
somme des H(r,i)*n^(i+1) pour i variant de 0 à r.

Le fait qu'un tel polynôme existe  découle  de  l'observation  suivante:
Dans le  sous  espace  vectoriel  des  polynômes  de  degrés  inférieurs
ou égaux à r, les u_i (i variant de 0 à r) définis par :
                      u_i = (1+X)^(i+1) - X^(i+1)
constituent une base.

Si l'on nomme (H(r,i) ; i=0,...,r) le système des coordonnées de (1+X)^r
on retrouve que la somme des H(r,i)*n^(i+1) est égale à la somme des p^r
pour p variant de 1 à n.

L'utilisation  de  cette  base  permet  de  déduire   que   les   H(r,i)
sont solution du système M*v=w.

où
     ( C(x,y) désignant le coefficient binômial bien connu...)

 * M est la matrice triangulaire supérieure dont le terme

   m(l,c) vaut C(c,l-1)   pour   c entre 1 et r+1
                                 l entre 1 et c

   par exemple dans le cas r=2, la matrice est :

          C(1,0)  C(2,0)  C(3,0)

            0     C(2,1)  C(3,1)

            0        0    C(3,2)

 * v est le vecteur dont les composantes sont H(r,0) à H(r,r)

 * w est le vecteur dont les composantes sont C(r,0) à C(r,r).

Le pivot de Gauss donne rapidement les premières valeurs:
H(r,r)   = 1/(r+1)
H(r,r-1) = 1/2        (constant... c'est marrant)
H(r,r-2) = r/12
H(r,r-3) = 0
H(r,r-4) = C(r,3)/120
H(r,r-5) = 0
H(r,r-6) = C(r,5)/252
H(r,r-7) = 0

il  y  a  là  de  quoi  traiter  rapidement  jusqu'au  cas  r=7  mais...
En   dérivant   l'égalité   polynômiale    somme   des   u_i  =  (1+X)^r
on trouve H(r,i) = [r/(i+1)]*H(r-1,i-1)

on en déduit  H(r,i) = [C(r,i)/(i+1)]*H(r-i,0).

Cette relation limite les recherches aux H(k,0) mais,  dans  le  système
initial,  c'est  celui  que  le  pivot  de  Gauss  donne  en  dernier...

La relation donnant H(r,i) en fonction de H(r,i+1),...,H(r,r) devient

H(r,0) = 1 - somme_des{ [C(r+1,j)/(r+1)]*H(j,0) ; j variant de 0 à r-1 }
et l'on a H(0,0) =1.

Cette dernière relation permet de programmer rapidement  le  calcul  des
coefficients dans les cas où r est assez grand...

Par ailleurs, on a remarqué qu'il y avait pas mal de 0...
En fait, on a : pour tout k : H(2k+3,0)=0.

Cela peut se montrer de plusieurs façons...

   l'égalité polynômiale avec X=1 puis X=-1 donne :

   somme des H(k,k-j) ; j pair entre 0 et k
                  est égale à
   somme des H(k,k-j) ; j impair entre 0 et k
                  est égale à
                  1/2

   en  bricolant  un  peu   avec  les  termes  connus  on   trouve   que
   somme_des { C(k+1,j)*H(j,0) ; j impair  entre 3 et k }   est   nulle.
   cette égalité est valable pour tout k (au moins 3...)  et  l'on  sait
   que H(3,0) est nul ... donc, de proche en proche...



8. Les nombres et les polynômes de Bernoulli.
   ------------------------------------------

Cet article fournit des informations sur les nombres de Bernouilli ainsi
que  quelques  considérations  sur  les  polynômes  attribués  au   même
mathématicien. Les démonstrations ne sont pas réellement faites mais des
pistes sont fournies.

Les polynômes de Bernoulli  jouent  un  rôle  central  dans  la  formule
d'Euler-Mac Laurin qui a de nombreuses applications en analyse numérique
(accélération de la convergence de certaines séries numériques,
  intégration numérique... entre autres)

Je conseille à ceux qui veulent s'y plonger de le faire avec une feuille
de papier pour noter les choses au fur et à mesure...
... après avoir imprimé l'ensemble.

En effet le format texte constitue vite un frein à  la  compréhension...

    Habituellement on définit les polynômes de Bernoulli B_n par
    B_0(X) = 1
    B_n(1) = B_n(0) pour n au moins égal à 2.
    B_(n+1) a pour dérivé B_n
    et l'on pose alors b_n = B_n(0)

    On prouve facilement que B_n est ainsi parfaitement défini...
    Les nombres de Bernoulli  sont les i! * b_i

    Notons que des définitions variantes existent.

On en déduit les propriétés suivantes :
   1. B_n(X) = Somme{ b_(n-j) * (X^j)/j! ; j de 0 à n}
   2. Pour tout n et tout X : B_n(1-X) = [(-1)^n]*B_n(X)
   3. Pour tout p>0, tout n, tout X
        B_n(X) = [p^(n-1)]*somme{ B_n( (x+j)/p) ) ; j de 0 à p-1 }

   4. B_(n+1) (X+1) - B_(n+1) (X) = (X^n)/n!
   5. 1^n + 2^n + ... . M^n = n! * [ B_(n+1) (m+1) - B_(n+1) (0) ]

Preuves:
   1.  Taylor pour les polynômes...
   2. et 3.  On veut que B_n soit égal à un certain polynôme...
             On montre que ce polynôme vérifie la "définition" de B_n...
   4. Par récurrence...
   5. avec 4.

Les premiers nombres de Bernoulli sont
   1 ; -1/2 ; 1/6 ; 0 ; -1/30 ; 0 ; 1/42 ; ...

   De B_n(1) = B_n(0) on déduit
   b_n = - somme{ b_(n-j) / (j+1)!  ; j de 1 à n }

   Égalité qui permet de trouver une  formule  de  récurrence  pour  les
   nombres de Bernoulli.


9. Par combien de zéros le nombre 1998! se termine-t-il ?
   ------------------------------------------------------

 a) Le problème
Répondre à cette question  n'est pas en soi très  difficile,  il  s'agit
juste de bien poser le problème. On souhaite en fait mettre  en  facteur
dans le produit 1 x 2 x ... x 1998  la plus grande puissance entière  de
10 possible.

On obtient alors une expression du type k x 10^n, où n est le plus grand
entier tel que k soit lui aussi un entier.


 b) L'idée de la résolution
Il s'agit donc de compter le nombre  de  10  que  l'on  peut  mettre  en
facteurs. Compter tous les 10 serait assez fastidieux : essayons de nous
ramener à un "comptage" de nombres premiers.
On remarque que 10 = 5 x 2.
2 a d'autres multiples inférieurs à 10 (4, 6 et 8),  ce  qui  n'est  pas
le cas de  5.  On  comptera  donc  le  nombre  de  5  présents  dans  la
décomposition de 1998! en produit de nombres premiers, puisque 1998! a
plus de facteurs 2 que de facteurs 5.

 c) Solution
Isolons les facteurs 5 dans 1*2*3*4*...*1998.
On cherche les multiples de 5 dans {2,3,...,1998}: il y en a E(1998/5).
Aussi 1998! = 5^E(1998/5) * reste.
Dans le reste, il y a encore des facteurs 5, qui proviennent des
multiples de 25 dans {2,3,...,1998}: il y en a E(1998/25).
Donc 1998! = 5^(E(1998/5)+ E(1998/25)) * reste2
De même, il y a E(1998/125) multiples de 5^3, E(1998/625) multiples
de 5^4 et 0 de 5^5.

En clair, l'exposant N du nombre 5 dans le produit de  nombres  premiers
égal à 1998! est donné par la relation :
N = E(1998/5) + E(1998/25) + E(1998/125) + E(1998/625)

Or, on a :
E(1998/5)=399
E(1998/25)=79
E(1998/125)=15
E(1998/625)=3

Donc N vaut :
N = 399 + 79 + 15 + 3 = 496

On avait montré précédemment que  N  était  égal  au  nombre  de  zéros.

         Le nombre 1998! se termine donc par 496 zéros.


Le début  de  la  décomposition  de  1998!  obtenue  avec  un   logiciel
mathématique est la suivante :
(2)^1990 x (3)^996 x (5)^496 x (7)^330 x (11)^198 x (13)^164 x ...

Ce résultat confirme notre conclusion.

On peut donc, à  partir  de  quelques  considérations  de  dénombrement,
déterminer avec une étonnante simplicité le nombre de zéros  par  lequel
se termine tout nombre défini  à  partir  d'une  factorielle,  bien  que
la forme a! soit d'autant moins explicite que le nombre a  est  grand  !

Le lecteur soucieux de vérifier par lui-même comment s'opère  en  détail
cette décomposition pourra par exemple écrire un algorithme  permettant,
à partir d'un nombre n donné, de  dénombrer  les  zéros  terminant  n! .


10. Expression par radicaux des racines d'un polynôme de degré n.
    -------------------------------------------------------------

a) Historique.

i) Antiquité.

  La notion moderne d'équation n'émerge,  en fait,  qu'assez tardivement
  dans l'Histoire,  et ce que l'on appelle "algèbre" dans l'Antiquité se
  limite dans une large mesure à la résolution de  problèmes de degré n,
  c'est-à-dire  de problèmes numériques concrets visant à déterminer une
  certaine quantité, qui pour nous dépend algébriquement des données.

  À cet égard,  les mathématiciens  Mésopotamiens  sont particulièrement
  avancés.   Les Babyloniens,  par exemple,  sans pour autant dégager de
  "formule générale",  disposent de méthodes systématiques de résolution
  des problèmes de degré 1 et 2,   dont certains mettent même en jeu des
  systèmes,   linéaires  (ou  non).   Dans  quelques  cas  particuliers,
  ils résolvent même des problèmes de degré 3 et 4.

  Par comparaison, l'algèbre égyptienne de la même époque  (début du IIè
  millénaire avant notre ère) peut paraître assez rudimentaire.
  Pénalisés  par  un  système  de  numération  inadapté  et des notations
  lourdes  (pour les fractions par exemple),   les Égyptiens résolvent au
  cas par cas des problèmes du premier degré uniquement,  et cela par des
  méthodes qui nous sembleraient de peu de rigueur.

  Les  Grecs  eux-mêmes,  à  cause  peut-être  de  la  fameuse crise des
  irrationnels,   se méfient,  un peu,  de l'algèbre  et  l'ont peu fait
  progresser.  Ni les Pythagoriciens  (plus préoccupés des entiers),  ni
  les successeurs  d'Euclide    (qui  se  consacrent  avant  tout  à  la
  géométrie) ne  s'y  sont  beaucoup intéressés.  Le  dixième  livre des
  _Éléments_  constitue  néanmoins le fondement de nombreuses recherches
  algébriques du Moyen-Âge.

  Exception éclatante : Diophante d'Alexandrie,  mathématicien  du  IIIe
  siècle après J.-C.,  dont les _Arithmétiques_ constituent peut-être le
  premier traité  "d'algèbre classique".  Il  y  introduit  en effet  la
  notion  d'équation  algébrique,  c'est-à-dire  la  relation  entre les
  puissances successives d'un nombre inconnu (arithmos)  qu'il s'agit de
  déterminer par transformations successives de la relation. Sa démarche
  déductive  est certes en recul  par rapport  à la méthode  axiomatique
  d'Euclide,  mais il se permet ainsi de considérer les fractions et les
  irrationnels  comme  des  nombres à part entière,  ce qui renforce  la
  généralité de ses méthodes.


ii) Du IVe au XIVe siècle

  S'inspirant peut-être de la numération chinoise, les Indiens inventent
  un  système  décimal  de  position  comportant le zéro et les relatifs
  négatifs dès le  IVe  ou  le Ve  siècle après J.-C.  et qui permet des
  notations algébriques bien plus élégantes.

  Ainsi,  au VIIe siècle,  le mathématicien Brahmagupta, dans son traité
  _Brahmasphutasiddhanta_    énonce-t-il   des   règles   générales   de
  transformation des expressions algébriques,  contenant  éventuellement
  des quantités négatives ou nulles,  et donne explicitement la solution
  de l'équation générale de degré 2.  Au XIIe siècle, Bhaskara (à ne pas
  confondre  avec son homonyme contemporain  de Brahmagupta)  généralise
  ces méthodes,  qu'il étend  à des  équations  particulières  de  degré
  supérieur  à 2.  Il tient compte,  en outre,  de la seconde racine des
  équations de degré 2.

  L'algèbre arabe fait, en quelque sorte,  la synthèse des mathématiques
  grecques  et  indiennes,  et constitue  le sujet  de prédilection  des
  mathématiciens  arabes.  Au IXe siècle,  al-Khwarizmi  remarque que la
  transformation  des équations  constitue  une théorie  à part entière,
  dont il décrit les principes dans le _Kitab al jabr wa-l-muqabla_ dont
  l'algèbre tire son nom.  Il reprend  les méthodes de Diophante  et  la
  numération indienne,  qu'il contribue à populariser. Néanmoins, il est
  encore gêné par les nombres négatifs,   ce qui n'est pas le cas de son
  principal successeur, Abu Kamil.

  Forts des progrès de l'algèbre arabe vers l'abstraction,  al-Karaji  à
  la fin  du Xe siècle  et  al-Samaw'al au XIIe siècle  développent  une
  puissante arithmétique des polynômes  et  des fractions rationnelles :
  multiplication,  division,  et même extraction de racines et une sorte
  de  développement limité en O(1/x^n).   Dès le XIe siècle,  l'équation
  cubique suscite par ailleurs un vif intérêt. Le persan Umar al-Khayyam
  donne notamment de nombreux éléments d'une étude géométrique, voire en
  des termes modernes "analytique", du problème.

  Les travaux  de Léonard de Pise   (le célèbre Fibonacci),  au début du
  XIIIe siècle diffusent en Europe le savoir algébrique arabe.
  Son  _Liber  Abaci_  constitue  la source  principale  des  nombreuses
  recherches de ses successeurs.  De plus,  il  propose  avec l'empereur
  Frédéric  II  des sortes  de  "défis scientifiques"  sous  la forme de
  problèmes  réunis   dans  le   _Liber Quadratorum_   et  comprenant la
  résolution de plusieurs équations de degré 3.

iii) La Renaissance

  À  la  Renaissance,   les  mathématiques,  et  surtout  l'algèbre,  se
  développent  rapidement en Italie,  sur la base de  l'héritage  gréco-
  arabe. Les premiers progrès s'effectuent sur le terrain du symbolisme,
  de plus en plus concis et suggestif.  Nicolas Chuquet  et Luca Pacioli
  présentent  sous une forme concise  les  résultats  classiques.  C'est
  celui-ci  qui  introduit   la  notation   "cossique"   des   équations
  algébriques.    Jusqu'au   XVIIe   siècle,   beaucoup   s'attachent  à
  perfectionner un symbolisme,  qui atteint à peu près sa forme actuelle
  avec Descartes...   Mais le grand apport des mathématiciens italiens à
  l'algèbre est la résolution par radicaux des équations de degré 3 et 4

  À  la  toute  fin  du  XVe  siècle,  Scipione  dal  Ferro  parvient  à 
  l'expression par radicaux des racines de l'équation cubique sans terme
  en x^2   (ce qui est  équivalent à la  résolution  complète,  mais  il
  semblerait  qu'il  ne le savait pas).  Quoi qu'il en  soit,  dans  une
  tradition  médiévale  un  peu  surannée,   il  choisit  de  garder  sa
  découverte secrète.  Il la confie à sa mort à son élève Fior qui ne la
  divulgue pas.  En 1535, Tartaglia, établi à Venise comme professeur de
  mathématiques,   propose  une  méthode  de  résolution  des  équations
  cubiques sans terme en x,   mais Fior lui en conteste la priorité.  Ce
  genre de querelles se réglaient en des défis.  Fior  met  Tartaglia au
  défi  de  résoudre  l'équation  sans  terme en  x^2,   et  celui-ci  y
  parvient, assurant sa victoire.

  Quelques  années  plus tard,  un médecin  et  mathématicien  milanais,
  Cardan, vient trouver Tartaglia pour obtenir l'autorisation de publier
  ses formules dans sa grande somme mathématique,  l'_Ars Magna_ (1545).
  Tartaglia refuse, mais devant l'insistance de Cardan, il consent à lui
  exposer sa méthode, avec la promesse qu'elle ne sera pas publiée.
  Malgré tout, les fameuses  "formules de Cardan" apparaissent bien dans
  l'_Ars Magna_,  et  une violente querelle  s'ensuit  qui  ne prend fin
  qu'en 1548.   On trouve également dans le traité de Cardan la solution
  de  l'équation  générale  de  degré 4  que  l'on peut  attribuer  avec
  certitude à l'élève de Cardan, Ferrari (auquel on pense en fait devoir
  un grand nombre des résultats publiés par Cardan)...

  Une particularité  de la méthode de Tartaglia est de faire intervenir,
  au cours du calcul,  des racines carrés de nombres négatifs,  ce qu'il
  avait  du  mal  à  prendre  en  considération.   Le  premier  à  avoir
  véritablement   admis  les  complexes  en  tant  que nombres,   plutôt
  qu'artifices  calculatoires,  est  Bombelli.  Il présente  les  règles
  générales de calcul sur les complexes et toutes les récents progrès de
  l'algèbre   peu  avant  sa  mort,   dans   _Algebra,   parta  maggiore
  dell'arithmetica_ (1572).

iv) Vers l'algèbre moderne

  Après le XVIe siècle,  les mathématiciens semblent se désintéresser de
  l'algèbre, pour se consacrer plutôt à la géométrie et à la toute jeune
  analyse.  Les diverses tentatives de résolution de l'équation de degré
  5 sont infructueuses,  de même que  les essais de démonstration  de la
  "conjecture"  de Girard,  selon laquelle  toute équation algébrique de
  degré n admet exactement n racines complexes distinctes ou confondues.
  Étrangement, le rigoureux Descartes semble avoir considéré ce résultat
  comme évident.

  En tous les cas, l'algèbre pure fait peu de progrès jusqu'à la seconde
  moitié du  XVIIe  siècle.  Il y a  cependant  des  recherches  liées à
  l'analyse,  sur l'approximation des racines par exemple (recherches de
  Rolle, de Newton).  Le  tournant  se  situe  néanmoins aux environs de
  1770,  lorsque Lagrange  et Vandermonde entament des recherches sur la
  Théorie des Substitutions.

  Lagrange  saisit,  en  particulier,   l'importance  de  la  notion  de
  permutations sur la famille des racines d'une équation algébrique,  et
  développe avec Waring  l'idée  selon laquelle,  si  la  conjecture  de
  Girard est vraie,  alors  les coefficients  d'une équation  algébrique
  sont  au  signe  près  *les  fonctions  symétriques  élémentaires  des
  racines*  (Viète,  puis Girard  avaient remarqué ce résultat longtemps
  auparavant, dans quelques cas particuliers). Ce résultat lui permet de
  présenter  une méthode élégante de résolution des équations de degré 3
  et 4.  Vandermonde étudie les fonctions invariantes  par  permutations
  circulaires,  et  en déduit  les solutions  par radicaux  de certaines
  équations  particulières   (au groupe de Galois cyclique)  telles  que
  "x^11 - 1 = 0".

  Une  nouvelle  étape  est  franchie  avec  la  première  démonstration
  rigoureuse de  la conjecture de Girard,  publiée  par Gauss  en  1799.
  D'Alembert  s'y était essayé avant lui,   mais  sa démonstration était
  incomplète. Gauss perçoit par ailleurs l'importance du "groupement des
  opérations"  (selon l'expression de Galois) et dans ses recherches sur
  les formes quadratiques  et  sur l'arithmétique modulaire  se dégagent
  déjà les concepts qui fondent l'algèbre moderne.  Il développe de plus
  les idées de Vandermonde,   et montre que le polygone à dix-sept côtés
  est constructible à la règle et au compas.

  Ruffini, appliqué à l'étude de la théorie des substitutions,  effectue
  des recherches  sur  les  valeurs  prises  par  une fonction  de  cinq
  variables par toutes les permutations de ces variables.  Il parvient à
  des résultats,  généralisés par Cauchy,  qui l'amènent à conclure,  en
  1813,  à  l'impossibilité  de  résoudre  l'équation  de  degré  5  par
  radicaux.  Ses  arguments  ne suffisent  pas  pour  une  démonstration
  rigoureuse, cependant  Abel apporte des arguments plus probants sur ce
  point,  et parvient,  aux alentours de 1826,  à l'impossibilité  de la
  résolution par  radicaux  de  l'équation  générale  de  degré  premier
  supérieur ou égal à 5.

  Cependant, son raisonnement présente des difficultés,  et  il maîtrise
  mal ses méthodes, qui ne se formalisent correctement que dans le cadre
  de la théorie des corps   (laquelle  n'émerge  que  bien  plus  tard).
  Galois est le premier à adopter une méthode complètement générale,  en
  introduisant  la  notion  de groupe  d'une  équation  (l'ensemble  des
  permutations[1] des racines conservant les relations algébriques entre
  celles-ci). Dans des mémoires successifs rédigés à partir de 1830,  il
  dégage  le critère général de résolubilité par radicaux d'une équation
  algébrique.  Ainsi   Galois   clôt-il   définitivement   la   question
  essentielle de l'algèbre classique,  tout en posant,  plus encore  que
  Gauss, les jalons de l'algèbre moderne.

  [1] Pour ceux qui liraient Galois,  il est intéressant  de noter qu'il
      appelle  "permutation"  une certaine disposition de n lettres,  et
      emploie le terme  de substitution pour   désigner  l'opération  de
      changement de cette disposition.


b) Démonstration

Soit  P_n(x) = x^n + Sum( a_k * x^ k, de k = 0 à k = n-1) un polynôme de
degré n.  Les a_k  sont soit des réels soit des complexes.  On cherche à
exprimer les racines de  P_n   en fonction des  a_k.   C'est ce que l'on
appelle une résolution par radicaux.

Notes:
- Les  a_k  peuvent être réels  ou  complexes.  Les racines  des nombres
  négatifs ou complexes sont "admises"
- Je  ne  traite  que  les  cas  où  les polynomes  sont unitaire  (leur
  coefficient de plus haut degré est 1. Si ce n'est pas le cas il suffit
  de  diviser  le polynôme  par  son coeficient  de plus haut degré   et
  d'appliquer la méthode que je développe plus bas.
- J'utilise pour ces démonstrations les notations sqrt(x) et cur(x)  qui
  désignent respectivement la racine carrée et cubique de x.
- J'utilise la notation <> pour signifier "différent de".

1) Le polynôme est de degré n = 1.
On part de l'équation:  x + b = 0.

La solution est bien évidement x = -b.


2) Le polynôme est de degré n = 2.
On part de l'équation: x^2 + a*x + b = 0.

Deux possibiltés se présentent: (i) a = 0 et (ii) a <> 0

(i) a = 0. L'équation s'écrit x^2 = -b
Les deux solutions sont donc:  x1 = sqrt(-b) et x2 = - sqrt(-b)

(ii) a <> 0. L'équation s'ecrit x^2 + a * x + b = 0
Cette équation peut s'écrire:
                x^2 + a*x + (1/4)* a^2 + b - (1/4)* a^2 = 0
Or l'on a :
                (x + a/2)^2 = x^2 + a*x + (1/4)* a^2
Donc on peut écrire dans la première équation:
                (x + a/2)^2 = ( a^2 - 4b ) /4 

Ce qui revient au cas (i). Donc l'équation s'écrit:
x + a/2 = sqrt( (1/4)*a^2 - b ) ou x + a/2 = - sqrt( (1/4)*a^2 - b )

On en déduit les solutions de l'equation:
x1 = -a/2 + sqrt( (1/4)*a^2 - b ) et x2 = -a/2 - sqrt( (1/4)*a^2 - b )


3) Le polynôme est de degré n = 3.
On part de l'équation: x^3 + a*x^2 + b*x + c = 0.

On effectue un changement de variable x = z - a/3.

On obtient alors une équation du type :	z^3 + p*z + q = 0
Avec: p = b - (1/3)*a^2 et
      q = (2/27)*a^3 - (1/3)*a*b + c

Note:
Une fois que l'on a une solution z0 de l'équation  en z, alors  
x0 = z0 - a/3 est solution de l'équation en x.

Pour l'équation en z, deux cas sont possibles : (i) p = 0, (ii) p <> 0.

(i)  p = 0. L'équation s'écrit donc z^3 = -q
Cette équation a trois solutions dans C:
     z1 = cur(-q) (cur(x) est la racine cubique de x)
     z2 = j * z1
     z3 = (j^2) * z1.
        Où j = ( -1 + i*sqrt(3) )/2

(ii) p <> 0. L'équation est z^3 + p*z + q = 0.
On effectue un autre changement de variable z = u + v. Avec u non-nul.
Et l'équation s'écrit:
                u^3 + v^3 + q + (3*u*v + p)*(u + v) = 0
on s'intéresse alors au système suivant:
                { u^3 + v^3 + q = 0   [S]
                { 3*u*v + p = 0

Note:
si (u0, v0) est solution du sytème [S], on remarque que z0 = u0 + v0 est
solution de l'équation 3.

Le système [S] est équivalent à:
                { u^6 + q* u^3 - (1/27)*p^3 = 0
                { v = - p /(3u)

Encore (!) un changement de variable dans la première équation.
On pose y = u^3, et celle-ci devient: y^2 + q*y -(1/27)*p^3.
De là, une solution est donc:
                y = -q/2 + sqrt( (1/4)*q^2 +(1/27)*p^3 )

Donc, il ne reste plus qu'à trouver les solutions de u^3 = y.  C'est  le
cas (i). On a donc comme solutions:
      u1 = cur(y).      et v1 = -p / (3*u1)
      u2 = j * u1.      et v2 = j * v2
      u3 = (j^2) * u1 et v3 = (j^2) * v3
De là, on a z1 = u1 + v1, z2 = u2 + v2 et z3 = u3 + v3. Ce qui nous
donne les solutions pour x...


4) Le polynôme est de degré n = 4
On part de l'équation x^4 + a * x^3 + b * x^2 + c * x + d = 0.

On effectue le changement de variable x = z - a/4.

On obtient une équation réduite de la forme:
            z^4 + p * z^2 + q * z + r = 0

Avec p = b - (3/8)*a^2 ;
     q =  c - a*b/2 + (1/8)*a^3 et
     r = d - a*c/4 + (1/16)*b*a^2 - (3/256)*a^4

On a deux cas pour l'équation en z: (i) q = 0 et (ii) q <>0.

(i) q = 0. L'équation s'écrit z^4 + p * z^2 + r = 0.
C'est ce que l'on appelle une équation bicarrée.

On pose y = z^2 et l'equation devient y^2 + p * y + r = 0
Les solutions sont donc:
y1 = -p/2 + sqrt( (1/4)*p^2 - r) et y2 = -p/2 - sqrt( (1/4)*p^2 - r)

De là les valeurs de z sont:
z1 = sqrt(y1) ; z2 = - sqrt(y1) ; z3 = sqrt(y2) et z4 = -sqrt(y2).

(ii) q <> 0. L'équation s'écrit z^4 + p * z^2 + q * z + r = 0
On pose alors 2*P - Q^2 = p ; -2*Q*R = q et P^2 - R^2 = r.

On a alors (z^2 + P)^2 - (Qz +R)^2 = 0. Ce qui est une autre façon
d'écrire z^4 + p * z^2 + q * z + r = 0.

Si l'on arrive à determiner le triplet (P0, Q0, R0) alors trouver les
solutions de l'équation réduite revient à résoudre:
                z^2 + P0 + Q0 * z + R0 = 0 ou
                z^2 + P0 - Q0 * z - R0 = 0
On peut donc trouver z.

Il reste donc à determiner P, Q et R. C'est à dire à résoudre le système
                { 2*P - Q^2 = p
                { -2*Q*R = q		[S]
                { P^2 - R^2 = r
Ce système revient à:
                { Q^2 = q^2 / (4*P^2 - r)
                { R^2 = P^2 - r
                { Q*R = -q / 2
Ce qui revient à résoudre l'équation (en P) suivante:
                p^3 - (p/2)*P^2 - r*P + p*r/2 - (1/8)*q^2 = 0
De là, on trouve (pas si) facilement P0. Et grâce au système [S] on peut
lui associer un couple (Q0, R0) et donc trouver z... (ouf !)


5) Le polynôme est de degré n > 4.
Au  XIXè  siècle,  Abel  a montré  que  la résolution  par  radicaux  de
l'équation du cinquième degré  était  impossible  dans  le cas  général.
Indépendamment,  Galois a généralisé  cette  démonstration  à l'ensemble
des cas où n est supérieur ou égal à 5.

Cette démonstration  demande un recours à la théorie de Galois,  elle ne
sera pas developpée ici.  Cette  théorie est très bien développée dans :
_Équations  algébriques  et  théorie  de  Galois_  de  Claude  Mutafian,
(ed. Vuibert)  et  _Galois Theory_ de Ian Stewart (ed. Chapman and Hall)
(attention, ce dernier est en anglais).


========================================================================

Les autres parties de cette FAQ se trouve dans les documents intitulés :
                 [FAQ] fr.sci.maths - partie 2/3
                 [FAQ] fr.sci.maths - partie 3/3
Ces documents sont disponibles sur fr.sci.maths ou à l'adresse :
            http://www.usenet-fr.net/fur/maths/maths-faq-2.html
            http://www.usenet-fr.net/fur/maths/maths-faq-3.html
.


Valid XHTML 1.0! [Retour au sommaire] Valid CSS!

Traduit en HTML par faq2html.pl le Wed Nov 3 05:42:13 2010 pour le site Web Usenet-FR.