Image: Shutterstock
Fétiches des mathématiciens, les nombres premiers obéissent-ils à une règle cachée?
En science, rares sont les sujets qui piquent encore la curiosité après plus de 2 000 ans de recherche. Les nombres premiers font partie de ces éternels mystères : ils ont tenu en haleine les plus grands mathématiciens et, aujourd’hui, même les ordinateurs les plus puissants se cassent les dents − ou plutôt les circuits − sur les questions qu’on se posait déjà dans l’Antiquité.
La définition de ces nombres est pourtant d’une simplicité désarmante. Un nombre entier est premier s’il n’est divisible que par 1 et par lui-même. Autrement dit, s’il ne peut être « fragmenté » en plus petits éléments. Ainsi, 17 est un nombre premier, mais 15 ne l’est pas, car on peut le décomposer en 3 × 5.
La série commence par 2, 3, 5, 7, 11… et se poursuit à l’infini. « Ce sont les briques fondamentales des mathématiques, l’ADN des nombres entiers », résume Andrew Granville, spécialiste de la théorie des nombres à l’Université de Montréal.
De fait, n’importe quel entier peut se décomposer en une combinaison unique de ces briques de base : 35 est 5 × 7 ; 221 s’écrit 13 × 17 ; et 2 010, 2 × 3 × 5 × 67. Pas autrement.