Le problème du tri est parmi les plus élémentaires en algorithmique, mais ses ramifications peuvent être poussées.
Le but de ce TP est d'implémenter différentes méthodes standard de tri et de comparer leur efficacité.
Nous aborderons par ce TP la notion de complexité algorithmique, c'est à dire l'évaluation de l'efficacité des algorithmes, indispensable pour les comparer entre eux.
Nous travaillerons sur un tableau de nombres, par exemple :
array: list[int] = [2, 34, -4, 2, 8, 1]Notez que les entiers pourraient être remplacés par des nombres décimaux, des chaînes de caractère (à trier par ordre alphabétique) ou même des objets complexes (à trier selon une certaine clé de l'objet). Le fonctionnement est le même.
Cela peut-être pratique pour générer de grands tableaux.
Voici comment générer un tableau de 10 nombres compris entre 0 et 100 :
import random
array = [random.randint(0, 100) for i in range(10)]Cela sera indispensable pour évaluer nos algorithmes.
import time
start: float = time.time()
# do something
end: float = time.time()
print("Temps écoulé :", end - start)Complétez la fonction generate_array_of_number du fichier sort/range.py pour qu'elle génère un tableau de n nombres aléatoires entre 0 et 100.
Mesurez combien de temps prend python à générer un tableau composés de :
- 1 000 000 entrées
- 2 000 000 entrées
- 3 000 000 entrées
- ...
- 10 000 000 entrées
Astuce : vous pouvez écrire les nombres avec des underscores pour mieux les lire : 1_000_000
Sur un tableur, générez un tableau permettant de visualiser le temps d'éxécution en fonction de la taille de l'entrée.
Comment vous semble évoluer la courbe ? Observez bien les différentes courbes du graphique ci-dessous. Quelle est la plus ressemblante à notre situation ? La courbe semble linéaire. Complexité : O(n)
- Un algorithme de complexité O(1) a un temps d'éxécution qui ne dépend pas de la taille de l'entrée. C'est très efficace.
- Un algorithme de complexité O(n) a un temps d'éxécution qui est proportionnel à la taille du problème à résoudre. Autrement dit, multiplier la taille de l'entrée par 10 multipliera le temps d'éxécution par 10. C'est une croissance linéaire. C'est plutôt efficace.
- Un algorithme de complexité O(n²) a un temps d'éxécution qui est proportionnel au carré de la taille du problème à résoudre. Autrement dit, multiplier la taille de l'entrée par 10 multipliera le temps d'éxécution par 100 ! Ce n'est pas terrible du tout...
Observez attentivement l'animation de tri par sélection ci-dessous pour en comprendre le fonctionnement.
Écrivez en français classique ce que vous voyez. Quel est le fonctionnement ? Comment l'expliqueriez-vous à quelqu'un ? On parcours le tableau depuis le début à la recherche du plus petit nombre que l'on place à l'index 0, puis l'on recommence pour placer le plus petit des nombres restants à l'index 1, etc... Ilconvient de séparer la liste en 2 partie, celle déjà triée sur la gauche et celle encore non triée sur la droite. A chaque fois on commence évidemment à vérifier à partir de la première entrée de la liste non triée.
Puis implémentez l'algorithme en python dans la fonction sort du fichier sort/selection.py. Vérifiez son bon fonctionnement en éxécutant le fichier test.py.
Mesurez le temps d'éxécution pour un tableau de :
- 1000 entrées
- 2000 entrées
- ...
- 10000 entrées
Tracez le graphique correspondant.
Quelle semble être la complexité de notre fonction de tri ? Cela est-il logique par rapport au code que vous avez implémenté ? La courbe commence à avoir une forme exponentielle, il semblerait que la difficulté de l'algorithme soit O(N²)
Observez attentivement l'animation de tri par insertion ci-dessous pour en comprendre le fonctionnement.
Écrivez en français classique ce que vous voyez. Quel est le fonctionnement ? Comment l'expliqueriez-vous à quelqu'un ? On prend la première valeur de la partie encore non triée de la liste puis on la compare avec la précédente. Si elle est inférieure on la compare à celle encore d'avant, sinon on la place juste derrière. Puis on recommence...
Puis implémentez l'algorithme en python dans la fonction sort du fichier sort/insertion.py. Vérifiez son bon fonctionnement en éxécutant le fichier test.py.
Mesurez le temps d'éxécution pour un tableau de :
- 1000 entrées
- 2000 entrées
- ...
- 10000 entrées
Tracez le graphique correspondant.
Quelle semble être la complexité de notre fonction de tri ? Cela est-il logique par rapport au code que vous avez implémenté ? Ici la courbe obtenue est exponentielle avec une pente plus forte que celle de l'algorithme de sélection, on peut supposer que la complexité est de O(2^n).
Le tri par fusion est plus complexe : il utilise en effet la récursion, c'est à dire une fonction qui s'appelle elle-même.
Exemple :
def loop_forever():
loop_forever()L'appel de cette fonction va entraîner une boucle infinie, car il n'y a pas de condition qui stoppe la boucle.
Voici une fonction récursive avec une "condition" pour la récursion.
def increment_until_10(i):
if i < 10:
return increment_until_10(i + 1)
else:
return iSi on appelle increment_until_10(1), la fonction sera appelée 9 fois supplémentaires pour "compter" jusqu'à 10.
Complétez la fonction sort du fichier sort/recursion.py en suivant les instructions suivantes.
Utilisez le concept de la récursion pour calculer la factorielle du nombre passé en paramètre.
Pour rappel, la factorielle de 5 est 5 x 4 x 3 x 2 x 1 = 120.
Vérifiez son bon fonctionnement en éxécutant le fichier test.py.
Observez bien le schéma suivant : il représente le concept du tri par fusion.
Cet algorithme est de type "diviser pour régner".
Écrivez en français classique ce que vous voyez. Quel est le fonctionnement ? Comment l'expliqueriez-vous à quelqu'un ? L'algorithme divise la liste en 2, puis recommence autant de fois que nécessaire avec les listes obtenues jusqu'à n'avoir que des listes de 1 entrée. Il fusionne alors 2 listes adjacentes en comparant une à une la première entrée de chaque pour placer la plus petite à l'index suivant de la liste de sortie. Cet étape est répétée jusqu'à ce qu'il n'y ait plus qu'une seule liste.
Complétez la fonction sort du fichier sort/fusion.py en suivant les instructions suivantes.
Il vous faudra deux fonctions :
sort, la fonction principale, qui sera chargée de diviser les tableaux ayant plus d'un élément, et de rappelersortavec ces nouveaux tableauxmerge, la fonction qui sera appelée pour fusionner deux tableaux
Vérifiez son bon fonctionnement en éxécutant le fichier test.py.
Mesurez le temps d'éxécution pour un tableau de :
- 1000 entrées
- 2000 entrées
- ...
- 10000 entrées
Tracez le graphique correspondant.
Quelle semble être la complexité de notre fonction de tri ? Cela est-il logique par rapport au code que vous avez implémenté ? Ici la courbe est linéaire, il semblerait que la complexité soit O(n.log(n))
Question bonus : Y a-t-il des tailles de tableaux pour lesquelles le tri par fusion n'est pas aussi rapide que les précédents tris abordés ? Écrivez votre réponse ici
Bien que tout cela soit fascinant, Python possède sa propre méthode de tri : sort().
Une dernière fois, analysez le temps d'exécution et découvrez si python fait mieux que nos implémentations rudimentaires ;) Python il est vachement rapide dis-donc, la courbe est une constante. Complexité : O(1).
Merci de faire une Pull Request vers ce repository.
Le nom de la PR doit contenir votre nom et celui de votre collègue si vous êtes en binôme.
Vérifiez que votre code est conforme aux normes pep8 et aux autres critères de qualité dont nous avons parlé.
La PR doit également contenir un ou plusieurs graphiques présentant vos résultats sur la complexité des fonctions de tri.



