Le problème du tri est parmi les plus élémentaires en algorithmique, mais ses ramifications peuvent être poussées.
Le but de ce TP est d'implémenter différentes méthodes standard de tri et de comparer leur efficacité.
Nous aborderons par ce TP la notion de complexité algorithmique, c'est à dire l'évaluation de l'efficacité des algorithmes, indispensable pour les comparer entre eux.
Nous travaillerons sur un tableau de nombres, par exemple :
array: list[int] = [2, 34, -4, 2, 8, 1]Notez que les entiers pourraient être remplacés par des nombres décimaux, des chaînes de caractère (à trier par ordre alphabétique) ou même des objets complexes (à trier selon une certaine clé de l'objet). Le fonctionnement est le même.
Cela peut-être pratique pour générer de grands tableaux.
Voici comment générer un tableau de 10 nombres compris entre 0 et 100 :
import random
array = [random.randint(0, 100) for i in range(10)]Cela sera indispensable pour évaluer nos algorithmes.
import time
start: float = time.time()
# do something
end: float = time.time()
print("Temps écoulé :", end - start)Complétez la fonction generate_array_of_number du fichier sort/range.py pour qu'elle génère un tableau de n nombres aléatoires entre 0 et 100.
Mesurez combien de temps prend python à générer un tableau composés de :
- 1 000 000 entrées
- 2 000 000 entrées
- 3 000 000 entrées
- ...
- 10 000 000 entrées
Astuce : vous pouvez écrire les nombres avec des underscores pour mieux les lire : 1_000_000
Sur un tableur, générez un tableau permettant de visualiser le temps d'éxécution en fonction de la taille de l'entrée.
Comment vous semble évoluer la courbe ? Observez bien les différentes courbes du graphique ci-dessous. Quelle est la plus ressemblante à notre situation ? Malgré une précision assez mauvaise distingue une courbe semblante à O(n)
- Un algorithme de complexité O(1) a un temps d'éxécution qui ne dépend pas de la taille de l'entrée. C'est très efficace.
- Un algorithme de complexité O(n) a un temps d'éxécution qui est proportionnel à la taille du problème à résoudre. Autrement dit, multiplier la taille de l'entrée par 10 multipliera le temps d'éxécution par 10. C'est une croissance linéaire. C'est plutôt efficace.
- Un algorithme de complexité O(n²) a un temps d'éxécution qui est proportionnel au carré de la taille du problème à résoudre. Autrement dit, multiplier la taille de l'entrée par 10 multipliera le temps d'éxécution par 100 ! Ce n'est pas terrible du tout...
Observez attentivement l'animation de tri par sélection ci-dessous pour en comprendre le fonctionnement.
Écrivez en français classique ce que vous voyez. Quel est le fonctionnement ? Comment l'expliqueriez-vous à quelqu'un ? Nous avons une variable à laquelle nous affectons la première valeur non triée de la liste, puis nous commençons à parcourir la liste, lorsque nous croisons une valeur plus petite que celle stockée dans notre variable nous l'affectons à notre variable jusqu'à arriver au bout de la liste, dès que nous y sommes arrivés nous plaçons l'élément à la suite des éléments triés, et ainsi de suite
Puis implémentez l'algorithme en python dans la fonction sort du fichier sort/selection.py. Vérifiez son bon fonctionnement en éxécutant le fichier python3 -m unittest. Le test correspondant au tri par sélection doit passer.
Mesurez le temps d'éxécution pour un tableau de :
- 1000 entrées
- 2000 entrées
- ...
- 10000 entrées
Tracez le graphique correspondant.
Quelle semble être la complexité de notre fonction de tri ? Cela est-il logique par rapport au code que vous avez implémenté ? La complexité semble être O(n2²), cela semble logique par rapport au code implémenté, nous avons 2 boucles imbriquées.
Observez attentivement l'animation de tri par insertion ci-dessous pour en comprendre le fonctionnement.
Écrivez en français classique ce que vous voyez. Quel est le fonctionnement ? Comment l'expliqueriez-vous à quelqu'un ? L'algorithme de tri par insertion prend chaque élément de la liste un par un et les replaces dans le liste en les comparant à la partie déjà trié. Il ne bouge pas le premier élément car il n'y a pas encore de partie triée, puis il séléctionne le deuxième et le trie par rapport au premier, pour fait de même avec le troisième etc....
Puis implémentez l'algorithme en python dans la fonction sort du fichier sort/insertion.py. Utilisez les tests automatiques pour vérifier votre implémentation.
Mesurez le temps d'éxécution pour un tableau de :
- 1000 entrées
- 2000 entrées
- ...
- 10000 entrées
Tracez le graphique correspondant.
Quelle semble être la complexité de notre fonction de tri ? Cela est-il logique par rapport au code que vous avez implémenté ? De la même manière que pour le tri par selection nous avons un programme qui imbrique 2 boucles, nous devrions donc retrouver un complexité de 0( n² ) et c'est bel et bien ce que le grahique nous retransmet
Le tri par fusion est plus complexe : il utilise en effet la récursion, c'est à dire une fonction qui s'appelle elle-même.
Exemple :
def loop_forever():
loop_forever()L'appel de cette fonction va entraîner une boucle infinie, car il n'y a pas de condition qui stoppe la boucle.
Voici une fonction récursive avec une "condition" pour la récursion.
def increment_until_10(i):
if i < 10:
return increment_until_10(i + 1)
else:
return iSi on appelle increment_until_10(1), la fonction sera appelée 9 fois supplémentaires pour "compter" jusqu'à 10.
Complétez la fonction sort du fichier sort/recursion.py en suivant les instructions suivantes.
Utilisez le concept de la récursion pour calculer la factorielle du nombre passé en paramètre.
Pour rappel, la factorielle de 5 est 5 x 4 x 3 x 2 x 1 = 120.
Utilisez les tests automatiques pour vérifier votre implémentation.
Observez bien le schéma suivant : il représente le concept du tri par fusion.
Cet algorithme est de type "diviser pour régner".
Écrivez en français classique ce que vous voyez. Quel est le fonctionnement ? Comment l'expliqueriez-vous à quelqu'un ? Nous divisons un tableau en 2 puis nous divisons ces 2 nouveaux tableaux en 4 et ce jusqu'à obtenir des tableaux de taille 1, après tout avoir divisé nous devons les réassembler mais cette fois ci dans le bon ordre, chaque membre s'assemble avec son membre de gauche ou droite pour former un tableau trié et ainsi de suite jusqu'à revenir à seul tableau mais cette fois ci, trié
Complétez la fonction sort du fichier sort/fusion.py en suivant les instructions suivantes.
Il vous faudra deux fonctions :
sort, la fonction principale, qui sera chargée de diviser les tableaux ayant plus d'un élément, et de rappelersortavec ces nouveaux tableauxmerge, la fonction qui sera appelée pour fusionner deux tableaux
Utilisez les tests automatiques pour vérifier votre implémentation.
Mesurez le temps d'éxécution pour un tableau de :
- 1000 entrées
- 2000 entrées
- ...
- 10000 entrées
Tracez le graphique correspondant.
Quelle semble être la complexité de notre fonction de tri ? Cela est-il logique par rapport au code que vous avez implémenté ? La complexité semble être O ( n log n ), nous avons un algorithme de division récursive donc cela paraît logique
Question bonus : Y a-t-il des tailles de tableaux pour lesquelles le tri par fusion n'est pas aussi rapide que les précédents tris abordés ? Les tailles de tableau très petite sont défavorables pour le tri fusion
Bien que tout cela soit fascinant, Python possède sa propre méthode de tri : sort().
Une dernière fois, analysez le temps d'exécution et découvrez si python fait mieux que nos implémentations rudimentaires ;)
Nos algos sont bien moins rapide que le sort de python
Merci de faire une Pull Request vers ce repository.
Le nom de la PR doit contenir votre nom.
Vérifiez que votre code est conforme aux normes pep8 et aux autres critères de qualité dont nous avons parlé.
La PR doit également contenir un ou plusieurs graphiques présentant vos résultats sur la complexité des fonctions de tri.



