Académique Documents
Professionnel Documents
Culture Documents
PyCaret
Pour exécuter tous les modèles, vous devez taper , et c’est tout. Cette
fonction entraînera tous les modèles de la bibliothèque et les notera
à l’aide de la validation croisée pour la validation métrique.
Maintenant, vous pourriez demander: où va le jeu de données dans
cette ligne de code? Je ne sais pas, mais si vous le découvrez, faites-le
moi savoir. Voyons les résultats
TPOT
TPOT est destiné à être un assistant qui vous donne des idées
sur la façon de résoudre un problème particulier
d’apprentissage automatique en explorant des configurations
de pipeline que vous n’avez peut-être jamais envisagées, puis
laisse le réglage fin à des techniques de réglage de paramètres
plus contraintes telles que la recherche de grille.
J’utiliserai le même jeu de données que celui que j’ai utilisé avec la
démonstration PyCaret. Nous devons former un ensemble de test
pour TPOT, tout comme vous le feriez avec scikit-learn.
# Creating X and y variables
X = data.drop(columns=['default])
y = data['default'] # Train test split
X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=.2, random_state = 42)
Image de l’auteur
Après avoir attendu 33 minutes (!), TPOT a renvoyé les résultats ci-
dessus. Nous pouvons voir qu’ils montrent les modèles et les
paramètres pour arriver à ce résultat si vous souhaitez le reproduire.
Comme nous pouvons le voir, le meilleur modèle avait une précision
de .8283 en utilisant un ExtraTreesClassifier. C’est très proche des
résultats que nous avons obtenus avec PyCaret. PyCaret a également
exécuté un classificateur ExtraTree. Cependant, TPOT a pu
hyperrégler les paramètres et obtenir des résultats encore meilleurs.
LazyPredict