Centre de Documentation Campus Montignies
Horaires :
Lundi : 8h-18h30
Mardi : 8h-18h30
Mercredi 9h-16h30
Jeudi : 8h-18h30
Vendredi : 8h-16h30
Bienvenue sur le catalogue du centre de documentation du campus de Montignies.
Détail de l'auteur
Documents disponibles écrits par cet auteur
Ajouter le résultat dans votre panier Faire une suggestion Affiner la recherche
Exemplaires (1)
|
Revue | Revue | Centre de Documentation HELHa Campus Montignies | Salle de lecture - Etagère presse et actualité | Document exclu du prêt - à consulter sur place Exclu du prêt |

[article]
Titre : |
L’exponentielle : sa vie, son œuvre |
Type de document : |
texte imprimé |
Auteurs : |
Guillaume Saupin |
Année de publication : |
2020 |
Article en page(s) : |
p. 42-53 |
Langues : |
Français (fre) |
Résumé : |
L’exponentielle est au cœur de nombreuses méthodes dans le domaine de la data science, et nous avons connu ces derniers mois ses effets très directement à travers la propagation du SARS-Cov-2. |
Permalink : |
./index.php?lvl=notice_display&id=103824 |
in Linux magazine > 239 (Juillet-Août 2020) . - p. 42-53
|
Exemplaires (1)
|
Revue | Revue | Centre de Documentation HELHa Campus Montignies | Salle de lecture - Etagère presse et actualité | Document exclu du prêt - à consulter sur place Exclu du prêt |

[article]
Titre : |
Gradient Boosting : une introduction |
Type de document : |
texte imprimé |
Auteurs : |
Guillaume Saupin |
Année de publication : |
2022 |
Article en page(s) : |
p. 14-22 |
Langues : |
Français (fre) |
Mots-clés : |
Machine Learning Classification XGBoost Gradient Boosting |
Résumé : |
Lorsqu’il s’agit de résoudre des problèmes de Machine Learning sur données tabulées, c’est-à-dire issues de base de données relationnelles ou de fichiers de type CSV, les grandes gagnantes sont les méthodes de Gradient Boosting. Pour preuve, XGBoost, LightGBM, ou encore CatBoost se retrouvent généralement en tête des meilleurs algorithmes dans les concours de type Kaggle. Dans cet article, nous allons entrer dans le détail de leur fonctionnement, à l’aide de code, pour en cerner toutes les subtilités. |
Permalink : |
./index.php?lvl=notice_display&id=101407 |
in Linux magazine > 256 (Mars/Avril 2022) . - p. 14-22
[article] Gradient Boosting : une introduction [texte imprimé] / Guillaume Saupin . - 2022 . - p. 14-22. Langues : Français ( fre) in Linux magazine > 256 (Mars/Avril 2022) . - p. 14-22
Mots-clés : |
Machine Learning Classification XGBoost Gradient Boosting |
Résumé : |
Lorsqu’il s’agit de résoudre des problèmes de Machine Learning sur données tabulées, c’est-à-dire issues de base de données relationnelles ou de fichiers de type CSV, les grandes gagnantes sont les méthodes de Gradient Boosting. Pour preuve, XGBoost, LightGBM, ou encore CatBoost se retrouvent généralement en tête des meilleurs algorithmes dans les concours de type Kaggle. Dans cet article, nous allons entrer dans le détail de leur fonctionnement, à l’aide de code, pour en cerner toutes les subtilités. |
Permalink : |
./index.php?lvl=notice_display&id=101407 |
|
Exemplaires (1)
|
Revue | Revue | Centre de Documentation HELHa Campus Montignies | Salle de lecture - Etagère presse et actualité | Document exclu du prêt - à consulter sur place Exclu du prêt |