
Voici une vue d’ensemble (“boîte à outils”) de l’écosystème IA/ML, classée par grandes catégories et, lorsque c’est pertinent, accompagnée de parts de popularité ou d’adoption.
1. Langages de programmation
- Python : près de 97 % des vainqueurs de compétitions ML l’utilisent comme langage principal
- R : environ 3 % parmi ces experts
- Julia : usage marginal (≲ 1 %)
2. Frameworks de Deep Learning (popularité sur GitHub)
- PyTorch : 29,7 % des étoiles GitHub
- TensorFlow : 27,1 %
- Keras : 22,3 %
- JAX : 10,6 %
- PyTorch Lightning : 10,3 %
3. Bibliothèques de Machine Learning
- scikit-learn : standard de facto pour la majorité des tâches ML
- XGBoost, LightGBM, CatBoost : incontournables du gradient boosting
- statsmodels, Prophet : séries temporelles et analyse statistique
4. Préparation et traitement des données
- pandas : utilisé par 77 % des répondants pour l’exploration/traitement de données
- Polars : adoption en forte croissance (10 %)
- Dask, Apache Spark, Ray : traitement distribué à grande échelle
5. Visualisation
- matplotlib, seaborn : bibliothèques de base
- Plotly, Bokeh, Altair : pour de l’interactivité riche
- Power BI, Tableau : solutions “entreprise”
6. NLP (Traitement du Langage Naturel)
- spaCy, NLTK, Gensim
- Hugging Face Transformers
7. Vision par ordinateur
- OpenCV, Detectron2, YOLO, MMDetection
8. MLOps & déploiement
- Kubeflow, MLflow, Apache Airflow, AWS SageMaker, Weights & Biases, Tecton, Azure ML
9. AutoML
- H2O.ai, auto-sklearn, TPOT, Google Cloud AutoML
10. Plateformes Cloud
- AWS (SageMaker), Google Cloud AI Platform, Azure ML
11. Explicabilité & Monitoring
- SHAP, LIME, ELI5, InterpretML
Cette répartition vous aide à choisir, pour chaque étape du cycle de vie d’un projet IA/ML – de la préparation des données, à l’expérimentation, jusqu’au déploiement et à la surveillance en production.