Retour aux études : ma formation en intelligence artificielle chez Alyra 🎓
C’est amusant de constater à quel point le temps file.
Mon dernier post remonte à la mi-septembre. À ce moment-là, je parlais des conférences que je comptais suivre : celle d’Odoo, prévue le 18 septembre (où j’ai eu le plaisir de revoir mes anciens collègues, avec de très bons souvenirs), et PyCon France (où je n’aurai finalement pas la possibilité d’aller).
Pour PyCon Ireland, c’est différent : j’y serai mi-novembre pour revoir mes camarades irlandais. J’y vais parce que, depuis des années, j’ai donné un coup de main à l’organisation. Cette année, j’ai levé drastiquement le pied, car une nouvelle équipe se charge de tout — et c’est vraiment plaisant de les voir aussi motivés. J’ai déjà mon ticket depuis plusieurs mois… même si j’ai oublié de réserver mon vol (classique 😅).
Mais aujourd’hui, ce n’est pas de conférences que je voulais parler.
Depuis la fin septembre, j’ai commencé une formation sur le développement en intelligence artificielle, proposée par Alyra.
Pourquoi cette formation ? 🤔
Le domaine de l’IA est vaste.
Mon objectif n’est pas de réimplémenter un LLM depuis zéro, mais plutôt de combler une lacune que je traîne depuis longtemps : le machine learning et le deep learning, ces deux grandes branches de l’intelligence artificielle.
J’ai toujours été à l’aise avec les données, les bases relationnelles et le développement back-end. Mais durant ma dernière mission, je me suis rendu compte que le nettoyage, la préparation, la déduplication ou la modélisation prédictive sont des domaines que j’abordais surtout d’un point de vue « ingénierie » plutôt que « mathématique ».
Lors de ma dernière mission, par exemple, nous faisions énormément de préprocessing et de data cleaning à la main — c’est-à-dire que nous gérions les cas étranges manuellement, sans analyser correctement les données à l’aide de graphes pour détecter les erreurs.
Avec le recul, je réalise que oui, je peux utiliser Pandas, mais la data science ne se limite pas à manipuler une bibliothèque.
Prenons un exemple : enlever les doublons semble simple, mais un algorithme de machine learning peut le faire bien mieux que mes if/else en Python.
En parallèle, je recevais régulièrement des propositions de mission où l’on me demandait une double casquette : développeur Python back-end + spécialité IA/ML.
C’est là que je me suis dit : « Il est temps de comprendre ce qui se passe sous le capot. »
Alyra m’avait déjà proposé plusieurs formations — notamment sur la DeFi (finance décentralisée) — mais j’ai finalement opté pour celle dédiée au développement IA.
J’ai du temps devant moi, je ne suis pas encore à la recherche d’une mission, et j’essaie de mettre à profit cette opportunité.
Le choix était donc logique : il y a un sujet que je ne maîtrise pas, je vais y remédier.
Et comme un ami me l’a dit un jour : « Une formation intéressante est toujours un bon investissement. »
Ce que j’ai appris jusqu’ici ⚙️
Depuis le 22 septembre, j’ai repris le chemin de l’apprentissage.
Bonne nouvelle : toute la formation se fait en Python. Autant dire que ce n’est pas la partie qui me bloque 😄
Nous en sommes déjà à la quatrième semaine, et les connaissances arrivent à grands pas.
J’ai (re)découvert plusieurs outils que je connaissais déjà — Gradio, Streamlit, ou encore DuckDB, que j’avais mis en place dans une mission pour des calculs sur des données tabulaires.
Mais le gros morceau du moment, commencé cette semaine, c’est Scikit-Learn, la pierre angulaire du machine learning en Python.
C’est une bibliothèque à la fois élégante et redoutablement efficace, qui met enfin des noms clairs sur des concepts que je voyais passer depuis des années : la régression, la classification, le clustering, ou encore la validation de modèles.
Cette semaine, nous allons justement attaquer la régression en profondeur, et j’ai hâte de mettre en pratique ces concepts. Pour l’instant, je découvre la structure de Scikit-Learn et sa philosophie : l’API est remarquablement cohérente, du prétraitement des données jusqu’à l’évaluation des modèles. C’est exactement le type d’outil que j’aurais aimé connaître lors de mes précédentes missions !
Par contre, il est vraiment nécessaire d’avoir une documentation « fonctionnelle » ou un peu plus orientée vers les non-initiés, car de prime abord, on ne comprend pas grand-chose. Heureusement, il existe de nombreuses ressources sur Internet pour aider (vidéos YouTube, tutoriels, etc.), ou simplement en posant la question à Claude ou ChatGPT. Ils expliquent très bien les concepts et la logique d’utilisation de la bibliothèque. En espérant qu’ils n’hallucinent pas trop — pour ma part, cela me convient parfaitement et m’aide énormément !
Les défis : mathématiques et statistiques 📉
Soyons honnêtes : dans mon parcours pro, ce ne sont absolument pas des sujets que j’ai beaucoup abordés.
Mais il y a toujours un moment où il faut passer le cap, et ce retour à la théorie n’est pas simple.
Bien que j’aie fait beaucoup de développement technique au fil des années, les dernières équations mathématiques que j’ai réellement manipulées dans un contexte académique remontent à plus de 20 ans.
Et côté statistiques… disons que ce n’était pas le cœur de mon cursus universitaire.
Il faut donc tout réapprendre, se documenter, expérimenter, et surtout coder.
Mais c’est aussi ce qui rend cette aventure passionnante : on repart de la base, on reconnecte les points entre maths, code et intuition.
La semaine dernière, le sujet était l’apprentissage de l’Analyse Factorielle des Correspondances (AFC) en statistiques 😉.
J’ai dû rouvrir quelques ressources, ouvrir grand les yeux, refaire des graphes et tester sur Python avec Jupyter Notebook.
Kaggle : un terrain de jeu formidable 🎮
J’ai aussi découvert Kaggle, et c’est une révélation !
Pour ceux qui ne connaissent pas, Kaggle est une plateforme qui propose des compétitions de machine learning, mais aussi (et surtout pour moi) des datasets gratuits et des notebooks partagés par la communauté.
Ce qui est génial, c’est que je peux y trouver des exemples concrets de projets de ML, voir comment d’autres développeurs abordent les problèmes, et surtout apprendre par l’exemple.
Je passe pas mal de temps à explorer les notebooks sur des sujets comme la classification d’images ou l’analyse de séries temporelles. C’est un excellent complément à la formation : la théorie d’un côté, la pratique communautaire de l’autre.
Je vous recommande vraiment d’y faire un tour si vous vous lancez dans le ML !
Et la suite ? 🚀
Pour l’instant, je savoure.
Je prends des notes, je teste des notebooks, je fais des erreurs, je recommence.
Je découvre des concepts que je connaissais vaguement de nom et qui prennent enfin sens une fois manipulés.
Par exemple, je pensais qu’un modèle était quelque chose d’hyper compliqué, mais… pas forcément !
(du moins, tout dépend de la complexité du modèle 😉).
Et quand je dis ça, je pense bien sûr à un modèle simple, pas à ceux que l’on télécharge sur Hugging Face.
Dans un prochain article, je partagerai certains de ces apprentissages : le pipeline d’un modèle, les métriques d’évaluation, ou encore les premiers projets concrets réalisés pendant la formation.
En attendant, je continue à avancer à mon rythme — même si ces dernières semaines ont été un peu perturbées par des soucis personnels et familiaux.
L’important, c’est de garder la cadence, un peu chaque jour, sans se décourager.
🎯 En résumé :
Je me forme à l’IA pour combler mes lacunes, mieux comprendre les fondements du machine learning et, surtout, relier mes compétences de développeur à cette nouvelle dimension de l’intelligence logicielle.
Et oui, c’est un sacré défi — mais un défi passionnant.
Et vous, avez-vous déjà suivi une formation pour combler une lacune technique ? Quels sont vos retours d’expérience sur Scikit-Learn ou Kaggle ?
PS : Cette formation me sera aussi très utile pour ma plateforme de dégustation de vins.
L’idée ? Utiliser le machine learning pour analyser les profils gustatifs, prédire les accords mets-vins, et peut-être même recommander des bouteilles en fonction des préférences de chacun.
Un beau projet à venir, j’en reparlerai bientôt ! 🍷