Cette année, je participe pour la troisième fois au Deep Learning Indaba, cette fois à Kigali au Rwanda. À chaque édition, c'est avec un enthousiasme renouvelé que je franchis cette étape clé de mon parcours. En 2023, je faisais mes premiers pas maladroits dans le deep learning ; aujourd'hui, j'ai acquis une solide compréhension de ces concepts. Et cette année, une autre fierté s'ajoute : j'ai obtenu ma licence en mathématiques après cinq années d'études. Une étape académique qui marque non seulement la fin d'un chapitre, mais aussi le début d'une nouvelle aventure.
Pour moi, cet événement est bien plus qu'une conférence : c'est le point de jonction entre mon parcours universitaire ancré dans les mathématiques pures et mon apprentissage autonome du deep learning. Il y a encore quelques années, je reproduisais des tutoriels sans toujours saisir les fondements théoriques. Aujourd'hui, les mathématiques sont devenues ma clé pour décrypter l'IA. La descente de gradient, les matrices de transformation ou les probabilités — notions autrefois abstraites — prennent enfin tout leur sens dans mes projets concrets.
Avant 2022, expliquer l'intelligence artificielle était un exercice périlleux. À mes débuts, quand je décrivais mes projets de deep learning à mes proches, je rencontrais des regards perplexes. « L'IA, c'est comme dans les films de robots ? », me demandait-on. Les modèles connus étaient alors des prototypes obscurs, réservés aux laboratoires ou aux passionnés. Aujourd'hui, ChatGPT a tout changé : l'IA est devenue un sujet de conversation incontournable… mais cette popularité a un prix.
Avant, je devais justifier l'utilité de l'IA en partageant des exemples concrets : détection de maladies via des réseaux de neurones, optimisation agricole avec des algorithmes prédictifs. Aujourd'hui, peu importe le domaine abordé — santé, art, agriculture —, on me répond systématiquement : « Mais ChatGPT peut-il faire ça ? ».
Cette focalisation sur un seul modèle réduit l'IA à une boîte noire linguistique, occultant sa diversité. Par exemple, quand je présente un projet utilisant l'IA pour analyser des images satellitaires et prédire les sécheresses en Afrique, on me demande « Est-ce que c'est comme ChatGPT ? ». Non. La réussite de ChatGPT a rendu l'IA visible, mais elle a aussi étouffé la complexité de ses applications.
Pourquoi l'IA ? Tout part de ce que j'appelle une « hyperactivité cognitive » — un auto-diagnostic non validé par un professionnel, mais qui reflète ma soif de connexions transversales. Je m'intéresse à tout — musique, santé, art, agriculture — et je vois l'IA comme un pont entre ces univers. Contrairement à une fascination pour la technologie en elle-même, j'ai toujours eu un rapport matérialiste : l'IA n'est pas une fin, mais un outil pour relier mes passions.
Ma philosophie est simple : l'IA n'est pas magique — c'est une extension de ma curiosité. Je ne cherche pas à « remplacer l'humain », mais à dépasser mes limites individuelles. Comme un peintre utilise des pinceaux, je vois l'IA comme un instrument pour exprimer des idées qui dépassent ma seule expertise.
Mon approche matérialiste m'amène à un questionnement éthique et politique. Tout comme les armes à feu, l'IA n'est ni bonne ni mauvaise — c'est son usage qui compte. Mais contrairement aux armes, son impact est souvent invisible, ce qui rend le débat plus subtil.
Au début, j'ai négligé la théorie pour me concentrer sur les résultats immédiats. Aujourd'hui, certaines notions me semblent obscures parce que j'ai sauté des bases. La leçon est claire : sans fondations solides, l'IA n'est qu'un jeu de Lego sans notice de montage.
Pourtant, je ne regrette pas mon parcours. Ma licence en mathématiques m'a offert un avantage précieux : une capacité à analyser les algorithmes sous leur angle structurel, là où d'autres se contentent de copier-coller du code. Et inversement, le deep learning m'a redonné le plaisir des maths appliquées — une alchimie rare que je veux cultiver dans mon prochain défi.
Je rêve d'un cursus où l'on ne me demandera pas seulement de coder plus vite, mais de réfléchir plus loin. Un master en intelligence artificielle orienté recherche, où théorie et pratique dialoguent, où les équations côtoient le code, et où la rigueur scientifique n'est pas sacrifiée à la course aux applications immédiates.
J'ai besoin de comprendre pourquoi avant de savoir comment. Un programme qui mélange mathématiques, informatique et éthique, pour former non pas des « experts techniques », mais des penseurs critiques de l'IA. Parce que l'intelligence artificielle, pour moi, n'est pas une fin — c'est un pont entre les disciplines, un outil pour créer, comprendre, et agir avec responsabilité.
Dans les prochaines semaines, je souhaite approfondir ces réflexions dans un nouvel article : l'IA face au travail, à l'armement, ou à la préservation de la planète. Mais pour cela, j'ai besoin de vos questions, vos expériences.
Contactez-moi à hello@jonathansuru.me : Quel est votre rapport à l'IA ? Quels défis vous interpellent ? Des opportunités à partager ? Ensemble, construisons un débat qui compte.
J'espère que cet Indaba 2025 sera une nouvelle étape décisive. Pas seulement pour mon CV, mais pour l'IA que je veux contribuer à façonner : inclusive, responsable, et toujours curieuse.
Ma recommandation musicale du jour : à écouter sans modération !
Écouter sur YouTube