« Là où certains voient des colonnes et des lignes, le data scientist voit des histoires à révéler, des vérités à dévoiler. Il transforme les données brutes en décisions stratégiques, éclaire les enjeux, anticipe les tendances et crée de la valeur mesurable pour l’entreprise. »
Exploration, nettoyage et visualisation des données pour comprendre les tendances et détecter les anomalies.
Développement de modèles de machine learning pour prédire des résultats (ventes, churn, ...).
Application d’algorithmes supervisés pour résoudre des problèmes concrets (ex : détection de fraude, estimation de prix).
Test des performances des modèles à l’aide de métriques standards et ajustement des hyperparamètres.
Regrouper les clients selon leurs comportements pour personnaliser les actions marketing.
Je ne suis pas encore un expert chevronné… mais je suis un apprenant rapide, motivé et engagé dans un parcours sérieux pour le devenir.
Capable d’apprendre par moi-même, je développe constamment mes compétences en data science, en IA et en visualisation.
Je sais travailler en équipe, écouter les besoins, et m’adapter rapidement aux outils et aux méthodes de travail.
Je vois chaque projet comme une opportunité d’apprendre, de grandir et d’apporter de la valeur.
Voici un aperçu de mes expériences professionnelles, notamment dans l’enseignement de l’informatique et ma reconversion vers les métiers de la data.
Actuellement
INSI
Je me forme activement aux domaines de l’intelligence artificielle, du machine learning et de la data science à travers des projets concrets, des cours en ligne, et des expérimentations avec Python, Pandas, NumPy, et les bibliothèques de visualisation.
Septembre 2024 – Juin 2025
Lycée Catholique Saint Michel Itaosy, Madagascar
Enseignement de l’informatique bureautique (Word et Excel) aux classes de Seconde et Première, encadrant plus de 1000 élèves adolescents. Expérience marquante qui a renforcé mes compétences pédagogiques, ma communication, et mon adaptabilité face à des profils variés.
2024
CJA Change
Développement d’une application locale de gestion de change (devises) sur WinDev. Ce projet m’a permis de consolider mes compétences en développement logiciel, en logique métier, ainsi qu’en conception d’interfaces utilisateurs.
Issu d’une formation initiale en développement informatique, je me spécialise actuellement en intelligence artificielle et data science afin d’élargir mes compétences techniques et de répondre aux besoins croissants du secteur numérique.
2025
INSI - Institut National Supérieur d'Informatique
Actuellement, je me spécialise dans les domaines de la data science, l’analyse de données, l’ingénierie des données, le machine learning, le big data et le cloud computing, développant ainsi des compétences techniques avancées pour les métiers de l’IA et de la data.
2023 - 2024
ISSIG - Infocentre de La Salle
Formation axée sur le développement logiciel, l’administration de systèmes et la gestion de projets numériques, offrant aux étudiants une solide base technique et méthodologique pour répondre aux défis actuels de l’informatique.
2019 - 2022
ISSIG - Infocentre de La Salle
Formation centrée sur la conception, le développement et la maintenance d’applications informatiques, offrant une solide maîtrise des langages de programmation, des bases de données et des méthodologies de gestion de projets.
2017 - 2019
Oniversity Ravelojaona
Formation centrée sur les techniques d’imagerie médicale, la manipulation des équipements électroradiologiques, ainsi que la sécurité et la gestion des patients dans le cadre des examens radiologiques.
2013 - 2016
Lycée St Michel
En tant que Data Scientist & Développeur, je maîtrise des technologies variées allant de la manipulation de données à la conception d'applications performantes.
Kivy
Seaborn
Power BI
Passionné par la donnée et le développement, je suis un data scientist et développeur polyvalent, capable de transformer les données en solutions concrètes. J’aime concevoir des modèles prédictifs, analyser des ensembles complexes et développer des applications web performantes. Curieux, rigoureux et toujours en veille technologique, je m'investis pleinement dans chaque projet pour livrer des résultats à forte valeur ajoutée.
Nom ANDRIATSIFERANA No Kanto Lorida
Genre Femme
Age 24 ans
StatutMarié
Ville Antananarivo
NationalitéMalagasy
Temps partiel Disponible
Téléphone(+261) 34 90 900 26
Email
kantonotsiferana@gmail.com
kantolorida@gmail.com
Langues Malgache, Français, Anglais, Japonais
01
Space Odyssey est un jeu 3D palpitant développé en Python avec le framework Kivy. Il plonge le joueur dans un tunnel spatial infini où il doit piloter un vaisseau futuriste en évitant les obstacles et les parois du tunnel à toute vitesse. Le gameplay est fluide et nerveux, avec des graphismes en perspective 3D, des effets sonores immersifs et une bande-son spatiale originale. Grâce à son moteur optimisé, le jeu fonctionne à 60 FPS et offre une expérience fluide sur PC comme sur mobile.
Le joueur peut contrôler le vaisseau avec les flèches directionnelles (sur desktop) ou par simple toucher (sur mobile). Le score augmente à mesure que l'on avance, et un écran de fin affiche les performances. L’interface utilisateur est entièrement conçue avec Kivy, incluant des animations, des menus interactifs, et une gestion des collisions efficace.
Ce projet met en œuvre des transformations mathématiques pour simuler la perspective 3D, des effets visuels dynamiques, des sons événementiels, et une architecture modulaire du code (séparant logique, interface, contrôles et audio). Idéal pour démontrer mes compétences en développement Python, conception UI, logique de jeu et optimisation multiplateforme.
Python, Kivy, Audio FX, 3D Perspective, Game Loop, UI/UX
02
Ce projet met en œuvre une application web interactive permettant d’estimer le prix d’un smartphone à partir de ses caractéristiques techniques. Grâce à un modèle de machine learning entraîné sur un dataset réel, l'utilisateur peut entrer des données comme la marque, la batterie, la RAM, le processeur ou la taille d'écran, et obtenir instantanément une prédiction du prix.
L’interface, développée avec Streamlit, est simple, intuitive et accessible en ligne. Elle intègre un affichage dynamique de la prédiction sous forme de graphique, renforçant l’expérience utilisateur.
L’ensemble du pipeline de machine learning est optimisé : nettoyage des données, encodage des variables, normalisation, entraînement d’un modèle de régression (Random Forest), et sauvegarde des artefacts via Pickle/Joblib.
Ce projet démontre mes compétences en Data Science, en développement d’application IA, ainsi qu’en déploiement web avec Streamlit Cloud.
Python, Pandas, Scikit-learn, Streamlit, Joblib
03
LALÀNAKO est un assistant juridique intelligent qui permet de :
- visualiser un texte juridique existant,
- faire défiler (scroll) l’article ou la notion,
- obtenir une explication simple en malagasy sur demande,
- sans donner de conseils juridiques illégaux ni personnalisé
React.js, FastAPI, LLM Gemini
04
Ce projet met en place un pipeline ETL complet couplé à un entrepôt de données décisionnel,
conçu pour analyser les ventes, le comportement client et les performances produit d'une
chaîne de supermarchés française. Il repose sur un schéma en étoile (Star Schema) avec
une table de faits centrale (50 000 transactions) reliée à 4 dimensions : Temps, Produit,
Client et Magasin.
Le pipeline couvre les trois phases ETL : l'Extraction des données (générées de façon
réaliste via Faker et NumPy), la Transformation incluant le nettoyage, la validation,
l'enrichissement (tranches d'âge, remises fidélité de 0 à 15%, surrogate keys), et enfin
le Chargement ordonné dans PostgreSQL avec indexation pour des performances optimisées
(gain de 10x à 100x sur les requêtes).
Des analyses OLAP multidimensionnelles ont été réalisées via des requêtes SQL complexes :
Top 10 produits par chiffre d'affaires, évolution mensuelle du CA, analyse de la saisonnalité
et segmentation client (Bronze, Silver, Gold, Platinum). Les résultats sont restitués sous
forme de tableaux de bord interactifs avec Matplotlib et Seaborn, démontrant des compétences
complètes en ingénierie de données, modélisation dimensionnelle et analyse décisionnelle.
Python, PostgreSQL, Pandas, SQLAlchemy, Matplotlib, Seaborn, Faker, Jupyter Notebook, SQL OLAP, Star Schema
05
Vary-IA est un système d'intelligence artificielle hybride conçu pour diagnostiquer
les maladies des feuilles de riz à Madagascar, depuis un simple smartphone Android.
Il combine deux sources d'information : la photo d'une feuille de riz et les données
climatiques des 7 derniers jours, afin d'identifier 4 maladies critiques —
Bacterialblight, Blast, Brownspot et Tungro — qui ravagent jusqu'à 40% des rendements
chaque année.
L'architecture hybride repose sur deux branches complémentaires : un CNN MobileNetV2
(Transfer Learning + Fine-Tuning) pour l'analyse visuelle des feuilles, et un
BiGRU bidirectionnel pour l'analyse des séquences climatiques (température et humidité).
Les deux branches fusionnent leurs vecteurs de features pour produire un diagnostic
final avec un niveau de confiance. Le modèle atteint 99.55% d'accuracy pour le CNN
seul et 99.04% pour le modèle hybride, entraînés sur 26 682 images (augmentation ×5)
et 2 000 entrées météo réelles.
Un Denoising Autoencoder (DAE) est intégré en bonus pour améliorer la qualité des
images dégradées sur le terrain (flou, bruit, contre-jour). Les modèles sont convertis
en TFLite (~12 MB après quantization INT8) pour un déploiement offline sur Android,
avec une inférence inférieure à 300ms. Ce projet illustre mes compétences en Deep
Learning multimodal, Transfer Learning, traitement de séries temporelles et
déploiement mobile au service d'un impact social concret.
Python, TensorFlow, MobileNetV2, BiGRU, Transfer Learning, TFLite, Google Colab, NumPy, Matplotlib
06
Ce projet implémente et compare six architectures de réseaux de neurones convolutifs
(CNN) pour la classification binaire du genre (Homme / Femme) à partir d'images
faciales issues du dataset CelebA (1 813 images, 128×128). L'objectif principal est
d'évaluer les différences de performance entre des CNN entraînés from scratch et des
modèles pré-entraînés via Transfer Learning, sur un dataset de taille limitée.
Deux CNN from scratch (Baseline CNN et Deep CNN avec Batch Normalization) ont été
comparés à quatre architectures pré-entraînées : VGG16, ResNet50, MobileNetV2 et
EfficientNetB0, toutes fine-tunées pour la classification binaire. Le pipeline
d'entraînement inclut augmentation de données (rotation, zoom, flips), optimiseur
Adam, EarlyStopping et ReduceLROnPlateau. Les résultats confirment que le Transfer
Learning surpasse significativement les CNN from scratch en termes de convergence,
de généralisation et de stabilité.
Les architectures légères MobileNetV2 et EfficientNetB0 offrent le meilleur compromis
précision / coût computationnel, tandis que les CNN from scratch nécessitent une
régularisation soignée pour éviter le surapprentissage. Ce projet illustre une
méthodologie d'expérimentation rigoureuse et reproductible, démontrant mes compétences
en Computer Vision, benchmarking de modèles Deep Learning et fine-tuning de
backbones CNN pré-entraînés.
Python, TensorFlow, Keras, VGG16, ResNet50, MobileNetV2, EfficientNetB0, Transfer Learning, Google Colab, Matplotlib