Problem solving : l'IA peut-elle aider ?
LA FAM IA #8 | Matthieu Chéreau
Voici un nouvel article de « LA FAM IA », où je partage mes aventures en famille avec l’intelligence artificielle. Entre expériences ludiques, découvertes technologiques et moments complices, j’y raconte comment l’IA devient un terrain de jeu et d’apprentissage pour mes enfants et moi. Cette newsletter prolonge l’esprit de mon essai “Préparons nos enfants à demain” et s’inscrit plus largement dans les initiatives de La FAM IA.
Bonjour à tous,
La plupart d’entre vous êtes probablement en congés, bien au chaud, à méditer sur l’année passée, sur le lot de petites joies et de grands bouleversements qu’elle a apporté.
Ce qui m’a frappé cette année, c’est à la fois la rapidité et la profondeur avec laquelle les changements surviennent dans le monde du travail. 2025 fut pour beaucoup l’année de la prise de conscience. Sans que chacun ne sache trop comment s’adapter, ni a fortiori comment aider ses proches à le faire.
2026 devra être le passage à l’action. On passe des questions entre parents, à l’action. L’objectif de La FAM AI dans ce contexte sera de favoriser ce passage à l’action, dans la joie et la bonne humeur !
Ces grands bouleversements suscitent parfois des comportements curieux : certains sont comme une poule devant un couteau. D’autres font l’autruche. Il faut dire que l’IA pose des grands problèmes : en termes d’économie, de sécurité, de démocratie…raison pour laquelle j’ai trouvé intéressant cette semaine de parler de problem solving. Si l’IA pose des problèmes, peut-elle aussi aider nos enfants à les résoudre ?
Imaginez une classe. Pas un contrôle, pas une leçon “à réciter”. Une situation.
Les élèves habitent un village au bord d’un lac. Dans ce village, la majorité des adultes travaillent dans une usine. Problème : l’usine pollue le lac et, lentement, tue toute forme de vie. Les enfants voient l’eau changer, la biodiversité s’éteindre, la beauté du lieu s’abîmer.
Alors, que faire ?
Fermer l’usine, c’est mettre la plupart des habitants au chômage. Des familles entières basculent.
Ne pas la fermer, c’est condamner le lac — et avec lui, la santé, l’environnement, la vie du village.
Il n’y a pas de “bonne” solution évidente. Il n’y a que des arbitrages, des conséquences, des valeurs qui s’entrechoquent. Et c’est précisément le but : confronter nos enfants à des problèmes réalistes, là où la réponse n’est pas une formule… mais un choix argumenté.
C’est ce type de mise en situation — presque un jeu de rôles, mais terriblement sérieux — que je décrivais dans “Préparons nos enfants à demain”, en parlant de l’école Ad Astra. À Ad Astra, les élèves apprenaient (l’école a depuis fermé) à résoudre des cas complexes en équipe. Ils discutaient, s’opposaient, s’écoutaient. Ils apprenaient à penser… sous pression, comme dans la vraie vie.
Et aujourd’hui, une question s’impose : à l’ère de l’intelligence artificielle, l’IA peut-elle aider nos enfants à devenir meilleurs “problem solvers” ? Pas comme une béquille. Pas comme une “machine à réponses”. Mais comme un coéquipier de raisonnement, qui pousse à observer, questionner, nuancer — et à rester maître de sa pensée.
L’enjeu n’est pas d’aller plus vite. C’est de transformer la façon dont les enfants observent un problème, formulent des hypothèses et testent des solutions — tout en gardant l’humain aux commandes.
Voici comment l’IA peut jouer ce rôle, avec des exemples concrets et des garde-fous essentiels.
1. Ce que l’IA apporte au problem solving
Une pensée plus structurée et logique
L’IA oblige les enfants à découper les problèmes en étapes claires — et ça change tout. Parce qu’un LLM lui, ne “devine” pas : il a besoin qu’on lui dise quoi regarder, comment décider, et comment vérifier. Autrement dit, il pousse l’enfant à passer d’un réflexe (« je tente un truc ») à une méthode (« j’observe, j’hypothèse, je teste, j’améliore »).
Prenez l’exemple d’un chatbot conçu pour expliquer un concept scientifique. Sur le papier, c’est simple : “un robot qui répond”. Dans la réalité, c’est une mini-enquête :
Clarifier le problème : à qui parle le chatbot (un élève de CM2, un collégien, un adulte) ? Qu’est-ce qu’il doit vraiment expliquer (le concept, ou les erreurs fréquentes) ?
Structurer la réponse : quelles étapes ? quels exemples ? quelles analogies ? quelles limites ?
Anticiper les questions : “Et si l’utilisateur ne comprend pas ?” “Et s’il pose une question de travers ?” “Et s’il confond deux notions ?”
Tester et corriger : quand le chatbot se trompe ou répond trop vaguement, l’enfant doit trouver où ça a déraillé (mauvaise consigne, manque d’exemples, définition floue) et itérer.
Ce genre d’activité développe un raisonnement logique pas à pas, bien au-delà de l’intuition : on apprend à penser en “si… alors…”, à découper, à hiérarchiser, à vérifier.
On retrouve la même mécanique avec des outils très accessibles, comme un modèle d’images qui reconnaît des déchets recyclables : il faut choisir des catégories, comparer des exemples, repérer des patterns, accepter que le modèle se trompe, et comprendre pourquoi.
Pourquoi ça marche ?
Parce que l’IA rend visible une idée essentielle : une bonne solution commence presque toujours par une bonne formulation du problème. Et quand l’enfant s’habitue à formuler, structurer, tester, corriger, il construit un réflexe précieux : ne pas foncer vers la “bonne réponse”, mais bâtir un chemin. Exactement ce dont on a besoin face à des dilemmes complexes — comme ceux rencontrés à Ad Astra.
De la « réponse toute faite » à la réflexion critique
Les activités les plus enrichissantes ne demandent pas à l’IA de fournir la solution, mais de proposer des pistes à analyser, critiquer ou améliorer. Par exemple :
Des collégiens utilisent un modèle de langage pour générer plusieurs plannings de révision, puis comparent les options, repèrent les biais (manque de pauses, optimisme excessif) et négocient en groupe une version réaliste.
Résultat : L’IA n’est plus un raccourci, mais un prolongement de leur propre raisonnement et une manière d’en explorer les possibles ramifications.
2. Quelques projets concrets
Reconnaître les déchets recyclables
Problème : à l’école, le tri est “théorique”… et dans les faits, on se trompe souvent (par habitude, par doute, par manque d’exemples).
Usages de l’IA : les élèves entraînent un petit modèle de reconnaissance d’images : ils collectent des photos, définissent des catégories (papier, plastique, métal…), testent, puis analysent les erreurs du modèle pour améliorer le jeu de données.
Compétences développées : logique, analyse de données, esprit critique (pourquoi ça se trompe ?), engagement citoyen (le tri devient un vrai sujet d’action).
Pour aller plus loin : AI for Oceans : Nettoyer les océans
Réduire le gaspillage à la cantine
Problème : chaque midi, on jette trop — mais personne ne sait exactement quoi, quand et pourquoi (portion, menu, organisation, temps de passage…).
Usages de l’IA : l’IA sert d’outil d’exploration : on l’utilise pour générer des hypothèses, proposer des solutions testables (nouveau parcours, affichage, portions modulées), et aider à prototyper (scripts, questionnaires, tableaux de suivi).
Compétences développées : créativité, prototypage, évaluation de faisabilité, raisonnement “cause → conséquence”, travail d’équipe (on confronte les idées au terrain).
Surveiller la santé des plantes de la cour
Problème : les plantes dépérissent, mais on ne sait pas si c’est l’arrosage, le sol, l’ombre, la saison… ou un mélange de tout ça.
Usages de l’IA : les élèves collectent des données simples (photos, météo, fréquence d’arrosage), entraînent un modèle basique, puis présentent leurs choix : quelles variables comptent ? quelles limites ? quels tests supplémentaires faut-il faire ?
Compétences développées : observation, rigueur, démarche scientifique, explicitation (argumenter ses décisions), confiance (oser proposer une solution et l’améliorer).
Pour aller plus loin : Rapport Nord Anglia Education
3. Comment démarrer ?
Choisir un projet concret : Tri des déchets, gestion du temps, inclusion… L’IA doit servir un objectif pédagogique clair.
Cadrer la démarche :
Étape 1 : Définir le problème sans l’IA (ex : « Comment mieux trier à l’école ? »).
Étape 2 : Utiliser l’IA pour explorer des solutions (ex : entraîner un modèle avec Teachable Machine pour la reconnaissances de déchets à la cantine).
Étape 3 : Critiquer et améliorer les propositions de la machine.
Valoriser l’erreur : Comme à Ad Astra, chaque échec devient une piste d’exploration.
4. Enjeux à long terme : former des citoyens actifs
Au fond, tout revient à une question de citoyenneté. Dans “Préparons nos enfants à demain”, je défendais l’idée qu’il ne s’agit pas seulement de préparer nos enfants à “réussir”, mais de leur donner les moyens de s’inscrire librement dans l’avenir — et de le construire, plutôt que de le subir.
Le rapport de l’UNESCO « Génération IA » dit la même chose, avec ses mots : si l’IA s’invite partout, l’école (et nous, parents) doit former des enfants capables de questionner, adapter et inventer, pas des utilisateurs dociles.
C’est là que le problem solving devient politique : apprendre à peser des conséquences, débattre, arbitrer — comme dans le dilemme du lac contaminé —, puis agir en conscience. L’IA, bien cadrée, peut être un formidable outil de méthode pour nourrir cette lucidité… à condition qu’elle renforce l’autonomie, et ne la remplace jamais.
Bon week-end à toutes et à tous !



