Pourquoi l’IA a besoin de plus de contexte humain: leçons des années dans le développement de l’apprentissage automatique | par MD Mahfuz RP | Mai 2025

L’intelligence artificielle a parcouru un long chemin. De battre les humains aux échecs à la génération de texte et d’art qui imitent la créativité humaine, on a l’impression que nous vivons dans le futur. Et pourtant, après des années de travail avec l’IA et les modèles d’apprentissage automatique, j’ai réalisé quelque chose d’important.
L’IA ne nous comprend pas vraiment. Pas encore.
Je suis impliqué dans l’IA et l’apprentissage automatique depuis longtemps. Non seulement la construction de modèles, mais observant comment ils se comportent dans le monde réel. J’ai vu l’excitation de la fondu de haute précision lorsqu’un modèle échoue en production. J’ai vu des équipes célébrer les mesures de performance tout en manquant le fait que leurs données ne reflètent pas les personnes pour lesquelles ils construisent.
Au fil du temps, une idée revient à moi:
Les meilleurs systèmes d’IA ne sont pas seulement techniquement puissants. Ils sont conscients du contexte humain dans lequel ils opèrent.
L’IA a progressé rapidement. Nous avons construit des modèles puissants en utilisant des transformateurs, des méthodes de diffusion et l’apprentissage du renforcement. Mais en cours de route, l’accent est mis plus à la performance que par le but. Un modèle avec une précision de 98% sur un ensemble de données peut encore être mal fonctionné lorsqu’il est déployé dans des situations réelles.
Pourquoi cela se produit-il?
Parce que les modèles manquent souvent de contexte. Et le contexte compte beaucoup plus que nous ne l’admettons parfois.
Permettez-moi de partager quelques choses qui continuent de se présenter dans mon expérience.
1. La qualité des données bat la quantité
Les grands ensembles de données semblent souvent impressionnants. Mais j’ai vu de petits ensembles de données soigneusement étiquetés fonctionner mieux dans les cas d’utilisation du monde réel. Pourquoi? Parce qu’ils représentent réellement les utilisateurs. Les performances réelles ne sont pas seulement une question de volume. Il s’agit de pertinence.
2. Le biais est toujours partout
Chaque ensemble de données est livré avec un biais. Parfois, c’est évident. D’autres fois, c’est subtil.
«Qui laissons-nous de côté?» est une question que j’ai appris à poser souvent.
J’ai travaillé avec des données qui favorisaient involontairement certaines régions, groupes d’âge ou tons de peau simplement en raison de la façon dont les données ont été collectées ou étiquetées. Ignorer le biais rend l’IA dangereuse et indigne de confiance.
3. L’explication est un must
Dans des domaines comme les soins de santé ou les finances, les gens ont besoin de plus que des prédictions – ils ont besoin justifications.
Les modèles de boîte noire peuvent être acceptables dans les applications occasionnelles, mais dans les domaines critiques, l’explication est tout aussi importante que la précision.
La confiance est gagnée par transparence. Les utilisateurs veulent savoir pourquoi Une IA a pris une décision.
4. La localisation est souvent ignorée
Une erreur majeure que j’ai vue est de supposer qu’une solution fonctionne partout.
Je me souviens d’un modèle d’analyse des sentiments qui a bien fonctionné aux États-Unis mais qui a complètement échoué en Asie du Sud. La raison? Il ne comprenait pas l’argot local, le ton ou les expressions.
La localisation n’est pas seulement la traduction – c’est comprendre les nuances culturelles.
Trop de projets d’IA sont développés isolément. Nous construisons des outils techniquement géniaux mais déconnectés des personnes qui les utiliseront réellement. Cela conduit à des produits intelligents en théorie mais inefficace ou même nocif dans pratique.
Un autre problème courant est confiance excessive dans généralisation. Ce n’est pas parce qu’un modèle fonctionne dans un endroit ou un domaine qu’il réussira dans un autre. Sans impliquer des experts du domaine, la collecte de commentaires et les tests dans des conditions réelles, il est facile de manquer la situation dans son ensemble.
Si nous voulons que l’IA fasse vraiment une différence, nous devons concevoir avec les gens à l’esprit. Cela signifie:
- Travailler avec diverses équipes
- Prêter plus d’attention à la collecte de données
- Construire des boucles de rétroaction
- Évaluation de l’éthique et de la transparence
- Tests dans des conditions réelles, pas seulement sur les repères
Nous devons également collaborer davantage avec des experts en dehors du monde de la technologie. Les psychologues, les sociologues, les éducateurs, les agents de santé – ils ont tous des idées qui peuvent aider à rendre l’IA plus utile et responsable.
L’IA a un potentiel incroyable, mais sans contexte humain, même les meilleurs modèles peuvent échouer. Après des années de travail dans ce domaine, je crois que l’avenir de l’IA dépend non seulement des algorithmes plus intelligents mais d’une compréhension plus approfondie.
Si nous pouvons rassembler la puissance de l’apprentissage automatique avec la sagesse des besoins humains réels, nous construire des systèmes d’IA qui sont non seulement intelligents mais aussi significatifs.
Si vous avez apprécié ce post ou si vous souhaitez en discuter davantage sur l’IA et l’apprentissage automatique, n’hésitez pas à vous connecter avec moi:
Je partage souvent des idées, des expériences et des réflexions sur l’IA, la technologie et l’apprentissage tout au long de la vie.
Merci d’avoir lu!