La mémoire est désordonnée – pour les humains et l’IA | Par Thomas Elliott | Mai 2025

 La mémoire est désordonnée – pour les humains et l’IA | Par Thomas Elliott | Mai 2025


Vous vous préparez pour un voyage. Vous avez vos documents de voyage, vous avez vos bagages, vous passez par vos listes de contrôle et vous êtes coincé à vous demander si vous avez verrouillé la porte ou non. Ai-je verrouillé la porte? Le doute est un mécanisme de réflexion sur la pensée ou la métacognition. Votre cerveau surveille la fiabilité du rappel et de la signalisation vague ou incomplète ou de la signalisation de souvenir contradictoires que quelque chose nécessite une validation prolongée.

Dans le monde de l’IA, en particulier les modèles de langue (LLM), nous voyons le même problème – mais avec des conséquences encore plus graves. Les réseaux et les réseaux de neurones humides (biologiques) et les réseaux neuronaux à base de silicium (IA) luttent avec le rappel de manière similaire:

Oublier (limitations de fenêtres de contexte) – Les modèles d’IA, comme les humains, ont une mémoire à court terme limitée (fenêtre de contexte). Lorsque trop d’informations sont chargées, les anciens détails s’estompent ou se compressent dans des représentations abstraites.

Hallucinations (souvenirs fabriqués) – Dans la cognition humaine et l’IA, lorsque le rappel est incomplet, le système remplit les blancs avec les meilleures suppositions. Dans l’IA, cela se traduit par des hallucinations purs et simples, tandis que chez l’homme, cela conduit à de faux souvenirs.

Surcharge d’informations (entropie et hyper-connecté) – À mesure que les connexions augmentent, la difficulté de récupérer des connaissances précises et précises. Chez l’homme, cela provoque une paralysie d’analyse ou une fatigue cognitive. Dans le LLMS, il en résulte une dérive sémantique, où les modèles renvoient des faits approximatifs mais incorrects. Ce défi augmente de façon exponentielle à mesure que les modèles d’IA sont à l’échelle – conduisant à une précision diminuée, à une augmentation du coût de calcul et à un rappel peu fiable.

L’IA d’aujourd’hui ne stocke pas les connaissances de manière persistante – elle fonctionne de manière apatride, s’appuyant uniquement sur sa fenêtre de contexte. Une fois la conversation terminée, toutes les connaissances antérieures sont oubliées, sauf si elles sont rechargées explicitement. Même les solutions de génération (RAG) de la récupération (RAG), qui permettent à l’IA de récupérer les connaissances externes, luttent toujours parce que: le chiffon traditionnel utilise la récupération de vecteur basée sur les mots clés, qui est limitée lorsqu’il s’agit de relations complexes. Les données ne sont pas structurées pour la mémoire à long terme – les documents sont récupérés comme des morceaux isolés, perdant le contexte dans le temps. Aucune compréhension inhérente de la causalité, de la hiérarchie ou des relations profondes entre les concepts.

Graphrag (génération de récupération basée sur le graphique) introduit une manière plus structurée, relationnelle et persistante de gérer la mémoire d’IA. Au lieu de stocker et de récupérer des connaissances dans des morceaux isolés, il crée un graphique de concepts, entités et événements interconnectés.

Mémoire persistante et structurée – Au lieu de jeter un contexte après chaque interaction, Graphrag construit un graphique de connaissance qui conserve des relations entre les concepts au fil du temps.

Récupération plus précise – Contrairement à Standard RAG (qui utilise la recherche de mots clés ou les intégres), Graphrag récupère les connaissances basées sur des relations structurées – garantissant que le bon contexte est rappelé.

Réduit les hallucinations – En mettant la mise en œuvre des réponses dans des données structurées, Graphrag limite les erreurs spéculatives de «remplissage des blandons» auxquelles les LLM sont sujettes.

Connaissances évolutives – Au lieu de s’appuyer sur la récupération de documents linéaires, les graphiques de connaissances permettent à l’IA de traverser et de déduire les relations dynamiquement.

Si nous voulons que l’IA aide vraiment à la prise de décision, à la recherche et à la productivité personnelle, nous devons aller au-delà de la récupération plate des documents vers des mécanismes de rappel structurés, persistants et intelligents. Graphrag n’est pas seulement une amélioration progressive – c’est un changement fondamental dans la façon dont l’IA interagit avec les connaissances, reflétant la façon dont les humains récupèrent et traitent les informations.

Après être sorti de la voiture, montant 4 escaliers, je suis retourné à la porte. Il était en effet verrouillé. J’ai ouvert la porte, je l’ai remanié, je lui ai fait un test pour être verrouillé, puis j’ai pris une photo de ma porte confirmée pour être verrouillé en tant qu’appareil mnémonique. Pour la semaine prochaine, je ne me suis jamais demandé si ma porte était à nouveau déverrouillée.

Si vous lancez un projet d’IA ou des agents en développement, une technologie clé à inclure dans votre feuille de route est Graphrag et vous assurer que vous avez un modèle de connaissances en place qui sera en mesure d’aider vos agents à rappeler des faits. Au lieu de compter sur un modèle probabiliste de ce que pense un LLM, c’est le meilleur résultat, attacher un outil d’agent AI à un rappel de graphique interconnecté n’aide pas seulement les faits, mais la précision de tous les faits proches ou dépendants de ces faits. Chez Datanisé, nous pouvons vous aider avec le déploiement de la base de données de graphiques, le réglage et le modélisation des données pour les graphiques de connaissances et le graphrag.

Faites-vous confiance à une IA qui se souvient comme un humain – mais sans le biais cognitif et l’oubli? Graphrag nous rapproche un pas.



Source link

Related post