Ingénierie contextuelle dans l’IA: le vrai secret derrière les modèles de langage plus intelligents et plus utiles

 Ingénierie contextuelle dans l’IA: le vrai secret derrière les modèles de langage plus intelligents et plus utiles


Auteur (s): MD Rafsun Sheikh

Publié à l’origine sur Vers l’IA.

Source: LinkedIn

Découvrez comment l’ingénierie contextuelle transforme le comportement de l’IA, des agents plus intelligents aux meilleurs systèmes de chiffon. Structure invite maître, mémoire, etc. Oubliez le réglage fin. Parlons de contexte

Si vous avez déjà été frustré par des réponses vagues et robotiques de l’IA, il y a de fortes chances que le problème ne soit pas le modèle mais le contexte.

Bienvenue dans le monde de l’ingénierie contextuelle, où la magie ne réside pas dans la modification du poids d’un modèle mais en l’alimentant exactement ce dont il a besoin pour prospérer. Avec LLMS Comme GPT-4 et Claude deviennent centraux pour les applications modernes pour LLM Optimisation de contexte, le contexte est désormais l’outil le plus puissant que nous ayons pour guider le comportement de l’IA.

Confondu avec l’ingénierie rapide par rapport à l’ingénierie contextuelle ou à la génération auprès de la récupération? En bref, l’ingénierie contextuelle est la pratique de la conception du bon environnement pour qu’un modèle d’IA fonctionne. Il fonctionne dans les systèmes d’invite AI. Cela signifie:

Structuration invite.feeding des connaissances pertinentes. Décidez ce qu’il faut montrer (et quoi laisser de côté). Organisation du contenu par le temps, la pertinence ou le format.

Pensez-y comme la création d’un espace de travail pour un nouveau coéquipier. Attendez-vous à des résultats vagues si tout ce que vous leur donnez est une description de la tâche ambiguë. Mais avec des instructions claires, des travaux passés, des notes d’équipe et des outils appropriés? Ils feront des merveilles.

Source: Andrej Karpathy Twitter

Nous sommes à l’ère de… Lisez le blog complet gratuitement sur Medium.

Publié via Vers l’IA



Source link

Related post