5 façons rapides de modifier votre utilisation de l’IA pour de meilleurs résultats – et une expérience plus sûre

 5 façons rapides de modifier votre utilisation de l’IA pour de meilleurs résultats – et une expérience plus sûre


Hill Street Studios / Getty Images

Il est de plus en plus difficile d’éviter technologie artificielle (AI) car il devient plus courant. Un excellent exemple est les recherches Google présentant des réponses AI. La sécurité de l’IA est plus importante que jamais à l’ère de l’omniprésence technologique. Donc, en tant qu’utilisateur de l’IA, comment pouvez-vous utiliser en toute sécurité AI génératif (Gen Ai)?

Aussi: Voici pourquoi vous devriez ignorer 99% des outils d’IA – et que les quatre j’utilise tous les jours

Carnegie Mellon School of Informatique Professeurs adjoints en informatique Maarten SAP et Sherry Tongshuang Wu se sont rendus à la scène SXSW pour informer les gens des lacunes des modèles de grandes langues (LLM), le type de modèle d’apprentissage automatique derrière les outils génératifs populaires, tels que Chatteet comment les gens peuvent exploiter ces technologies plus efficacement.

« Ils sont super, et ils sont partout, mais ils sont en fait loin d’être parfaits », a déclaré Sap.

Les ajustements que vous pouvez mettre en œuvre dans vos interactions quotidiennes avec l’IA sont simples. Ils vous protégeront des lacunes de l’IA et vous aideront à tirer le meilleur parti de CHATBOTS AIy compris des réponses plus précises. Continuez à lire pour en savoir plus sur les cinq choses que vous pouvez faire pour optimiser votre utilisation de l’IA, selon les experts.

1. Donnez de meilleures instructions sur l’IA

En raison des capacités de conversation de l’IA, les gens utilisent souvent des invites sous-spécifiées et plus courtes, comme discuter avec un ami. Le problème est que, en cas d’instructions, les systèmes d’IA peuvent déduire la signification de votre texte invite de manière incorrecte, car ils n’ont pas les compétences humaines qui leur permettraient de lire entre les lignes.

Pour illustrer ce numéro, dans leur session, SAP et WU ont dit à un chatbot qu’ils lisaient un million de livres, et le chatbot l’a pris littéralement au lieu de comprendre que la personne était superflue. SAP a partagé que dans ses recherches, il a constaté que les LLM modernes ont du mal à comprendre les références non littérales d’une manière littérale plus de 50% du temps.

Aussi: L’IA peut-elle suralimenter la créativité sans voler des artistes?

La meilleure façon de contourner ce problème est de clarifier vos invites avec des exigences plus explicites qui laissent moins de place à l’interprétation ou à l’erreur. Wu a suggéré de penser aux chatbots comme assistants, en les instruisant clairement sur exactement ce que vous voulez faire. Même si cette approche peut nécessiter plus de travail lors de la rédaction d’une invite, le résultat doit s’aligner davantage sur vos besoins.

2. Vérifiez vos réponses

Si vous avez déjà utilisé un chatbot AI, vous savez qu’ils hallucinerqui décrit la sortie des informations incorrectes. Les hallucinations peuvent se produire de différentes manières, soit la production de réponses factuellement incorrectes, résumant incorrectement les informations données, soit en accord avec de faux faits partagés par un utilisateur.

SAP a déclaré que les hallucinations se produisent entre 1% et 25% du temps pour les cas d’utilisation généraux et quotidiens. Les taux d’hallucination sont encore plus élevés pour des domaines plus spécialisés, tels que le droit et la médecine, à plus de 50%. Ces hallucinations sont difficiles à repérer car elles sont présentées d’une manière qui semble plausible, même si elles sont absurdes.

Aussi: Les agents de l’IA ne sont pas seulement des assistants: comment ils changent l’avenir du travail aujourd’hui

Les modèles réaffirment souvent leurs réponses, en utilisant des marqueurs tels que «je suis confiant» même lorsqu’ils offrent des informations incorrectes. UN document de recherche Cité dans la présentation selon les modèles d’IA étaient certains mais incorrects quant à leurs réponses 47% du temps.

En conséquence, la meilleure façon de protéger contre les hallucinations est de revérifier vos réponses. Certaines tactiques incluent la vérification de votre sortie avec des sources externes, telles que Google ou les médias en qui vous avez confiance, ou en demandant à nouveau au modèle, en utilisant différents libellés, pour voir si l’IA publie la même réponse.

Bien qu’il puisse être tentant d’obtenir l’assistance de Chatgpt avec les sujets que vous ne connaissez pas beaucoup, il est plus facile d’identifier les erreurs si vos invites restent dans votre domaine d’expertise.

3. Gardez les données dont vous vous souciez

Les outils Gen AI sont formés sur de grandes quantités de données. Ils nécessitent également des données pour continuer à apprendre et devenir des modèles plus intelligents et plus efficaces. En conséquence, les modèles utilisent souvent leurs résultats pour une formation plus approfondie.

Aussi: Cette nouvelle IA Benchmark mesure combien de modèles se trouvent

Le problème est que les modèles régurgitent souvent leurs données de formation dans leurs réponses, ce qui signifie que vos informations privées pourraient être utilisées dans les réponses de quelqu’un d’autre, exposant vos données privées à d’autres. Il existe également un risque lors de l’utilisation d’applications Web, car vos informations privées laissent votre appareil à traiter dans le cloud, ce qui a des implications en matière de sécurité.

La meilleure façon de maintenir une bonne hygiène d’IA est d’éviter de partager des données sensibles ou personnelles avec les LLM. Il y aura des cas où l’assistance que vous souhaitez peut impliquer l’utilisation de données personnelles. Vous pouvez également expulser ces données pour vous assurer d’obtenir de l’aide sans risque. De nombreux outils d’IA, y compris Chatgpt, ont des options qui permettent aux utilisateurs de se retirer de la collecte de données. Le retrait est toujours une bonne option, même si vous ne prévoyez pas d’utiliser des données sensibles.

4. Regardez comment vous parlez de LLMS

Les capacités des systèmes d’IA et la capacité de parler à ces outils en utilisant le langage naturel ont conduit certaines personnes à surestimer la puissance de ces robots. L’anthropomorphisme, ou l’attribution des caractéristiques humaines, est une pente glissante. Si les gens considèrent ces systèmes d’IA comme adjacents humains, ils peuvent leur faire confiance avec plus de responsabilités et de données.

Aussi: Pourquoi les nouveaux outils d’agent d’IA d’Openai pourraient changer la façon dont vous codez

Selon les experts. Au lieu de dire: « Le modèle pense que vous voulez une réponse équilibrée », SAP a suggéré une meilleure alternative: « Le modèle est conçu pour générer des réponses équilibrées en fonction de ses données de formation. »

5. Réfléchissez soigneusement quand utiliser les LLM

Bien qu’il puisse sembler que ces modèles peuvent aider avec presque toutes les tâches, il existe de nombreux cas dans lesquels ils peuvent ne pas être en mesure de fournir la meilleure aide. Bien que les repères soient disponibles, ils ne couvrent qu’une petite proportion de la façon dont les utilisateurs interagissent avec les LLM.

Aussi: Même les outils d’IA premium déforment les nouvelles et fabriquent des liens – ce sont les pires

Les LLM peuvent également ne pas fonctionner le mieux pour tout le monde. Au-delà des hallucinations discutées ci-dessus, il y a eu des cas enregistrés dans lesquels les LLM prennent des décisions racistes ou soutiennent les biais centrés sur l’Ouest. Ces biais montrent que les modèles peuvent être inaptes à aider dans de nombreux cas d’utilisation.

En conséquence, la solution est d’être réfléchi et prudente lors de l’utilisation de LLMS. Cette approche comprend l’évaluation de l’impact de l’utilisation d’un LLM pour déterminer s’il s’agit de la bonne solution à votre problème. Il est également utile de voir quels modèles excellent dans certaines tâches et d’utiliser le meilleur modèle pour vos besoins.





Source link

Related post