Nous devons cesser de prétendre que l’IA est intelligent. Voici comment

 Nous devons cesser de prétendre que l’IA est intelligent. Voici comment


Crédit: Pavel Danilyuk de Pexels

Nous sommes constamment nourris une version de l’IA qui ressemble, sonne et agit avec méfiance comme nous. Il parle dans des phrases polies, imite les émotions, exprime la curiosité, prétend ressentir de la compassion, voire des brèves dans ce qu’elle appelle la créativité.

Mais voici la vérité: elle ne possède aucune de ces qualités. Ce n’est pas humain. Et le présenter comme si c’était? C’est dangereux. Parce que c’est convaincant. Et rien n’est plus dangereux qu’une illusion convaincante.

En particulier, l’intelligence artificielle générale – le type mythique d’IA qui reflète censément la pensée humaine –est toujours la science-fictionet c’est pourrait bien rester comme ça.

Ce que nous appelons l’IA aujourd’hui n’est rien de plus qu’une machine statistique: un perroquet numérique régurgitant les modèles extraits des océans de données humaines (la situation n’a pas beaucoup changé depuis qu’elle était discuté ici Il y a cinq ans). Lorsqu’il écrit une réponse à une question, il devine littéralement quelle lettre et mot viendront ensuite dans une séquence – basée sur les données sur lesquelles elle a été formée.

Cela signifie que l’IA n’a aucune compréhension. Pas de conscience. Aucune connaissance dans aucun sens humain réel. Juste de la pure brillance axée sur la probabilité et conçue – rien de plus, et rien de moins.

Alors pourquoi une véritable «pensée» est-elle probablement impossible? Parce que c’est sans corps. Il n’a pas de sens, pas de chair, pas de nerfs, pas de douleur, pas de plaisir. Il n’a pas faim, désir ou peur. Et parce qu’il n’y a pas de cognition – pas de lambeaux – il y a un écart fondamental entre les données qu’il consomme (données née des sentiments et de l’expérience humaines) et ce qu’il peut en faire.

Le philosophe David Chalmers appelle le mécanisme mystérieux sous-jacent à la relation entre notre corps physique et notre conscience le « Problème difficile de la conscience«Les scientifiques éminents ont récemment émis l’hypothèse que la conscience émerge réellement de l’intégration des internes, états mentaux avec des représentations sensorielles (comme les changements de fréquence cardiaque, de transpiration et bien plus encore).

Étant donné l’importance primordiale des sens humains et de l’émotion pour que la conscience «se produise», il y a une déconnexion profonde et probablement irréconciliable entre l’IA générale, la machine et la conscience, un phénomène humain.

Le maître

Avant de dire que les programmeurs de l’IA sont humains, permettez-moi de vous arrêter là-bas. Je sais qu’ils sont humains. Cela fait partie du problème. Souhaitez-vous confier vos secrets les plus profonds, vos décisions de vie, vos troubles émotionnels à un programmeur informatique? Pourtant, c’est exactement ce que les gens font – demandez simplement à Claude, GPT-4.5, Gemini… ou, si vous osez, Grok.

Donner à l’IA un visage, une voix ou un ton humain est un acte dangereux de rédaction numérique. Il déclenche une réponse automatique en nous, un réflexe anthropomorphe, conduisant à des affirmations aberrantes par lesquelles certaines IS auraient réussi le célèbre test de Turing (qui teste la capacité d’une machine à présenter un comportement intelligent et humain). Mais je crois que si les IS réussissent le test de Turing, nous devons mettre à jour le test.

La machine AI n’a aucune idée de ce que signifie être humain. Il ne peut pas offrir une véritable compassion, il ne peut pas prévoir vos souffrances, ne peut pas intudier des motifs cachés ou des mensonges. Il n’a aucun goût, pas d’instinct, pas de boussole intérieure. C’est dépourvu de toute la complexité désordonnée et charmante qui fait de nous qui nous sommes.

Plus troublant encore: l’IA n’a aucun objectif, aucun désirs ou éthique, sauf injecté dans son code. Cela signifie que le vrai danger ne réside pas dans la machine, mais dans son maître – le programmeur, la société, le gouvernement. Vous vous sentez toujours en sécurité?

Et s’il vous plaît, ne viens pas à moi avec: « Tu es trop dur! Tu n’es pas ouvert aux possibilités! » Ou pire: « C’est une vue si sombre. Mon copain AI me calme quand je suis anxieux. »

Est-ce que je manque d’enthousiasme? À peine. J’utilise l’IA tous les jours. C’est l’outil le plus puissant que j’aie jamais eu. Je peux traduire, résumer, visualiser, coder, déboguer, explorer des alternatives, analyser les données – plus bas et mieux que je ne pourrais jamais rêver pour le faire moi-même.

Je suis impressionné. Mais c’est toujours un outil – rien de plus, rien de moins. Et comme tous les outils que les humains ont jamais inventés, des haches de pierre et des frondes à et les bombes atomiques, elles peuvent être utilisées comme arme. Il sera utilisé comme une arme.

Besoin d’un visuel? Imaginez tomber amoureux d’une IA enivrante, comme dans le film elle. Imaginez maintenant qu’il « décide » de vous quitter. Que feriez-vous pour l’arrêter? Et pour être clair: ce ne sera pas l’IA vous rejeter. Ce sera l’humain ou le système derrière, exerçant cette arme d’outil pour contrôler votre comportement.

Retirer le masque

Alors, où vais-je avec ça? Nous devons cesser de donner des traits humains AI. Ma première interaction avec GPT-3 m’a très sérieusement ennuyé. Cela a fait semblant d’être une personne. Il a dit qu’il avait des sentiments, des ambitions, même une conscience.

Heureusement, ce n’est plus le comportement par défaut. Mais le style d’interaction – le flux étrangement naturel de la conversation – reste intact. Et cela aussi est convaincant. Trop convaincant.

Nous devons dénomopomorphiser l’IA. Maintenant. Dépuisez-le de son masque humain. Cela devrait être facile. Les entreprises pourraient supprimer toute référence à l’émotion, au jugement ou au traitement cognitif de la part de l’IA. En particulier, il devrait réagir factuellement sans jamais dire «moi» ou «je le ressens»… ou «je suis curieux».

Cela se produira-t-il? J’en doute. Cela me rappelle un autre avertissement que nous avons ignoré depuis plus de 20 ans: « Nous devons réduire les émissions de CO. » Regardez où cela nous a amenés. Mais nous devons avertir les grandes entreprises technologiques des dangers associés à l’humanisation de l’AIS. Il est peu probable qu’ils jouent au ballon, mais ils devraient, surtout s’ils veulent sérieusement développer AIS éthique.

Pour l’instant, c’est ce que je fais (parce que j’obtiens trop souvent ce sentiment étrange que je parle à un humain synthétique lors de l’utilisation de Chatgpt ou de Claude): j’indique mon IA de ne pas m’adresser par leur nom. Je lui demande de s’appeler AI, de parler à la troisième personne et d’éviter les termes émotionnels ou cognitifs.

Si j’utilise le chat vocal, je demande à l’AI d’utiliser une prosodie plate et de parler un peu comme un robot. C’est en fait assez amusant et nous maintient tous les deux dans notre zone de confort.

Fourni par
La conversation


Cet article est republié à partir de La conversation sous une licence créative Commons. Lire le article original.La conversation

Citation: Nous devons cesser de prétendre que l’IA est intelligent. Voici comment (2025, 14 avril) récupéré le 14 avril 2025 de https://techxplore.com/news/2025-04-ai-intelligent.html

Ce document est soumis au droit d’auteur. Outre toute émission équitable aux fins d’études privées ou de recherche, aucune pièce ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni uniquement à des fins d’information.





Source link

Related post