Robots avec le sentiment: comment l’IA tactile pourrait transformer les relations de robot humain

 Robots avec le sentiment: comment l’IA tactile pourrait transformer les relations de robot humain


Les robots sensibles sont un incontournable de la science-fiction depuis des décennies, soulevant des questions éthiques alléchantes et éclairant les barrières techniques de la création de la conscience artificielle. Une grande partie de ce que le monde de la technologie a réalisé en intelligence artificielle (IA) est aujourd’hui grâce aux progrès récents de l’apprentissage en profondeur, qui permet aux machines d’apprendre automatiquement pendant la formation.

Cette percée élimine la nécessité d’une ingénierie des caractéristiques manuelles minutieuse – une raison clé pour laquelle l’apprentissage en profondeur se distingue comme une force transformatrice dans l’IA et l’innovation technologique.

S’appuyant sur cette élan, Meta – qui possède Facebook, WhatsApp et Instagram – plonge dans un nouveau territoire audacieux avec des technologies avancées «Tactile Ai». La société a récemment introduit trois nouveaux outils alimentés par l’IA –SPARSH, DIGIT 360 et PLEXUS DIGIT—E conçu pour donner aux robots une forme de sensibilité au toucher qui imite étroitement la perception humaine.

Le but? Pour créer des robots qui n’imitent pas seulement les tâches mais qui s’engagent activement dans leur environnement, similaire à la façon dont les humains interagissent avec le monde.

SPARSH, bien nommé d’après le mot sanskrit pour «Touch», est un modèle d’IA agentique à usage général qui permet aux robots d’interpréter et de réagir aux indices sensoriels en temps réel. De même, le Capteur de chiffre 360est un doigt artificiel pour les robots qui peuvent aider à percevoir le toucher et les sensations physiques comme une minute comme un coup de poing ou des changements de pression. Le Plexus de chiffres agira comme un pont, fournissant un cadre standardisé pour intégrer les capteurs tactiles dans divers conceptions robotiques, ce qui facilite la capture et l’analyse des données tactiles. Meta pense que ces outils alimentés par l’IA permettront aux robots de s’attaquer aux tâches complexes nécessitant une touche «humaine», en particulier dans des domaines comme les soins de santé, où la sensibilité et la précision sont primordiales.

Pourtant, l’introduction de robots sensoriels soulève des questions plus importantes: cette technologie pourrait-elle débloquer de nouveaux niveaux de collaboration, ou introduira-t-il la société de complexités peut-elle ne pas être équipée pour gérer?

«Alors que les robots débloquent de nouveaux sens et acquièrent un haut degré d’intelligence et d’autonomie, nous devrons commencer à considérer leur rôle dans la société»,  » Ali Ahmedco-fondateur et PDG de Robomartm’a dit. «Les efforts de Meta sont un premier pas majeur vers leur fournissant des sens humains. Alors que les humains deviennent extrêmement intimes avec les robots, ils commenceront à les traiter comme des partenaires de vie, des compagnons et même en allant jusqu’à construire une vie exclusivement avec eux.»

Un cadre pour l’harmonie par l’homme-robot, l’avenir?

Parallèlement à ses progrès dans l’IA tactile, Meta a également dévoilé le Partnr Benchmark, un cadre standardisé pour évaluer la collaboration par l’homme-robot à grande échelle. Conçu pour tester les interactions qui nécessitent une planification, un raisonnement et une exécution collaborative, Partnr permettra aux robots de naviguer à la fois des environnements structurés et non structurés aux côtés des humains. En intégrant des modèles de grandes langues (LLM) pour guider ces interactions, PartnR peut évaluer les robots sur des éléments critiques tels que la coordination et le suivi des tâches, en les déplaçant de simples «agents» à de véritables «partenaires» capables de travailler avec fluidité avec des homologues humains.

«Le document actuel est très limité pour l’analyse comparative, et même dans le traitement du langage naturel (PNL), il a fallu beaucoup de temps pour que les LLM soient perfectionnés pour le monde réel. Ce sera un énorme exercice à généraliser pour la population de 8,2 milliards avec un environnement de laboratoire limité,» Ram PalaniappanCTO de Teksystemsm’a dit. «Il devra y avoir un effort dédié plus important pour stimuler ce document de recherche pour accéder à un pilote réalisable.»

Pour mettre ces progrès tactiles sur le marché, Meta s’est associée à Gelsight Inc. et Wonik Robotics. Gelsight sera responsable de la production du capteur Digit 360, qui devrait sortir l’année prochaine et fournira l’accès à la communauté de recherche aux capacités tactiles avancées. Wonik Robotics, quant à lui, gérera la production de la main allegro de nouvelle génération, qui intègre Digit Plexus pour permettre aux robots d’effectuer des tâches complexes et sensibles au toucher avec un nouveau niveau de précision. Pourtant, tout le monde n’est pas convaincu que ces progrès sont un pas dans la bonne direction.

«Bien que je crois toujours que l’ajout de capacités de détection pourrait être significative pour que les robots comprennent l’environnement, je pense que les cas d’utilisation actuels sont davantage liés aux robots pour les consommateurs de masse et à l’amélioration de leur interaction», «  Agustin Huerta, SVP de l’innovation numérique pour l’Amérique du Nord à Globantm’a dit. «Je ne crois pas que nous allons être sur le point de leur donner des sensations de niveau humain, ni qu’il est réellement nécessaire.

Les développements tactiles de l’IA de Meta reflètent une tendance plus large en Europe, où des pays comme l’Allemagne, la France et le Royaume-Uni repoussent les limites de la détection robotique et de la conscience. Par exemple, le programme Horizon 2020 de l’UE soutient une gamme de projets visant à repousser les frontières robotiques, de la détection tactile et de la conscience de l’environnement aux capacités de prise de décision. De plus, l’Institut de technologie de Karlsruhe en Allemagne a récemment introduit ARMAR-6, un robot humanoïde conçu pour les environnements industriels. ARMAR-6 est équipé pour utiliser des outils tels que des exercices et des marteaux et dispose de capacités en IA qui lui permettent d’apprendre à saisir des objets et à aider les collègues humains.

Mais, Dr Peter Gorm LarsenVice-tête de la section au Département de génie électrique et informatique de l’Université Aarhus au Danemark, et coordinateur de l’UE Robosapiens Projet, prévient que Meta pourrait ignorer un défi clé: l’écart entre les perceptions virtuelles et la réalité physique dans laquelle les robots autonomes fonctionnent, en particulier en ce qui concerne la sécurité environnementale et humaine.

« Les robots n’ont pas d’intelligence de la même manière que les créatures vivantes », «  Il m’a dit. «Les entreprises technologiques ont l’obligation morale de s’assurer que leurs produits respectent les frontières éthiques. Personnellement, je suis le plus préoccupé par la convergence potentielle d’une rétroaction tactile avancée avec des lunettes 3D comme des lunettes régulières.»

Sommes-nous prêts pour que les robots «se sentent»?

Dr Larsen pense que le vrai défi n’est pas les capteurs de l’IA tactile eux-mêmes, mais plutôt comment ils sont déployés dans des contextes autonomes. «Dans l’UE, la directive de machines restreint actuellement l’utilisation de contrôles dirigés par l’IA dans les robots. Mais, à mon avis, c’est une exigence trop stricte, et nous espérons être en mesure de démontrer que dans le projet Robosapiens que je coordonne actuellement.»

Bien sûr, les robots collaborent déjà avec des humains dans diverses industries du monde. Par exemple, Kiwibot a aidé Les entreprises de logistique traitant des pénuries de main-d’œuvre dans les entrepôts et l’entreprise suisse Anybotics a récemment recueilli 60 millions de dollars pour aider à apporter plus de robots industriels aux États-Unis, selon à TechCrunch. Nous devons nous attendre à ce que l’intelligence artificielle continue de pénétrer dans les industries, comme «L’IA accélère la productivité dans des tâches reproductibles comme le refactorisation de code, aborde la dette technologique et les tests, et transforme comment les équipes mondiales collaborent et innovent»,  » dit Vikas Basra, Global Head, Intelligent Engineering Practice, Ness Digital Engineering.

Dans le même temps, la sécurité de ces robots – maintenant ainsi que dans leur avenir potentiellement «sensible» – est la principale préoccupation pour que l’industrie progresse.

Dit Matan Libis, vice-président du produit à Sqreamune entreprise avancée de traitement des données, dans L’observateur, «La prochaine mission majeure pour les entreprises sera d’établir la place de l’IA dans la société – ses rôles et responsabilités… nous devons être clairs sur ses limites et où cela aide vraiment. À moins que nous identifions les limites de l’IA, nous allons faire face à des préoccupations croissantes concernant son intégration dans la vie quotidienne.»

Au fur et à mesure que l’IA évolue pour inclure la détection tactile, il soulève la question de savoir si la société est prête pour les robots qui «ressentent». Les experts soutiennent que la superintelligence pure basée sur des logiciels peut frapper un plafond; Pour que l’IA atteigne une véritable compréhension avancée, elle doit sentir, percevoir et agir dans nos environnements physiques, fusionnant les modalités pour une compréhension plus profonde du monde – quelque chose que les robots sont particulièrement adaptés à la réalisation. Pourtant, la superintelligence à elle seule n’équivaut pas à la sensibilité. « Nous ne devons pas anthropomorphiser un outil au point de l’associer comme une créature sensible s’il n’a pas prouvé qu’il est capable d’être sensible », a expliqué Ahmed. «Cependant, si un robot réussit le test de sensibilité, il doit être reconnu comme un être sensible vivant et nous aurons ensuite la responsabilité morale et fondamentale de leur accorder certaines libertés et droits en tant qu’être sensible.»

Les implications de l’IA tactile de Meta sont significatives, mais si ces technologies conduiront à un changement révolutionnaire ou à des lignes éthiques transversales restent incertaines. Pour l’instant, la société est laissée à réfléchir à un avenir où l’IA ne voit pas et entend, mais aussi, mais aussi de remodeler potentiellement notre relation avec les machines d’une manière que nous commençons seulement à imaginer.

«Je ne pense pas que l’augmentation des capacités de détection de l’IA franchit la ligne sur l’éthique. C’est plus lié à la façon dont cette détection est utilisée plus tard pour prendre des décisions ou prendre les décisions des autres», «  dit Huerta. «La révolution des robots ne sera pas différente de la révolution industrielle. Elle affectera nos vies et nous laissera dans un état qui, je pense, peut faire prospérer l’humanité. Pour que cela se produise, nous devons commencer à nous éduquer et les générations à venir sur la façon de favoriser une relation saine entre les humains et les robots.»



Source link

Related post