Devriez-vous avoir peur de l’IA?

Comme la plupart des progrès technologiques qui l’ont précédé, l’intelligence artificielle ressemble au Far West. Mais au lieu de l’homme de Clint Eastwood sans nom, ce méchant (ou anti-héros, selon vos perspectives) émerge comme Robocop.
Vidéo en vedette
L’absence de réglementation au milieu de la croissance exponentielle de l’IA est probablement excitante pour la plupart des participants de la Conférence interactive South By Southwest de 2025 à Austin, au Texas. Le festival a commencé le 6 mars, et aux côtés du futurisme et des drogues psychédéliques, l’IA était le principal objectif des sessions de la conférence dans les industries.
L’anticipation impatient est facile à comprendre, car les utilisations de l’IA semblent au-delà de l’imagination, et les incitations à profit sont présentes. A McKinsey & Company 2023 rapport ont constaté que l’IA génératrice est prête à débloquer 4,4 billions de dollars de valeur. Il pourrait injecter 1 billion de dollars dans le PIB américain seul.
Cependant, autant que les panélistes du festival ont vanté les avantages de l’IA, plusieurs ne pouvaient ignorer ses pièges.
Les experts de l’IA ont des inquiétudes
« Il y a tellement de façons de mal tourner », a déclaré Oji Udezue, un expert en produit de l’IA et investisseur, dans un panel sur les risques des données simulées. «Malheureusement, ce truc est au-dessus du réglementation… nous avons besoin d’un moyen de forcer les gens, les gens paresseux à le faire. Trouver des constructeurs éthiques élevés dans le monde aujourd’hui est un exercice de frustration. »
Un autre panel de la conférence a adopté une approche plus systématique pour discuter des risques d’IA. Cependant, il a été conçu comme un moyen de protéger les entreprises utilisant l’IA des titres de la réputation plutôt que de protéger leurs clients.
«Les titres de l’IA sont bons, non? L’innovation de l’IA dans les gros titres est bonne », a déclaré Liz Grennan, associée chez McKinsey & Company et experte en évaluation des risques opérationnels. «Mais il y a les gros titres que vous ne voulez pas. Nous ne voulons pas que les consommateurs, les patients en tant que victimes de consommation d’IA. Nous essayons donc d’éviter cela.
Associés à ce qui semblait être un art généré par l’AI, les panélistes ont proposé une situation hypothétique impliquant un patient médical de «fond sous-représenté». Le logiciel de dépistage du cancer alimenté par une entreprise a marqué à plusieurs reprises le patient comme clair – seulement pour qu’elle soit diagnostiquée plus tard avec un cancer de stade 4, à la suite des données incomplètes ou biaisées de l’IA.
Cette situation ne marque pas seulement un risque pour la réputation des entreprises; Il devient littéralement la vie ou la mort pour les gens de tous les jours lorsque l’IA est utilisée dans un contexte médical.
L’IA éliminera-t-elle le biais humain ou le perpétuera-t-il?
Ce n’est un secret pour personne que la recherche conduite par l’homme et la résultant Les données contiennent des biais. Par exemple, la National Highway Transit Safety Administration a indiqué que les femmes étaient 17% plus susceptibles que les hommes d’être tués dans des accidents de voiture. Mais lorsque l’organisation a vérifié les processus de test des constructeurs automobiles, ils n’utilisaient pas des mannequins de test féminins, en faussant les résultats.
Ces biais humains dans la recherche ont un effet domino dans notre vie quotidienne, à partir de la législation adoptée à qui reçoit certains types de traitements médicaux. Mais de nombreux défenseurs de l’IA soutiennent que l’utilisation de la technologie pour la simulation de données peut aider à éliminer les biais humains dans la formation des modèles d’IA, en simulant les données de groupes sous-représentés.
«Les données synthétiques sont générées artificiellement plutôt que collectées à partir d’événements du monde réel, permettant la création d’ensembles de données qui incluent des représentations diverses et équitables de divers groupes démographiques», a déclaré BetterData, une société de données synthétique, plaide dans un article de blog. «Cela aide à résoudre des problèmes tels que la sous-représentation et les fonctionnalités limitées qui conduisent souvent à des modèles d’IA biaisés.»
Les données simulées sont une autre tentative de réduction des coûts, à savoir l’acquisition d’ensembles de données robustes. Mais à mesure que l’utilisation des données synthétiques augmente, elle rendrait, à son tour, les données du monde réel d’autant plus précieuses. Et malgré l’argument selon lequel les données synthétiques créeront des ensembles de données plus complets, beaucoup croire Ces données ne sont pas basées dans la réalité expliqueront les biais de nos données non représentatives.
Mais les données synthétiques présentent d’autres risques.
Les modèles d’IA sont à risque de s’effondrer
UN Nature étude Depuis juillet 2024, les modèles d’IA s’effondrent lorsqu’ils sont entraînés à plusieurs reprises sur des données synthétiques. Alors que l’utilisation de l’IA devient plus populaire sur Internet et ouvre les modèles d’IA à gratter le contenu généré par l’IA pour s’entraîner, le résultat pourrait être un terrifiant ourobouros.
C’est sans mentionner l’impact environnemental de l’IA. Les centres de données qui alimentent et forment les modèles d’IA sont prêts à approcher 1 050 térawatts d’utilisation d’énergie d’ici 2026, par MIT News. Cela porterait des centres de données au cinquième plus grand consommateur d’électricité au monde – sur la liste entre l’utilisation d’énergie de l’ensemble des pays du Japon et de la Russie.
Alors, comment se terminer ce canon imminente?
La plupart des dirigeants de l’industrie de SXSW ont plaidé pour une intervention humaine à plusieurs étapes du processus de construction du modèle d’IA. Leur discussion sur la réglementation de l’IA n’est pas très différente des tentatives de transparence des États-Unis autour de la nourriture.
Que sont les étiquettes de nutrition de l’IA?
Plusieurs experts ont proposé l’IA «étiquettes de nutrition», Qui, comme les FDA forcés qui apparaissent sur votre boîte de Cheez-its ou votre Advil, détaillent des informations importantes sur les« ingrédients »du modèle. Cette transparence rendrait l’intention, les utilisations et les risques des modèles d’IA clairs pour les consommateurs et les entreprises individuels.
Plusieurs panélistes ont également indiqué l’assouplissement avec des cas d’utilisation à faible risque comme un facteur important dans la façon dont nous révèlent le rôle de l’IA dans nos vies. Par exemple, l’utilisation de l’IA dans les soins de santé mentale semble incroyablement risquée pour un cas d’utilisation aussi sensible, en particulier au milieu d’un procès alléguant qu’un personnage. Chatbot a poussé un adolescent à se suicider.
Mais Emily Feinstein, vice-présidente exécutive de l’organisation à but non lucratif, Partnership to End Addiction, explique l’utilisation par le programme de l’IA pour former ses mentors. Au lieu d’utiliser les chatbots d’IA pour être le point de contact direct pour ceux qui ont besoin de mentorat, l’utilisation par l’organisation de l’IA générative de Reflexai leur permet de former de vrais mentors humains d’une manière plus personnalisée et à un rythme plus rapide.
« Si vous ne pensez pas, parlez de risques et dans l’habitude de penser, de parler de risque au travail, alors vous manquez probablement des choses, et vous ne le prenez probablement pas assez au sérieux », a-t-elle déclaré mardi dans un panel.
Devrions-nous le risquer?
Mais les soins de santé mentale, qui sont naturellement «sensibles aux risques», a déclaré Feinstein, est différent des autres cas d’utilisation. D’autres industries, disent des créatives comme la musique, sont beaucoup moins délicates – du moins du point de vue de ceux qui essaient de mettre en œuvre l’IA.
Générateur de musique Suno, qui a lancé l’année dernière, admis à la formation de son modèle sur la musique essentiellement accessible au public sur Internet, qui comprend des œuvres protégées par le droit d’auteur. L’entreprise a été poursuivie, aux côtés d’une autre société appelée UDIO, par la Recording Industry Alliance of America pour l’utilisation de la musique protégé par les droits d’auteur de ses membres. L’entreprise a affirmé qu’elle était sous-utilisée.
La société controversée a été appelée par d’autres membres de l’industrie pour avoir sucé la créativité de la musique. Le co-fondateur de Suno, Mikey Shulman, a été flammé en ligne le mois dernier pour déclarant La fabrication de la musique est «difficile», et c’est le problème qu’ils essaient de résoudre. Vickie Nauman, fondatrice de la Digital Music Consulting Agency Crossborderworks, a déclaré dans un panel SXSW sur l’IA dans l’industrie de la musique que Shulman a une déconnexion fondamentale dans le pouvoir et le but de la musique.
« Eh bien, je veux dire, généralement les meilleures choses de la vie sont un peu difficiles », a-t-elle déclaré jeudi au panel. «Vous devez mettre un peu d’effort dans la vie, puis vous avez ce sentiment d’appartenance. Je ne sais pas que faire 10 000 chansons en une heure pour un sou un morceau, c’est ça, tu sais? Comment est-ce satisfaisant? Comment cela pousse la créativité? Ce n’est en fait pas très créatif.
Mais sans que les dirigeants ne prennent une considération proactive de l’éthique dans leur mise en œuvre de l’IA, la réglementation de l’IA se déroulera devant les tribunaux. Du moins, c’est le point de vue de Grennan, qui a pris la parole au panel sur l’éthique de l’entreprise et la gouvernance de l’IA.
«Il y aura des gens poursuivre, puis des conclusions judiciaires, puis des normes établies», a-t-elle déclaré.
Si tout cela est un procès en attente, alors le plus moyen que Joe puisse faire est de procéder à la prudence et Rirez des tentatives de l’IA de capturer la créativité humaine. Oh, et peut-être essayer d’éviter les chatbots.