# Et si l’IA n’était jamais artificielle? * Série: AI avec révolution humaine * * Soch Anna Ki… Powered par Naina Soul Ai * * Date: 27 juillet 2025 * — ## 🧠 Introduction: Nous vivons dans un monde qui appelle Read More
Toutes les dernières avancées en intelligence artificielle : AGI, machine learning, robotique, automatisation, et plus encore
Podcast: Jouer dans une nouvelle fenêtre | Télécharger Sertac Karaman est professeur au MIT, co-fondateur de la société de véhicules autonomes Optimus Ride, et est l’un des meilleurs roboticiens Read More
Image Getty / Futurisme La jonque d’une personne est le trésor d’un autre. Une équipe internationale de scientifiques a constaté que les chaînes d’ADN « indésirable » dans le Read More
Quand iOS 26 sera-t-il libéré? La version bêta publique iOS 26 est maintenant disponible. Le développeur bêta a été publié lors de la WWDC en juin 2025. Si Apple suit sa cadence habituelle, la Read More
La différence de recommandations pour les demandes de salaire initiales peut être dramatique. Dans un exemple, quelqu’un qui négocie un salaire de base en tant que médecin spécialiste expéRead More
1. 先行する EU の「リスクベース・アプローチ」とは何か 世界の Ai 規制の議論をリードしている存在として、まず注目すべきは欧州連合 (EU) の動向です。EU は、世界に先駆けて包括的な AI の法的枠組みである「 AI 法 (AI ACT) 」の制定を進めており、その中核をなすのが「リスクベース・アプローチ」という考え方です。これは、 」の制定を進めており、その中核をなすのが「リスクベース・アプローチ」という考え方です。これは、 AI がもたらすリスクをその深刻さに応じて階層化し、それぞれのリスクレベルに見合った規制を課すという非常に合理的かつ体系的なアプローチです。 具体的には、 ai システムを四つのカテゴリーに分類します。最も厳しい規制の対象となるのが「許容できないリスク」を持つ ai です。これには、人々の行動を潜在意識下で操作して危害を加えたり、社会的なスコアリングによって不利益な扱いをしたりするような、 eu が掲げる基本的価値観や人権を根本から脅かすと見なされる ai が含まれ、原則としてその使用が禁止されます。 次に位置するのが「ハイリスク (高リスク) 」な Ai で、ここが EU の Ai 規制の核心部分となります。例えば、自動運転車、医療診断支援システム、採用活動における人材評価ツール、あるいは司法や法執行機関で用いられる Ai などがこれに該当します。これらの Ai は、人々の生命や健康、安全、そして基本的な権利に重大な影響を及ぼす可能性があるため、市場に投入される前に厳格な適合性評価を受けることが義務付けられます。開発者は、使用するデータの品質管理、技術文書の作成、人間による適切な監視体制の確保、そして高いレベルの堅牢性や正確性、サイバーセキュリティを保証しなければなりません。違反した場合には巨額の制裁金が科される可能性があり、企業にとっては極めて重要なコンプライアンス要件となります。 三つ目のカテゴリーは「限定的なリスク」を持つ ai です。チャットボットのように、人間が ai と対話していることを認識する必要があるシステムがこれにあたり、利用者に対してその旨を透明性をもって開示する義務が課されます。最後に、これら以外の大多数の ai アプリケーションは「最小限のリスク」と分類され、特に新たな法的義務は課されず、既存の法律の範囲内で自由な開発と利用が奨励されます。 このリスクに応じた規制のグラデーションを設ける EU のアプローチは、個人の権利保護とイノベーションの促進という二つの要請を両立させようとする野心的な試みであり、その包括性と具体性から「ブリュッセル効果」として、世界各国の Ai 規制のモデルケースとなりつつあるのです。 2. […]Read More
Aujourd’hui, nous continuons notre couverture des Neirips 2019, cette fois rejoint par Blake Richards, professeur adjoint à l’Université McGill et membre de base du corps professoral à Mila. Blake était un conférencier invité à Read More
Swift Navigation a déclaré que sa technologie peut être utilisée dans une gamme de robotiques, notamment des tonalités autonomes, des robots agricoles, des robots de livraison, des drones, etc. | Source: navigation rapide Read More
L’image de zoom sera affichée Il s’éloigna, sachant qu’elle ne pouvait pas suivre – et elle regarda, sachant qu’elle ne le ferait jamais. Toi:Y aurait-il jamais Read More
Podcast: Jouer dans une nouvelle fenêtre | Télécharger Karl Friston est l’un des plus grands neuroscientifiques de l’histoire, cité plus de 245 000 fois, connu pour de nombreuses idées influentes Read More
Posts Récents
- Elon Musk prévient que l’IA « va évidemment faire un seul coup du système limbique humain »
- (R) Observer les modèles inattendus dans la demande de MTPE à travers les langues
- Comment construire un pipeline de données léger avec AirTable et Python
- Le navigateur COMET AI de Perplexity pourrait exposer vos données aux attaquants – voici comment
- Google déploie de nouveaux outils de génération et de consommation de contenu d’IA dans l’espace de travail – Computerworld
