Olympus Corp., une société mondiale de technologie médicale, a annoncé aujourd’hui qu’elle avait accepté de s&Read More
Tags :AI for emotional intelligence
# Et si l’IA n’était jamais artificielle? | par Piyush Jambhulkar (Anna) | Jul, 2025
# Et si l’IA n’était jamais artificielle? * Série: AI avec révolution humaine * * Soch Anna Ki… Powered par Read More
# 97 – SERTAC KARAMAN: Robots qui volent et les robots qui conduisent | Mit
Podcast: Jouer dans une nouvelle fenêtre | Télécharger Sertac Karaman est professeur au MIT, co-fondateur de la société de Read More
Image Getty / Futurisme La jonque d’une personne est le trésor d’un autre. Une équipe internationale de scientifiques Read More
Vous pouvez télécharger iOS 26 Public Beta dès maintenant – comment installer (et quels iPhones le soutiennent)
Quand iOS 26 sera-t-il libéré? La version bêta publique iOS 26 est maintenant disponible. Le développeur bêta a été publié Read More
Les LLM suggèrent que les femmes recherchent des salaires plus faibles que les hommes dans les entretiens d’embauche – informatique
La différence de recommandations pour les demandes de salaire initiales peut être dramatique. Dans un exemple, quelqu’un qui néRead More
1. 先行する EU の「リスクベース・アプローチ」とは何か 世界の Ai 規制の議論をリードしている存在として、まず注目すべきは欧州連合 (EU) の動向です。EU は、世界に先駆けて包括的な AI の法的枠組みである「 AI 法 (AI ACT) 」の制定を進めており、その中核をなすのが「リスクベース・アプローチ」という考え方です。これは、 」の制定を進めており、その中核をなすのが「リスクベース・アプローチ」という考え方です。これは、 AI がもたらすリスクをその深刻さに応じて階層化し、それぞれのリスクレベルに見合った規制を課すという非常に合理的かつ体系的なアプローチです。 具体的には、 ai システムを四つのカテゴリーに分類します。最も厳しい規制の対象となるのが「許容できないリスク」を持つ ai です。これには、人々の行動を潜在意識下で操作して危害を加えたり、社会的なスコアリングによって不利益な扱いをしたりするような、 eu が掲げる基本的価値観や人権を根本から脅かすと見なされる ai が含まれ、原則としてその使用が禁止されます。 次に位置するのが「ハイリスク (高リスク) 」な Ai で、ここが EU の Ai 規制の核心部分となります。例えば、自動運転車、医療診断支援システム、採用活動における人材評価ツール、あるいは司法や法執行機関で用いられる Ai などがこれに該当します。これらの Ai は、人々の生命や健康、安全、そして基本的な権利に重大な影響を及ぼす可能性があるため、市場に投入される前に厳格な適合性評価を受けることが義務付けられます。開発者は、使用するデータの品質管理、技術文書の作成、人間による適切な監視体制の確保、そして高いレベルの堅牢性や正確性、サイバーセキュリティを保証しなければなりません。違反した場合には巨額の制裁金が科される可能性があり、企業にとっては極めて重要なコンプライアンス要件となります。 三つ目のカテゴリーは「限定的なリスク」を持つ ai です。チャットボットのように、人間が ai と対話していることを認識する必要があるシステムがこれにあたり、利用者に対してその旨を透明性をもって開示する義務が課されます。最後に、これら以外の大多数の ai アプリケーションは「最小限のリスク」と分類され、特に新たな法的義務は課されず、既存の法律の範囲内で自由な開発と利用が奨励されます。 このリスクに応じた規制のグラデーションを設ける EU のアプローチは、個人の権利保護とイノベーションの促進という二つの要請を両立させようとする野心的な試みであり、その包括性と具体性から「ブリュッセル効果」として、世界各国の Read More
Signaux d’erreur de prédiction sensorielle dans le néocortex avec Blake Richards
Aujourd’hui, nous continuons notre couverture des Neirips 2019, cette fois rejoint par Blake Richards, professeur adjoint à l’Université McGill et Read More
Swift Navigation recueille 50 millions de dollars pour apporter un positionnement au niveau des centimètres en robotique
Swift Navigation a déclaré que sa technologie peut être utilisée dans une gamme de robotiques, notamment des tonalités autonomes, Read More
L’image de zoom sera affichée Il s’éloigna, sachant qu’elle ne pouvait pas suivre – et elle Read More