Bruxelles – le Times européens – Ombudswoman européen Teresa Anjinho a ouvert un enquête dans comment le Commission européenne gère la transparence, l’inclusivité et la responsabilité Développement de normes harmonisées pour l’intelligence artificielle (IA) – une pierre angulaire du prochain ACT de l’UE AI mise en œuvre.
L’enquête, officiellement enregistrée Cas 1974/2025 / MIKsuit un plainte par une organisation de la société civile Cela a soulevé des préoccupations concernant les pratiques opaques au sein des organismes de normalisation européens. Le plaignant a fait valoir que les groupes rédigeant les normes sont pas obligé de divulguer qui participeet ils ne sont pas non plus Publier les procès-verbaux de la réunionlaissant le processus largement protégé du contrôle public.
Questions pour la commission
Dans le premier pas, les médiocre ont demandé à la Commission de clarifier:
- le composition et les critères de sélection des groupes d’experts;
- le Règles de transparence et de participation appliqué par le Comité européen pour la normalisation (Cen) et le Comité européen pour la normalisation électrotechnique (Cenelec));
- Comment la commission surveille et évalue le processus de normalisation; et
- quels mécanismes existent pour Examiner et assurer l’équilibre parmi les parties prenantes.
Son bureau a également demandé documents internes concernant la surveillance de ces procédures par la Commission.
Pourquoi le problème est important
Les normes harmonisées fournissent un Chemin technique vers la conformité juridique Dans la législation de l’UE. Une fois reconnus par la Commission, ils permettent aux entreprises de démontrer que leurs produits, services ou algorithmes répondent aux exigences réglementaires du bloc – devenant efficacement passerelles vers le marché de l’UE.
La commission Mai 2023 Demande de normalisation chargé cen et cenelec de traduire le Les principes de l’AI ACT en normes réalisables, garantissant que les normes résultantes minimiser les risques pour la sécurité et les droits fondamentaux. Cependant, ces organismes privés manipulent maintenant Dimensions éthiques et sociales à fort impact généralement réservé aux décideurs, soulevant des questions sur la surveillance démocratique.
Un test pour la responsabilité de l’UE dans l’IA
L’enquête de l’ombudwoman reflète une préoccupation croissante standardisation technique – souvent considéré comme neutre – pourrait influencer Comment les systèmes d’IA interagissent avec les droits de l’homme et l’intérêt public à travers l’Europe. Ses conclusions pourraient déterminer si la promesse de l’UE d’une «IA digne de confiance» est égalée par gouvernance transparente et inclusive.
Publié à l’origine dans The European Times.