EU AI Act: Risk-Based AI Regulation Landmark
EU AI Act: Risk-Based AI Regulation Landmark
Which international bloc has adopted the landmark 'AI Act', which uses a risk-based approach to regulation?
- United States
- United Kingdom
- European Union
- ASEAN
Explanation in English
Correct Answer Explanation
The European Union (EU) has adopted the comprehensive 'AI Act', a pioneering legislative framework that uses a risk-based approach to regulating different AI systems based on their potential for harm. This act aims to ensure that AI systems placed on the European market and used within the EU are safe, ethical, and respect fundamental rights, establishing a global standard for AI governance.
Incorrect Options Analysis
- United States: The United States has not yet adopted a single, comprehensive AI Act. Instead, its approach relies more on existing antitrust laws, sector-specific regulations, and voluntary guidelines, prioritizing innovation over stringent upfront regulation.
- United Kingdom: The United Kingdom has also taken a different approach, focusing on existing regulatory frameworks and enacting legislation like the Digital Markets, Competition and Consumers (DMCC) Act 2024, rather than a broad AI Act with a harmonized risk-based model.
- ASEAN: The Association of Southeast Asian Nations (ASEAN) has not adopted a unified 'AI Act' with a risk-based approach to regulation across its member states. While some individual member states may have their own initiatives, a bloc-wide act is not in place.
Know More: The EU's AI Act categorizes AI systems into different risk levels: unacceptable risk (e.g., social scoring, real-time remote biometric identification in public spaces), high risk (e.g., AI in critical infrastructure, medical devices, employment), limited risk (e.g., chatbots, deepfakes, requiring transparency), and minimal risk. This allows for tailored regulation, with stricter requirements and oversight for higher-risk applications to protect citizens.
EU का AI एक्ट: जोखिम-आधारित AI विनियमन
किस अंतर्राष्ट्रीय समूह (international bloc) ने ऐतिहासिक 'AI Act' अपनाया है, जो विनियमन (regulation) के लिए जोखिम-आधारित दृष्टिकोण (risk-based approach) का उपयोग करता है?
- संयुक्त राज्य अमेरिका
- यूनाइटेड किंगडम
- यूरोपीय संघ
- आसियान
Explanation in Hindi
सही उत्तर स्पष्टीकरण
यूरोपीय संघ (European Union - EU) ने व्यापक 'AI Act' को अपनाया है, जो एक अग्रणी विधायी ढाँचा (pioneering legislative framework) है और विनियमन के लिए जोखिम-आधारित दृष्टिकोण (risk-based approach) का उपयोग करता है। यह AI सिस्टम को उनके संभावित नुकसान के आधार पर नियंत्रित करता है। इस अधिनियम का उद्देश्य यह सुनिश्चित करना है कि यूरोपीय बाजार में लगाए गए और EU में उपयोग किए जाने वाले AI सिस्टम सुरक्षित, नैतिक हों और मौलिक अधिकारों (fundamental rights) का सम्मान करें, जिससे AI शासन के लिए एक वैश्विक मानक (global standard) स्थापित हो सके।
गलत विकल्पों का विश्लेषण
- संयुक्त राज्य अमेरिका (United States): संयुक्त राज्य अमेरिका ने अभी तक कोई एकल, व्यापक AI Act नहीं अपनाया है। इसके बजाय, इसका दृष्टिकोण मौजूदा Antitrust Laws, क्षेत्र-विशिष्ट नियमों (sector-specific regulations) और स्वैच्छिक दिशानिर्देशों (voluntary guidelines) पर अधिक निर्भर करता है, जो सख्त अग्रिम विनियमन (stringent upfront regulation) पर नवाचार (innovation) को प्राथमिकता देता है।
- यूनाइटेड किंगडम (United Kingdom): यूनाइटेड किंगडम ने भी एक अलग दृष्टिकोण अपनाया है, जिसमें मौजूदा नियामक ढाँचों (regulatory frameworks) पर ध्यान केंद्रित किया गया है और Digital Markets, Competition and Consumers (DMCC) Act 2024 जैसे कानून लागू किए गए हैं, न कि एक सामंजस्यपूर्ण जोखिम-आधारित मॉडल (harmonized risk-based model) वाले व्यापक AI Act पर।
- आसियान (ASEAN): दक्षिण पूर्व एशियाई राष्ट्र संघ (ASEAN) ने अपने सदस्य राज्यों में विनियमन के लिए जोखिम-आधारित दृष्टिकोण के साथ कोई एकीकृत 'AI Act' नहीं अपनाया है। हालाँकि कुछ व्यक्तिगत सदस्य राज्यों की अपनी पहल हो सकती है, एक ब्लॉक-व्यापी अधिनियम लागू नहीं है।
और जानें: EU का AI Act AI प्रणालियों को विभिन्न जोखिम स्तरों में वर्गीकृत करता है: अस्वीकार्य जोखिम (unacceptable risk) (जैसे, Social Scoring, सार्वजनिक स्थानों में रीयल-टाइम रिमोट बायोमेट्रिक पहचान), उच्च जोखिम (high risk) (जैसे, महत्वपूर्ण बुनियादी ढाँचे में AI, चिकित्सा उपकरण, रोजगार), सीमित जोखिम (limited risk) (जैसे, Chatbots, Deepfakes, जिसमें पारदर्शिता की आवश्यकता होती है), और न्यूनतम जोखिम (minimal risk)। यह नागरिकों की सुरक्षा के लिए उच्च जोखिम वाले अनुप्रयोगों के लिए सख्त आवश्यकताओं और निरीक्षण के साथ अनुरूप विनियमन की अनुमति देता है।