एक ह्यूमनॉइड रोबोट यूरोपीय संघ के झंडे और पृष्ठ पर "AI" शब्द के साथ एक किताब पढ़ रहा है।
EU AI अधिनियम के नियमों और कृत्रिम बुद्धिमत्ता के भविष्य को आकार देने में उनकी भूमिका का अन्वेषण करें।

EU AI अधिनियम सारांश: प्रमुख बिन्दु र निहितार्थ


रचयिताDorukan Yücedağ
खजूर2025-02-10
पढ़ने का समय5 मिनट

यूरोपीय संघ AI अधिनियम कानून का एक व्यापक टुकड़ा है। किसी भी व्यापारिक नेता के लिए, यूरोपीय संघ AI अधिनियम सारांश के साथ शुरुआत करना इसके व्यापक स्ट्रोक को समझने के लिए एक अच्छी जगह है। यह अपने लक्ष्यों और नियमों को समझने में भी मदद करता है जो इसे AIके नैतिक उपयोग के लिए निर्धारित करता है।

AI सबसे क्रांतिकारी तकनीकी नवाचारों में से एक रहा है। यह हमारे जीवन को एक से अधिक तरीकों से सरल बनाने की अपार क्षमता प्रदान करता है। हालांकि, यह नैतिक और कानूनी निहितार्थों के अपने हिस्से के साथ भी आता है। यह AIके दुरुपयोग के विभिन्न उदाहरणों के कारण है।

यूरोपीय संघ AI अधिनियम व्यापार के लिए AI नियमों को सूचीबद्ध करता है। इसका उद्देश्य इस तकनीक के दुरुपयोग को रोकने के लिए नियमों का एक सेट निर्धारित करना है।

इस गाइड में अधिनियम के सभी प्रमुख बिंदुओं और उनके विभिन्न प्रभावों को शामिल किया गया है। यह आपको एक सूचित निर्णय लेने में मदद करेगा कि आप AIका उपयोग कैसे करते हैं। इसमें Tor.app भी शामिल है, जो व्यावसायिक उपकरणों का एक व्यापक सूट प्रदान करता है जो इस अधिनियम का पूरी तरह से अनुपालन करते हैं। वे गोपनीयता और डेटा सुरक्षा से समझौता किए बिना सर्वोत्तम वर्कफ़्लो समाधान प्रदान करते हैं।

यूरोपीय संघ AI अधिनियम क्या है, और इसे क्यों पेश किया गया था?

AI अधिनियम (विनियमन (ईयू) 2024/1689) AI डेवलपर्स और डिप्लोयर्स के लिए दिशानिर्देश प्रदान करता है। इसका ध्यान प्रौद्योगिकी के नैतिक उपयोग पर है और AIके विशिष्ट उपयोगों के साथ अपने दायित्वों और आवश्यकताओं को सूचीबद्ध करता है।

यूरोपीय संसद की आधिकारिक वेबसाइट पर एक रिपोर्ट के अनुसार, एमईपी द्वारा विनियमन का समर्थन किया गया था, जिसमें 523 वोट पक्ष में, 46 के खिलाफ और 49 संयम थे।

संदर्भ: यूरोपीय संसद

यूरोपीय संघ AI अधिनियम अनुपालन का उद्देश्य वित्तीय और प्रशासनिक बोझ को कम करना है, खासकर छोटे और मध्यम आकार के उद्यमों के लिए। व्यापक लक्ष्य AIके उपयोग के संबंध में लोगों और व्यवसायों के मौलिक अधिकारों को सुनिश्चित करना है।

यूरोपीय संघ के विनियमन के तहत AI शासन के लिए, अधिनियम विशिष्ट AI उपयोगों को भी प्रतिबंधित करता है जो जोड़ तोड़ या भ्रामक तकनीकों को तैनात करते हैं या सामाजिक स्कोरिंग का अभ्यास करते हैं। यह कुछ सामाजिक समूहों और व्यक्तिगत प्रोफाइलिंग की कमजोरियों का फायदा उठाने पर भी रोक लगाता है।

आधिकारिक ईयू आर्टिफिशियल इंटेलिजेंस एक्ट वेबसाइट पर एआई एक्ट एक्सप्लोरर कानून का पूर्ण विराम प्रदान करता है, इसलिए आप किसी भी प्रासंगिक अनुभाग का भी उल्लेख कर सकते हैं।

जिम्मेदार AI उपयोग के लिए यूरोपीय संघ AI अधिनियम के लक्ष्य

यूरोपीय संघ का उद्देश्य नवाचार और AIके उभरते जोखिमों के बीच संतुलन सुनिश्चित करना है। अधिनियम के उद्देश्यों में शामिल हैं:

  1. यह सुनिश्चित करना कि यूरोपीय संघ में AI प्रणाली सार्वजनिक अधिकारों और मूल्यों का सम्मान करती है
  2. AI प्रौद्योगिकी में निवेश को सुविधाजनक बनाने में मदद करने के लिए कानूनी निश्चितता प्रदान करना
  3. शासन में सुधार और नैतिकता और सुरक्षा आवश्यकताओं का प्रभावी प्रवर्तन
  4. प्रौद्योगिकी के सुरक्षित और नैतिक उपयोग को सुनिश्चित करके यूरोपीय संघ में एकल AI बाजार का विकास करना

अधिनियम को लागू करने के लिए आयोग के भीतर एक एआई कार्यालय स्थापित किया जाना चाहिए। कार्यालय इस बात की निगरानी करता है कि जनरल पर्पस आर्टिफिशियल इंटेलिजेंस (GPAI) प्रदाता अपने नियमों को कितनी प्रभावी ढंग से लागू करते हैं। इसके अतिरिक्त, डाउनस्ट्रीम प्रदाता उल्लंघन की स्थिति में अपस्ट्रीम प्रदाताओं से शिकायत कर सकते हैं।

AI कार्यालय स्वतंत्र विशेषज्ञों के एक पैनल की रिपोर्ट के बाद जानकारी का अनुरोध करने या प्रणालीगत जोखिमों की जांच करने के लिए GPAI मॉडल का मूल्यांकन भी कर सकता है।

यूरोपीय संघ AI अधिनियम के मुख्य बिंदु

यूरोपीय संघ AI अधिनियम में कई प्रमुख बिंदु हैं जो AI उपयोग के बारे में विभिन्न चिंताओं को संबोधित करते हैं। नीचे दिए गए अनुभाग इनका अधिक विस्तार से वर्णन करते हैं।

सफेद शर्ट में पेशेवर उन्नत सुरक्षा और वैश्विक कनेक्टिविटी आइकन प्रदर्शित करने वाला टैबलेट संचालित करता है।
सुरक्षित वैश्विक प्रौद्योगिकी एकीकरण का प्रदर्शन, AI शासन और निरीक्षण को बढ़ाना।

AI प्रणालियों का जोखिम-आधारित वर्गीकरण

यूरोपीय संघ AI अधिनियम जोखिम-आधारित वर्गीकरण में चार स्तर शामिल हैं:

  1. अस्वीकार्य जोखिम: अस्वीकार्य जोखिम पैदा करने वाले मॉडल निषिद्ध हैं उदाहरणों में व्यवहार में हेरफेर, कमजोर लोगों का शोषण, सार्वजनिक अधिकारियों द्वारा सामाजिक स्कोरिंग आदि शामिल हैं।
  2. उच्च जोखिम: उच्च जोखिम वाली प्रणालियाँ अनुरूपता मूल्यांकन के अधीन हैं ये मॉडल स्वास्थ्य, सुरक्षा, बुनियादी बातों और पर्यावरण अधिकारों के लिए एक उच्च जोखिम पैदा करते हैं कुछ प्रमुख उदाहरणों में शामिल हैं:मॉडल जो स्वास्थ्य या जीवन बीमा की पात्रता का मूल्यांकन करते हैंनौकरी अनुप्रयोगों का विश्लेषणउत्पाद सुरक्षा घटक।
  3. सीमित जोखिम: सीमित जोखिम वाले मॉडल एक पारदर्शिता दायित्व के अधीन हैं ये आम तौर पर प्रतिरूपण या धोखे का जोखिम उठाते हैं उदाहरणों में AI सिस्टम शामिल हैं जो उपभोक्ताओं या जनरेटिव AI सिस्टम के साथ बातचीत करते हैं जो हेरफेर की गई सामग्री उत्पन्न करते हैं।
  4. न्यूनतम जोखिम: न्यूनतम जोखिम पोस्ट करने वाले मॉडल का कोई दायित्व नहीं है उदाहरणों में AI-सक्षम वीडियो गेम और स्पैम फ़िल्टर शामिल हैं।

व्यवसायों को अपने वर्कफ़्लोज़ में AI मॉडल का उपयोग करने से पहले एक अनुपालन मूल्यांकन पूरा करना होगा। यह बैंकिंग, शिक्षा आदि में GPAI मॉडल का उपयोग करने वाले व्यवसायों पर भी लागू होता है। इन GPAI मॉडल के प्रदाताओं को प्रशिक्षण और परीक्षण प्रक्रिया के बारे में तकनीकी दस्तावेज प्रदान करने चाहिए और कॉपीराइट निर्देश का सम्मान करने के लिए एक नीति स्थापित करनी चाहिए।

उन्हें अधिनियम के प्रभावी अनुपालन को सुनिश्चित करने के लिए डाउनस्ट्रीम आपूर्तिकर्ताओं को सूचना और दस्तावेज़ीकरण भी प्रदान करना चाहिए। अंत में, उन्हें GPAI मॉडल को प्रशिक्षित करने के लिए उपयोग की जाने वाली सामग्री का विस्तृत सारांश प्रकाशित करना चाहिए।

पारदर्शिता और जवाबदेही मानक

सीमित जोखिम वाले AI मॉडलों के लिए निर्धारित पारदर्शिता दायित्वों में उपयोगकर्ताओं को सूचित करना शामिल है कि वे AIके साथ बातचीत करते हैं। लक्ष्य विश्वास की संस्कृति को बढ़ावा देना है। उस समय के बारे में सोचें जब कोई इंसान चैटबॉट के साथ बातचीत कर रहा हो। पारदर्शिता दायित्वों के लिए उन्हें सूचित करने की आवश्यकता होती है कि वे AIके साथ बातचीत करते हैं, न कि मनुष्यों के साथ।

यह उपयोगकर्ता को यह तय करने में मदद करता है कि जारी रखना है या नहीं। इसके लिए AI-जनरेटेड सामग्री को पहचान योग्य बनाने की भी आवश्यकता है, विशेष रूप से सार्वजनिक हित में जारी की गई सामग्री के लिए।

वैश्विक स्तर पर अन्य नियमों के संदर्भ में, अमेरिका ने AIसे संबंधित नौ बिल पारित किए हैं। इनमें नेशनल आर्टिफिशियल इंटेलिजेंस इनिशिएटिव एक्ट 2020, AI इन गवर्नमेंट एक्ट और एडवांसिंग अमेरिकन AI एक्ट शामिल हैं।

संदर्भ: यूरोपीय संसद

हर कांग्रेस में कई बिल पेश किए जाते हैं, लेकिन बहुत कम पास होते हैं। वास्तव में, नवंबर 2023 तक, 33 विधायी टुकड़े अमेरिकी सांसदों के विचार के लिए लंबित थे।

संदर्भ: न्यू इंग्लैंड काउंसिल

राष्ट्रपति बिडेन ने आर्टिफिशियल इंटेलिजेंस के सुरक्षित, सुरक्षित और भरोसेमंद विकास और उपयोग पर एक कार्यकारी आदेश भी जारी किया। यूरोपीय संघ AI अधिनियम की तरह, इसके लिए प्रमुख AI डेवलपर्स को अमेरिकी सरकार के साथ अपने सुरक्षा परीक्षणों के परिणामों को साझा करने की आवश्यकता होती है। इसका उद्देश्य अमेरिकी नागरिकों को AIके दुर्भावनापूर्ण उपयोग से बचाना भी है, जैसे कि धोखाधड़ी और धोखे के लिए।

व्यापार स्वचालन के लिए यूरोपीय संघ AI अधिनियम के निहितार्थ

स्वचालन के लिए यूरोपीय संघ AI अधिनियम के निहितार्थ व्यापार संचालन को गंभीरता से प्रभावित करेंगे। वास्तव में, अधिनियम ने AIसे जुड़े सभी पक्षों के लिए स्पष्ट परिभाषाएं निर्धारित की हैं, जिनमें प्रदाता, डिप्लोयर, आयातक, उत्पाद निर्माता और वितरक शामिल हैं।

नतीजतन, AI प्रणालियों के उपयोग, वितरण, विकास और निर्माण में शामिल सभी पक्षों को जवाबदेह ठहराया जाएगा।

इसके अलावा, सभी पक्षों को यह समझने के लिए विस्तृत कार्यान्वयन समयरेखा का उल्लेख करना चाहिए कि उन्हें अधिनियम की आवश्यकताओं का अनुपालन कैसे और कब करना चाहिए।

व्यवसाय AI मॉडल के जोखिम स्तरों की पहचान करने और इन जोखिमों को प्राथमिकता देने और प्रबंधित करने के लिए नीति को परिभाषित करके अधिनियम का अनुपालन कर सकते हैं। इसके अतिरिक्त, उन्हें हितधारक अपेक्षाओं का प्रबंधन करना चाहिए और पारदर्शी संचार सुनिश्चित करना चाहिए।

अन्य कदमों में स्थायी डेटा प्रबंधन प्रथाओं को स्थापित करना और AI प्रणालियों का परीक्षण करना शामिल है ताकि यह सुनिश्चित किया जा सके कि वे इरादा के अनुसार काम करते हैं। अंत में, उन्हें सिस्टम प्रबंधन और मूल्यांकन प्रक्रियाओं को स्वचालित करना चाहिए और कर्मचारियों को AIका उपयोग करने की नैतिकता पर प्रशिक्षित करना चाहिए।

अपनी एक रिपोर्ट में, डेलॉइट ने एक काल्पनिक केस स्टडी के माध्यम से अधिनियम के प्रभाव की जांच की ताकि इसे लागू करने का एक व्यावहारिक उदाहरण पेश किया जा सके। इसने यूरोपीय संघ में सक्रिय दो वैश्विक संगठनों पर ध्यान केंद्रित किया, जिनमें से एक क्लेवरबैंक है। यह डेटामेल्ड से जीपीएआई मॉडल के साथ AI-संचालित ऋण अनुमोदन प्रणाली का उपयोग करता है, जो एक यूएस-आधारित कंपनी है जो यूरोपीय संघ में अपने AI मॉडल पेश करती है।

क्लेवरबैंक को डाउनस्ट्रीम AI प्रदाता और एक AI डिप्लोयर के रूप में विनियमित किया जाएगा। अधिनियम का अनुपालन करने के लिए, इसे अधिनियम के उच्च जोखिम वाले आकलन के खिलाफ अपने AI मॉडल की अनुरूपता परीक्षण पूरा करना होगा, यूरोपीय संघ के डेटाबेस में सिस्टम को पंजीकृत करना होगा, और पुष्टि करनी होगी कि इसका प्रशिक्षण डेटा यूरोपीय संघ में अपने इच्छित उद्देश्य के लिए पूर्ण और प्रासंगिक है।

स्वचालित निर्णय लेने और RPA पर प्रभाव

यूरोपीय संघ के नियमों के तहत AI शासन स्वचालित निर्णय लेने को भी प्रभावित करेगा। विनियमन AIके आठ उपयोगों को सूचीबद्ध करता है, विशेष रूप से वित्तीय संस्थानों में। इनमें AI प्रणालियां शामिल हैं जो निर्णय लेने और कुछ बायोमेट्रिक और चेहरे की पहचान उपयोगों को ख़राब करने के लिए अचेतन, जोड़ तोड़ या भ्रामक तकनीकों का उपयोग करती हैं। इसमें ऐसी प्रणालियाँ भी शामिल हैं जो व्यक्तित्व और व्यवहार लक्षणों के आधार पर व्यक्तियों को वर्गीकृत करती हैं और जो पहली बार भावनाओं का अनुमान लगाती हैं।

युवा पेशेवर आदमी मुस्कुराते हुए, एक कॉर्पोरेट सेटिंग में AI और चेहरे की पहचान प्रौद्योगिकियों का प्रतिनिधित्व करने वाले भविष्य के डिजिटल आइकन के साथ मढ़ा हुआ।
चेहरे की पहचान प्रगति को उजागर करने वाली AI प्रौद्योगिकियों के कार्यान्वयन में अंतर्दृष्टि।

रोबोटिक प्रोसेस ऑटोमेशन पर यूरोपीय संघ के नियम यह भी सुनिश्चित करेंगे कि व्यवसाय पारदर्शी रूप से डेटा एकत्र करें।

व्यावसायिक संचालन को बढ़ाने के लिए AI एकीकरण सेवाओं को प्रदर्शित करने वाले Tor.app का मुखपृष्ठ, जिसमें गति, सटीकता और आसानी पर जोर दिया गया है।
Tor.app पर इंटरैक्टिव AI टूल का अन्वेषण करें जो गति और दक्षता के साथ व्यावसायिक संचालन को बदलते हैं।

Tor.app AI-Regulated वातावरण में गोपनीयता का समर्थन कैसे करता है

यह उत्पाद सूट व्यवसायों के लिए वर्कफ़्लो ऑटोमेशन टूल का एक पूरा सूट प्रदान करता है। यह कई उत्पादों में से एक है जो अन्य उद्यम-ग्रेड मानकों के बीच यूरोपीय संघ AI अधिनियम का अनुपालन करता है। यह सामग्री निर्माण, प्रतिलेखन, पाठ को वाक् में परिवर्तित करने, और बहुत कुछ को सुव्यवस्थित करने के लिए AI की शक्ति का उपयोग करता है। वर्कफ़्लो ऑटोमेशन के लिए EU AI Act भी उत्पादों के इस सूट की सुरक्षा की गारंटी देता है।

इसके सुइट के सभी उपकरण एंटरप्राइज़-ग्रेड सुरक्षा तंत्र का अनुपालन करते हैं, जिसमें SOC 2 और GDPR मानक शामिल हैं। यह सुनिश्चित करता है कि आपका डेटा हमेशा सुरक्षित है और दुरुपयोग के जोखिम को समाप्त करता है।

Tor.app के साथ गुमनामी और डेटा सुरक्षा लाभ

कई अन्य ऐप्स की तरह, यह डेटा सुरक्षा मानकों का अनुपालन करता है जो पूर्ण गुमनामी सुनिश्चित करते हैं। उपरोक्त दो नियमों के अलावा, यह भी अनुपालन करता है HIPAA, हर समय चिकित्सा जानकारी की रक्षा करना।

डेटा सुरक्षा लाभ सुनिश्चित करते हैं कि व्यवसाय संगठनात्मक डेटा और व्यक्तिगत ग्राहक जानकारी से समझौता किए बिना न्यूनतम जोखिम वाले स्वचालन उपकरण का उपयोग कर सकते हैं।

अनुपालन कदम व्यवसायों को यूरोपीय संघ AI अधिनियम के तहत विचार करना चाहिए

एयू AI अधिनियम अनुपालन सुनिश्चित करने में दो-चरणीय प्रक्रिया शामिल है, एक अल्पावधि के लिए और दूसरा लंबी अवधि के लिए। अल्पावधि में, व्यवसायों को AIका उपयोग करने के लिए उपयुक्त शासन को परिभाषित करना चाहिए। इसमें शामिल है:

  1. अधिनियम में उल्लिखित जोखिमों के आधार पर व्यवसायों की AI प्रणालियों को वर्गीकृत करने का तरीका निर्धारित करना।
  2. ग्राहकों और भागीदारों सहित सभी हितधारकों के साथ AI के उपयोग का संचार करना।
  3. स्थायी डेटा शासन तंत्र स्थापित करना जो दीर्घकालिक गोपनीयता, गुणवत्ता और सुरक्षा सुनिश्चित करता है।

अगला कदम उन जोखिमों को समझना है जो AI प्रस्तुत करते हैं। यहाँ बताया गया है कि व्यवसाय क्या कर सकते हैं:

  1. AI सिस्टम के उपयोग के आंतरिक और बाहरी जोखिमों को समझें।
  2. उच्च जोखिम वाले घटक वाले लोगों की पहचान करने के लिए इन जोखिमों को वर्गीकृत करें यह अधिनियम के तहत दायित्वों का अनुपालन सुनिश्चित करेगा।
  3. उन क्षेत्रों को समझने के लिए गहन अंतराल विश्लेषण करें जहां सिस्टम अधिनियम का अनुपालन नहीं करते हैं।
  4. एक व्यापक तृतीय-पक्ष जोखिम प्रबंधन प्रक्रिया को परिभाषित करें यह सुनिश्चित करेगा कि AI उपयोग अधिनियम के तहत नियमों के अनुपालन में है।

तीसरा, व्यवसायों को उन कार्यों को भी शुरू करना चाहिए जिनके लिए समय के साथ स्केलिंग की आवश्यकता होती है। यहाँ इसमें क्या शामिल है:

  1. यह सुनिश्चित करने के लिए AI सिस्टम प्रबंधन प्रक्रियाओं को अनुकूलित और स्वचालित करें कि उपयोग किए गए मॉडल पारदर्शी और भरोसेमंद हैं।
  2. अधिनियम के अनुपालन का व्यापक दस्तावेजीकरण सुनिश्चित करें।
  3. कर्मचारियों को नैतिक रूप से AI उपयोग करने और AIके उपयोग के साथ नई जिम्मेदारियों को संभालने के लिए प्रशिक्षित करें।

इन अल्पकालिक उपायों के अलावा, कुछ चीजें हैं जो व्यवसायों को लंबी अवधि में करनी चाहिए। इसमे शामिल है:

  1. व्यापार पर विनियमन के दीर्घकालिक प्रभाव का अनुमान लगाएं और AI पारदर्शिता मानकों के माध्यम से ग्राहकों के बीच विश्वास का निर्माण करें उन्हें यह भी रणनीति बनानी चाहिए कि नियमों के साथ व्यावसायिक प्रथाओं को कैसे संरेखित किया जाए।
  2. AI और शासन की नैतिकता पर सभी आंतरिक और बाहरी हितधारकों को शिक्षित करने में दीर्घकालिक निवेश को प्राथमिकता दें।
  3. नवाचार में विश्वसनीय AI मॉडल शामिल करें और हर चरण में उच्चतम डेटा गोपनीयता और सुरक्षा मानकों को सुनिश्चित करें।

आईबीएम के भरोसेमंद AIके प्रबंध सलाहकार दशा सिमंस के अनुसार, व्यवसायों को रणनीतिक रूप से AI के अपने उपयोग से संपर्क करने की आवश्यकता होगी। सी-सूट को भी इस बातचीत में भारी रूप से शामिल होने की आवश्यकता होगी।

इनके अलावा, व्यवसायों को गैर-अनुपालन के लिए वित्तीय दंड के बारे में भी पता होना चाहिए। इसमे शामिल है:

  1. अनुच्छेद 5 का उल्लंघन करने के लिए € 35 मिलियन तक का जुर्माना या कंपनी के दुनिया भर में वार्षिक कारोबार का लगभग 7% यह निषिद्ध AI प्रथाओं के उल्लंघन से संबंधित है।
  2. AI दायित्वों का अनुपालन न करने के लिए €15 मिलियन तक का जुर्माना या वार्षिक कारोबार का 3%।
  3. झूठी जानकारी प्रदान करने के लिए €7.5 मिलियन तक का जुर्माना या वार्षिक कारोबार का 1%।

लगाए जा सकने वाले वित्तीय दंड के अलावा, व्यवसायों को प्रतिष्ठित क्षति का भी सामना करना पड़ सकता है। यह ग्राहक विश्वास, व्यावसायिक साझेदारी और प्रतिस्पर्धा को मिटाने के परिणामस्वरूप हो सकता है।

उच्च जोखिम वाली प्रणालियों की पहचान करना

यूरोपीय संघ AI अधिनियम के अनुपालन को सुनिश्चित करने के लिए पहला कदम उच्च जोखिम वाले AI प्रणालियों की पहचान करना है। अधिनियम के अनुसार, उच्च जोखिम वाली प्रणालियाँ जो निषिद्ध हैं, वे हैं:

  1. उपयोगकर्ता व्यवहार को विकृत करने और निर्णय लेने में बाधा डालने के लिए " अचेतन, भ्रामक और जोड़ तोड़ प्रणाली " को तैनात करें।
  2. सामाजिक व्यवहार या व्यक्तिगत लक्षणों के आधार पर व्यक्तियों का मूल्यांकन और वर्गीकरण करें इसके परिणामस्वरूप उनके प्रतिकूल उपचार होते हैं, जिन्हें सामाजिक स्कोरिंग के रूप में भी जाना जाता है।
  3. इंटरनेट से उपलब्ध छवियों को स्क्रैप करके चेहरे की पहचान डेटाबेस संकलित करना।
  4. सार्वजनिक रूप से सुलभ स्थानों में वास्तविक समय बायोमेट्रिक पहचान (RBI) इसके अपवादों में लापता व्यक्तियों या पीड़ितों की खोज, जीवन के लिए खतरों को रोकना और गंभीर अपराधों में शामिल संदिग्धों की पहचान करना शामिल है।
  5. व्यवहार को विकृत करने के लिए उम्र, समूह या अन्य संबंधित कमजोरियों का शोषण करना।

प्रलेखन प्रोटोकॉल विकसित करना

व्यवसायों को उच्च जोखिम वाले AI सिस्टम के उपयोग की पहचान करने के लिए एक व्यापक प्रलेखन प्रक्रिया भी विकसित करनी चाहिए। उन्हें यह सुनिश्चित करने की आवश्यकता है कि AI सिस्टम यूरोपीय संघ AI अधिनियम में निर्धारित नियमों का पूरी तरह से पालन करें। प्रलेखन में किसी भी उच्च जोखिम वाले AI सिस्टम को भी शामिल किया जाना चाहिए जिसे किसी व्यवसाय ने पहचाना है। अन्य पहलू अधिक पारदर्शिता सुनिश्चित करने के लिए रणनीतियां हैं।

यूरोपीय संघ के AI अधिनियम का पालन करने के लाभ और चुनौतियां

यूरोपीय संघ AI अधिनियम का पालन करना इसके लाभों और चुनौतियों के साथ आता है। यह किसी भी नए विनियमन के मामले में है। कुछ लाभों में शामिल हैं:

  • अधिक विश्वास: उपयोगकर्ता अधिक आश्वस्त हो सकते हैं कि उनके द्वारा उपयोग की जाने वाली AI प्रणालियां अधिनियम के तहत नियमों का अनुपालन करती हैं।
  • कम लागत: व्यवसायों के पास यूरोपीय AI समाधानों तक आसान पहुंच होगी जो पहले से ही अधिनियम के अनुपालन में हैं नतीजतन, वे सही समाधान खोजने की लागत को कम कर सकते हैं।
  • अधिक डेटा सुरक्षा: सामान्य डेटा संरक्षण विनियमन (GDPR) के साथ यूरोपीय संघ AI अधिनियम का संरेखण उच्चतम डेटा संरक्षण मानकों को सुनिश्चित करता है।

दूसरी तरफ, इस अधिनियम की कुछ चुनौतियों में शामिल हैं:

  • उच्च मूल्य: अधिनियम के अनुपालन में AI समाधानों की लागत दूसरों की तुलना में अधिक हो सकती है यह विशेष रूप से सच है अगर वे यूरोपीय संघ के बाहर उत्पन्न होते हैं।
  • कम कार्यक्षमता: AI नियम आंतरिक और बाहरी हितधारकों के लिये कार्यक्षमता को कम करते हुए कुछ AI सुविधाओं को समाप्त कर सकते हैं।
  • संभावित रूप से कम नवाचार: नवाचार की कीमत पर सख्त नियम आ सकते हैं कम या बिना नियमों वाले क्षेत्र नवाचार की दौड़ को संभाल सकते हैं।

एक सफेद शर्ट में आदमी ने अपने लैपटॉप पर एक ह्यूमनॉइड चेहरे के डिजिटल AI होलोग्राम का विश्लेषण करने पर गहराई से ध्यान केंद्रित किया।
AI प्रौद्योगिकी की गहराई और यूरोपीय संघ के नए नियमों के तहत इसके निहितार्थों की खोज।

विश्वास और नैतिकता के लिए दीर्घकालिक लाभ

Statistaके अनुसार, केवल एक चौथाई अमेरिकी वयस्कों ने उन्हें सटीक जानकारी प्रदान करने के लिए AI पर भरोसा किया। सटीक संख्या ने नैतिक और निष्पक्ष निर्णय लेने के लिए इस पर भरोसा किया। यहां तक कि जब विश्व स्तर पर जांच की जाती है, तो यह आंकड़ा AIमें अविश्वास के पैमाने को दर्शाता है।

संदर्भ: स्टेटिस्टा

यूरोपीय संघ AI अधिनियम का उद्देश्य इस अविश्वास को कम करना और व्यवसायों द्वारा AIका उपयोग करने के तरीके में अधिक पारदर्शिता सुनिश्चित करना है। यह उच्चतम सुरक्षा मानकों को सुनिश्चित करने के लिए उनके द्वारा एकत्र किए गए डेटा पर भी ध्यान केंद्रित करता है।

लंबी अवधि में, इन नियमों का अनुपालन व्यवसायों में अधिक विश्वास सुनिश्चित करेगा। यह भी सुनिश्चित करेगा कि AI का नैतिक रूप से उपयोग किया जाए और इसके दुरुपयोग को रोका जाए।

समाप्ति

यूरोपीय संघ AI अधिनियम नियमों का सबसे व्यापक सेट है। यह यूरोपीय संघ के भीतर AI प्रणालियों के उपयोग को नियंत्रित करना चाहता है। यह यूरोपीय संघ में AI जवाबदेही सुनिश्चित करता है। यह उनके जोखिमों के आधार पर सिस्टम को वर्गीकृत करता है और प्रत्येक श्रेणी के लिए नियमों को सूचीबद्ध करता है।

आगे बढ़ते हुए, व्यवसायों को अधिनियम में नियमों का अनुपालन सुनिश्चित करना चाहिए। उन्हें पारदर्शिता और उच्चतम डेटा सुरक्षा और गोपनीयता मानकों को भी सुनिश्चित करना चाहिए।

उन लोगों के लिए जो एक ऐसे उपकरण की तलाश में हैं जो पहले से ही उच्चतम AI नियमों का अनुपालन करता है, आपको Tor.app देखना चाहिए। यह एक व्यापक वर्कफ़्लो ऑटोमेशन टूल प्रदान करता है जो दक्षता और लाभप्रदता को अधिकतम करता है।

Frequently Asked Questions

यूरोपीय संसद ने 13 मार्च, 2024 को आर्टिफिशियल इंटेलिजेंस अधिनियम को अपनाया। यह दुनिया में AI पर नियमों का सबसे व्यापक क्षैतिज सेट है। यह मानव निरीक्षण पारदर्शिता, डेटा गुणवत्ता और सुरक्षा पर नियमों को सूचीबद्ध करता है।

EU AI अधिनियम का उद्देश्य यह सुनिश्चित करना है कि यूरोपीय संघ के भीतर उपयोग किए जाने वाले AI सिस्टम सुरक्षित हैं और नागरिकों के मौलिक अधिकारों का उल्लंघन नहीं करते हैं। इसका उद्देश्य डेटा गोपनीयता और सुरक्षा के उच्चतम मानकों की गारंटी देते हुए AI के क्षेत्र में नवाचार को प्रोत्साहित करना है।

EU AI अधिनियम 1 अगस्त, 2024 को लागू हुआ और 2 अगस्त, 2026 से प्रभावी होगा। इसके एकमात्र अपवाद अनुच्छेद 113 में सूचीबद्ध प्रावधान हैं।