कृत्रिम बुद्धिमत्ता (IA) को अक्सर एक क्रांतिकारी तकनीक के रूप में देखा जाता है, क्षमता प्रदान करने में सक्षम, सटीकता और नई रणनीतिक अवसरों को खोलना. हालांकि, जब कंपनियाँ एआई के फायदों का लाभ उठाती हैं, एक महत्वपूर्ण चुनौती भी उभरती है और, कभी-कभी, उपेक्षित: एल्गोरिदमिक समानता. इन प्रणालियों में छिपे पूर्वाग्रह न केवल व्यावसायिक निर्णयों की दक्षता को प्रभावित कर सकते हैं, लेकिन कानूनी परिणाम उत्पन्न करना, महत्वपूर्ण नैतिक और सामाजिक.
एल्गोरिदमिक पूर्वाग्रहों की उपस्थिति को स्वयं आईए की प्रकृति द्वारा समझाया जा सकता है, विशेष रूप से मशीन लर्निंग में. मॉडल ऐतिहासिक डेटा के साथ प्रशिक्षित होते हैं, और जब ये डेटा पूर्वाग्रहों या सामाजिक विकृतियों को दर्शाते हैं, एल्गोरिदम स्वाभाविक रूप से इन पूर्वाग्रहों को बढ़ावा देते हैं. जानकारी में पूर्वाग्रहों के अलावा, स्वयं एल्गोरिदम द्वारा किए गए कारकों के संतुलन में असंतुलन आ सकता है, या डेटा का उपयोग प्रॉक्सी के रूप में किया गया, यानी, जानकारी को प्रतिस्थापित करने वाले डेटा, लेकिन वे उस विश्लेषण के लिए आदर्श नहीं हैं.
इस fenômeno का एक प्रतीकात्मक उदाहरण चेहरे की पहचान के उपयोग में पाया जाता है, विशेष रूप से संवेदनशील संदर्भों में जैसे कि सार्वजनिक सुरक्षा. विभिन्न ब्राज़ीलियाई शहरों ने पुलिस कार्रवाई की प्रभावशीलता बढ़ाने के उद्देश्य से स्वचालित सिस्टम अपनाए हैं, लेकिन विश्लेषण दिखाते हैं कि ये एल्गोरिदम अक्सर महत्वपूर्ण गलतियाँ करते हैं, विशिष्ट जातीय समूहों के व्यक्तियों की पहचान करते समय विशेष रूप से, जैसे काले लोग. शोधकर्ता जॉय बुओलाम्विनी के अध्ययन, MIT करें, यह बताया गया कि व्यावसायिक एल्गोरिदम काली महिलाओं के लिए 30% से अधिक की त्रुटि दर दिखाते हैं, जबकि सफेद पुरुषों के लिए, दर कम होकर 1% से भी कम हो जाती है
ब्राज़ीलियाई कानून: भविष्य में अधिक कठोरता
ब्राजील में, além da Lei Geral de Proteção de Dados (LGPD) também está em tramitação o Marco Legal da IA (PL nº 2338/2023), जो देश में एआई के विकास और अनुप्रयोग के लिए सामान्य दिशानिर्देश स्थापित करता है.
हालांकि अभी तक स्वीकृत नहीं हुआ, यह विधेयक पहले से ही उन अधिकारों का संकेत देता है जिन्हें कंपनियों को सम्मानित करना चाहिए, जैसे: पूर्व सूचना का अधिकार (जब उपयोगकर्ता एक एआई सिस्टम के साथ इंटरैक्ट कर रहा हो तो सूचित करना), स्वचालित निर्णयों के स्पष्टीकरण का अधिकार, एल्गोरिदमिक निर्णयों को चुनौती देने का अधिकार और एल्गोरिदमिक पूर्वाग्रहों के कारण भेदभाव न होने का अधिकार.
ये बिंदु कंपनियों से मांग करेंगे कि वे जनरेटिव एआई सिस्टम में पारदर्शिता लागू करें (उदाहरण के लिए, स्पष्ट करते हुए कि कब एक पाठ या उत्तर मशीन द्वारा उत्पन्न किया गया) और ऑडिट तंत्र यह समझाने के लिए कि मॉडल किसी विशेष आउटपुट तक कैसे पहुंचा
एल्गोरिदमिक शासन: पूर्वाग्रहों के लिए समाधान
कंपनियों के लिए, एल्गोरिदमिक पूर्वाग्रह नैतिकता के क्षेत्र से परे जाते हैं, वे प्रासंगिक रणनीतिक समस्याएँ बन जाती हैं. पक्षपाती एल्गोरिदम आंतरिक प्रक्रियाओं जैसे भर्ती में महत्वपूर्ण निर्णयों को विकृत करने की क्षमता रखते हैं, ऋण की स्वीकृति और बाजार विश्लेषण. उदाहरण के लिए, एक शाखाओं के प्रदर्शन विश्लेषण का एक एल्गोरिदम जो शहरी क्षेत्रों को लगातार अधिक आंका जाता है और periféricas क्षेत्रों के नुकसान पर (अपूर्ण डेटा या पूर्वाग्रह के कारण) गलत दिशा में निवेश कर सकता है. इस प्रकार, छिपे हुए पूर्वाग्रह डेटा-आधारित रणनीतियों की प्रभावशीलता को कमजोर करते हैं, यह सुनिश्चित करना कि कार्यकारी आंशिक रूप से गलत जानकारी के आधार पर निर्णय लें
ये पूर्वाग्रह ठीक किए जा सकते हैं, लेकिन वे एक एल्गोरिदमिक शासन संरचना पर निर्भर करेंगे, डेटा की विविधता पर ध्यान केंद्रित करते हुए, प्रक्रियाओं की पारदर्शिता और तकनीकी विकास में विविध और बहु-विषयक टीमों का समावेश. तकनीकी टीमों में विविधता में निवेश करते समय, उदाहरण के लिए, कंपनियाँ पूर्वाग्रह के संभावित स्रोतों की पहचान अधिक तेजी से कर सकती हैं, यह सुनिश्चित करते हुए कि विभिन्न दृष्टिकोणों पर विचार किया जाए और कि विफलताएँ जल्दी पहचान ली जाएँ
इसके अलावा, निरंतर निगरानी उपकरणों का उपयोग महत्वपूर्ण है. ये सिस्टम वास्तविक समय में एल्गोरिदमिक पूर्वाग्रहों के विचलन का पता लगाने में मदद करते हैं, त्वरित समायोजन की अनुमति देना और नकारात्मक प्रभाव को कम करना.
पारदर्शिता पूर्वाग्रहों को कम करने में एक और आवश्यक प्रथा है. एल्गोरिदम को काले बक्से के रूप में काम नहीं करना चाहिए, लेकिन स्पष्ट और व्याख्यात्मक प्रणालियों के रूप में. जब कंपनियाँ पारदर्शिता का चयन करती हैं, ग्राहकों का विश्वास जीतते हैं, निवेशक और नियामक. पारदर्शिता बाहरी ऑडिट को आसान बनाती है, एक साझा जिम्मेदारी की संस्कृति को प्रोत्साहित करना जो एआई के प्रबंधन में हो
अन्य पहलों में जिम्मेदार एआई शासन के लिए ढांचे और प्रमाणपत्रों को अपनाना शामिल है. इसमें एआई में आंतरिक नैतिकता समितियों का निर्माण करना शामिल है, कॉर्पोरेट नीतियों को उनके उपयोग के लिए परिभाषित करें, और अंतरराष्ट्रीय मानकों को अपनाना. उदाहरण के लिए, frameworks como: a ISO/IEC 42001 (gestão de inteligência artificial, a ISO/IEC 27001 (segurança da informação) e ISO/IEC 27701 (privacidade) ajudam a estruturar controles nos processos de dados usados por IA generativa. एक और उदाहरण है अमेरिका के एनआईएसटी (नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स एंड टेक्नोलॉजी) द्वारा अनुशंसित प्रथाओं का समूह जो एल्गोरिदमिक जोखिम प्रबंधन का मार्गदर्शन करता है, पूर्वाग्रह पहचान को कवर करना, डेटा गुणवत्ता की जांच और मॉडलों की निरंतर निगरानी
विशेषीकृत परामर्श इस परिदृश्य में रणनीतिक भूमिका निभाते हैं. जिम्मेदार कृत्रिम बुद्धिमत्ता में विशेषज्ञता के साथ, एल्गोरिदमिक गवर्नेंस और नियामक अनुपालन, ये कंपनियाँ संगठनों को केवल जोखिमों से बचने में मदद नहीं करतीं, लेकिन समानता को प्रतिस्पर्धात्मक लाभ में बदलना. इन सलाहकारों की गतिविधियाँ जोखिम के विस्तृत आकलनों से शुरू होती हैं, तक आंतरिक नीतियों के विकास, कॉर्पोरेट प्रशिक्षण से गुजरना जो एआई में नैतिकता के बारे में है, यह सुनिश्चित करते हुए कि टीमें संभावित एल्गोरिदमिक पूर्वाग्रहों की पहचान और उन्हें कम करने के लिए तैयार हैं
इस प्रकार, एल्गोरिदमिक पूर्वाग्रहों की शमन केवल एक निवारक उपाय नहीं है, लेकिन एक रणनीतिक दृष्टिकोण. ऐसी कंपनियाँ जो एल्गोरिदमिक समानता की परवाह करती हैं, सामाजिक जिम्मेदारी का प्रदर्शन करती हैं, अपनी प्रतिष्ठा को मजबूत करते हैं और कानूनी दंड और सार्वजनिक संकटों से खुद को बचाते हैं. निष्पक्ष एल्गोरिदम अधिक सटीक और संतुलित अंतर्दृष्टि प्रदान करने की प्रवृत्ति रखते हैं, व्यावसायिक निर्णयों की प्रभावशीलता बढ़ाना और बाजार में संगठनों की प्रतिस्पर्धात्मक स्थिति को मजबूत करना
सिल्वियो सोब्रेइरा विएरा द्वारा, सीईओ और एसवीएक्स कंसल्टेंसी के प्रमुख सलाहकार