सरकारी निर्णयों में एल्गोरिदम की जवाबदेही

सरकारी सेवाओं में एल्गोरिदम तेजी से निर्णय लेने लगे हैं. इससे दक्षता बढ़ी है पर पारदर्शिता कम हुई है. नागरिकों के अधिकारों और सेवाओं पर असर की चिंता बढ़ रही है. कानून, न्याय और संस्थागत जवाबदेही का नया तालमेल आवश्यक है. यह लेख ऐतिहासिक प्रसंग, हालिया कानूनी विकास और व्यावहारिक नीतिगत सुझाव प्रस्तुत करता है. नागरिक भागीदारी जरूरी है सदैव.

सरकारी निर्णयों में एल्गोरिदम की जवाबदेही

ऐतिहासिक संदर्भ: स्वचालन और औपचारिक प्रशासनिक तर्क

स्वतंत्र शासन तंत्रों में प्रशासनिक निर्णय सांस्कृतिक और तकनीकी बदलावों के साथ विकसित हुए हैं. बीसवीं सदी के अंत तक निर्णय मुख्यतः मानव अधिकारी करते थे और न्यायिक समीक्षा, रिकॉर्ड-कीपिंग और सार्वजनिक नियमों पर निर्भर थे. सूचना प्रौद्योगिकी के आगमन ने प्रक्रियाओं को स्वचालित किया; कर, लाभ वितरण, लाइसेंसिंग और सेवाओं के वर्गीकरण में डेटाबेस और सरल नियम-आधारित सिस्टम उपयोग में आए। पिछले दशक में मशीन लर्निंग और सांख्यिकीय मॉडल ने जटिल जोखिम आकलनों, चुनावी/वित्तीय स्कोरिंग और रिसोर्स अलोकेशन जैसे कार्यों में प्रवेश किया। ऐतिहासिक रूप से प्रशासनिक कानून ने कारण बताने, सुनवाई के अधिकार और निष्पक्षता के सिद्धान्त स्थापित किए थे; अब इन सिद्धान्तों को एल्गोरिदमिक निर्णय-निर्माण के संदर्भ में पुन:व्याख्यायित करने की आवश्यकता है।

कानूनी ढाँचे और प्रशासनिक सिद्धांत

परंपरागत प्रशासनिक कानून के प्रमुख सिद्धान्त—न्यायिक समीक्षा, कारण बताने की आवश्यकता, निष्पक्ष सुनवाई और समानता—एल्गोरिदमिक शासन में लागू होते हैं। कई देशों में सूचना के अधिकार के नियम सरकारी रिकॉर्ड की पारदर्शिता की माँग करते हैं, जिससे एल्गोरिदम के उपयोग से संबंधित जानकारी पर चर्चा उभरी है। अंतरराष्ट्रीय स्तर पर OECD AI सिद्धान्त (2019) और UNESCO की AI सिफारिशें (2021) ने पारदर्शिता, नैतिकता और जवाबदेही को नेतृत्व दिया। ये सिद्धान्त राष्ट्रीय व्यवस्थाओं को मार्गदर्शित करते हैं कि किस तरह से जोखिम-आधारित नियमन, मानक और सार्वजनिक रिपोर्टिंग लागू की जाए।

देशों के संवैधानिक सिद्धान्त भी प्रासंगिक हैं: सार्वजनिक हित, समान पहुँच और निष्पक्ष उपचार की माँग एल्गोरिदमिक प्रणालियों के लिए स्पष्ट मानदण्ड तय करती है। प्रशासनिक कानून यह भी माँग कर सकता है कि यदि कोई निर्णय स्वचालित प्रणाली से लिया गया तो संशय की स्थिति में मानव परख और कारणों का खुलासा हो।

हालिया कानूनी विकास और नीति विमर्श

हाल के वर्षों में वैश्विक और राष्ट्रीय स्तर पर कई प्राथमिक व्यवस्थाएँ प्रस्तावित और लागू हुईं। यूरोपीय संघ ने 2023 में कृत्रिम बुद्धिमत्ता पर ऐक्ट की राजनीतिक सहमति की दिशा में महत्वपूर्ण प्रगति की, जो उच्च-जोखिम प्रणालियों पर सख्त आवश्यकताएँ और आडिट मापदण्ड रखता है। संयुक्त राज्य में अक्टूबर 2023 का कार्यकारी आदेश (Executive Order on AI) सार्वजनिक और निजी क्षेत्रों में सुरक्षित और जिम्मेदार AI पर दिशा-निर्देश देता है; इसमें संघीय एजेंसियों को जोखिम-आधारित नीतियाँ लागू करने की बात कही गई। इन वैश्विक संकेतों का प्रभाव राष्ट्रीय नीतिगत बहसों पर दिखाई देता है—कई राज्यों ने जोखिम-विशिष्ट प्रावधान, प्रभाव आकलन और स्वतंत्र आडिट को अपनाने की चर्चा शुरू कर दी है।

स्थानीय स्तर पर, कई देशों में सार्वजनिक सेवाओं में एल्गोरिदम के उपयोग पर पारदर्शिता और जवाबदेही के लिए मार्गदर्शक दस्तावेज और पायलट नीतियाँ सामने आई हैं। कुछ प्रशासनिक निकायों ने एल्गोरिद्मिक प्रभाव आकलन (AIA) अनिवार्य करने की चर्चा की है, ताकि जोखिम पहले से नापा जा सके और संभावित बाइयस व समाज पर प्रभाव सामने आए।

सामाजिक और न्यायिक प्रभाव

एल्गोरिदमिक निर्णय-प्रणालियाँ सार्वजनिक विश्वास, समानता और प्रवर्तन के तरीकों पर गहरा प्रभाव डाल सकती हैं। सकारात्मक पक्ष में ये प्रणालियाँ स्कोरिंग की नियमितता, मानकीकरण और लागत-कम प्रभावशीलता लाती हैं; नकारात्मक पक्ष में यदि मॉडल त्रुटिपूर्ण डेटा या पक्षपाती एल्गोरिदम पर आधारित हों तो भेदभाव, गलत असाइनमेंट और चिकित्सीय/आर्थिक नुकसान हो सकता है। न्यायालयों के समक्ष प्रश्न आते हैं कि क्या स्वचालित निर्णयों का परीक्षण पारंपरिक कारण बताने और सुनवाई के ढाँचे के तहत पर्याप्त है। कई जगहों पर यह पाया गया कि तकनीकी अस्पष्टता, मॉडल का आईपी (source code) और जटिलता न्यायिक समीक्षा की कठिनाइयाँ बढ़ाती है।

एल्गोरिदमिक जवाबदेही न सिर्फ़ तकनीकी है, बल्कि संवैधानिक और नैतिक भी है: किसने निर्णय लिया, किन आँकड़ों का उपयोग हुआ, किस तरह के मानदण्ड पर मॉडल प्रशिक्षित हुए और प्रभावित नागरिकों के पास निवारण के क्या विकल्प हैं—ये सभी प्रश्न शासन के मूल सिद्धान्तों से जुड़े हैं।

व्यावहारिक नीतिगत सुझाव और संस्थागत सुधार

प्रस्तावित ढाँचे को व्यवहार में लाने के लिए निम्न कदम उपयोगी होंगे:

  • जोखिम-आधारित वर्गीकरण और एल्गोरिद्मिक प्रभाव आकलन अनिवार्य करें: उच्च-प्रभाव वाले सरकारी सिस्टमों के लिए स्वतंत्र पूर्व-आकलन और सार्वजनिक रिपोर्टिंग ज़रूरी होनी चाहिए।

  • मानक और ऑडिट प्रक्रियाएँ विकसित करें: तटस्थ तकनीकी मानक, परीक्षण डेटासेट और तृतीय-पक्ष ऑडिटिंग के नियम लागू हों। स्वतंत्र ऑडिटर्स के लिए योग्यता और पारदर्शिता मानक हो।

  • पारदर्शिता की परिभाषा और सीमा तय करें: सार्वजनिक हित के मद्देनज़र निर्णय-मानदण्ड, मॉडल व्यवहार और परिणामों का सारांश खुलासा करना चाहिए, जबकि संसाधन-गोपनीयता और सुरक्षा की विवेकपूर्ण सीमाएँ हों। निर्णय का तर्क दर्शाने योग्य होना चाहिए ताकि प्रभावित नागरिक समझ सकें।

  • मानव निगरानी और निवारण तंत्र: संवेदनशील निर्णयों के लिये मानव-इन-द-लूप व्यवस्था और अपीलीय प्रक्रियाएँ सुनिश्चित हों, ताकि गलत फैसलों का त्वरित और प्रभावी निवारण हो।

  • संस्थागत क्षमता निर्मित करें: सरकारी अधिकारियों और न्यायिक अधिकारियों के लिये तकनीकी साक्षरता प्रशिक्षण, रेगुलेटरी सैंडबॉक्स और समसामयिक दिशानिर्देश आवश्यक हैं।

  • सार्वजनिक भागीदारी और रिपोर्टिंग: एल्गोरिदम के उपयोग पर नियमों, मॉडल-परिणामों और सुधारों की नियमित सार्वजनिक समीक्षा और नागरिक शिकायत निवारण मंच रखा जाना चाहिए।

निष्कर्ष: कानूनी ढाँचा और लोकतांत्रिक जवाबदेही

सरकारी निर्णयों में एल्गोरिदम का उपयोग अनिवार्य रूप से नकारात्मक नहीं है, पर इसे लोकतांत्रिक नियंत्रण और कानूनी जवाबदेही के ढाँचे में समाहित करना आवश्यक है। ऐतिहासिक प्रशासनिक सिद्धान्त—न्यायिक समीक्षा, कारण बताना और सुनवाई—आज भी प्रासंगिक हैं; उन्हें तकनीकी वास्तविकताओं के साथ जोड़ने की ज़रूरत है। वैश्विक नीतिगत रुझान जैसे EU की AI नियमावली और अंतरराष्ट्रीय सिद्धान्त स्थानीय कानूनों के लिये महत्वपूर्ण संकेत प्रदान करते हैं। अंततः प्रभावी नियम वही होंगे जो तकनीकी व्यवहार्यता, सार्वजनिक हित और नागरिकों के निवारण के अधिकारों के बीच संतुलन कायम कर सकें।