विशेष प्रतिनिधी, मुंबई | ११ मे २०२६

जागतिक माहिती तंत्रज्ञान (आयटी) क्षेत्र सध्या एका विचित्र विरोधाभासात अडकले आहे. एकीकडे ‘आर्टिफिशियल इंटेलिजन्स’ (एआय) म्हणजे उत्पादनक्षमतेचा अक्षय स्रोत, तर दुसरीकडे तिच्यावरील अंधश्रद्धेसारखे वाढते अवलंबित्व उद्योगाच्या मूलभूत कौशल्यांचा पायाच खणून काढत आहे. सॉफ्टवेअर डेव्हलपमेंटपासून सायबर सुरक्षेपर्यंत आणि ग्राहक संवादापासून धोरणात्मक निर्णयांपर्यंत, एआय अल्पावधीत अपरिहार्य वाटत असली, तरी दीर्घकालीन परिणाम भयावह आहेत. ही केवळ तांत्रिक चर्चा राहिलेली नाही; ती आता अर्थकारण, रोजगार आणि मानवी बौद्धिक स्वायत्ततेचा प्रश्न बनली आहे.

गेल्या दोन वर्षांत ‘जनरेटिव्ह एआय’ उपकरणांनी आयटी क्षेत्र व्यापले. गिटहब कोपायलट, चॅटजीपीटी, गुगलचे बार्ड कोडिंग सहाय्यक यांसारखी साधने कोड लिहिणे, चाचणी करणे व दस्तावेजीकरण यांत विक्रमी वेगाने मदत करतात. परिणामी तरुण विकसक लॉजिक समजून घेण्याऐवजी ‘प्रॉम्प्ट इंजिनिअरिंग’वर अधिक भर देत आहेत. न्यूयॉर्क विद्यापीठाच्या अलीकडील एका अभ्यासानुसार, कनिष्ठ प्रोग्रामरपैकी ६२ टक्के कोणतेही अल्गोरिदमिक उत्तर स्वतः न तपासता एआय निर्मित कोड स्वीकारतात. त्यामुळे डीबगिंग क्षमता कमी होत चालली असून, भविष्यातील सिनियर इंजिनिअर तयार होण्याची प्रक्रियाच धोक्यात आली आहे. अनुभवी संघप्रमुख सांगतात, “पूर्वी ज्युनियरकडून मूलभूत चुका होत; आता त्यांच्याकडून एआयने तयार केलेले भव्य पण न समजलेले ‘ब्लॅक बॉक्स’ येतात – ही अधिक गंभीर समस्या आहे.”

हे अवलंबित्व केवळ वैयक्तिक कौशल्यापुरते मर्यादित नाही. जागतिक आयटी पुरवठा साखळीत एखाद्या एआय मॉडेलवर केंद्रीकृत अवलंबित्व निर्माण होणे हा सामरिक धोका आहे. मोजक्या कंपन्या – OpenAI, गुगल, मेटा, अमेझॉन – या मूलभूत मॉडेल्सवर नियंत्रण ठेवतात. सॉफ्टवेअर उद्योगाचा कणा असलेली लहान-मध्यम फर्म्स आता या मॉडेल्सच्या API किंवा परवाना धोरणांवर पूर्णपणे अवलंबून आहेत. मार्च २०२६ मध्ये एका मोठ्या क्लाउड प्रदात्याने अचानक मॉडेल अपडेट आणि किंमतवाढ केली, तेव्हा युरोपमधील शेकडो स्टार्टअप्सची उत्पादने जवळपास दोन दिवस ठप्प झाली. तज्ज्ञ याला ‘एपीआय कॉलोनियलिझम’ म्हणतात – जिथे बौद्धिक संपदा व निर्णयक्षमता मूठभर केंद्रांमध्ये कैद होते आणि उर्वरित जग केवळ ग्राहक बनते.

सुरक्षेच्या दृष्टिकोनातून चित्र अधिक गंभीर आहे. एआय साहाय्याने लिहिलेला कोड अनेकदा जुन्या ग्रंथालयांचा (लायब्ररी) संदर्भ घेतो, ज्यात ज्ञात त्रुटी (vulnerabilities) दडलेल्या असू शकतात. स्टॅनफर्डच्या ‘एआय सेफ्टी लॅब’ ने गेल्या महिन्यात प्रसिद्ध केलेल्या अहवालात नमूद केले आहे की, एआय कोडिंग टूलने व्युत्पन्न केलेल्या २७% कोडबेसमध्ये किमान एक गंभीर सुरक्षा छिद्र आढळले, जे मानवी पुनरावलोकनाशिवाय प्रत्यक्ष उत्पादनात गेले असते. ‘हल्युसिनेशन’ च्या समस्येमुळे एआय अस्तित्वात नसलेले फंक्शन कॉल सुचवते, ज्याचा फायदा घेऊन हॅकर्स ‘पॅकेज हायजॅकिंग’ करतात. अशा घटनांमध्ये सहा पटींनी वाढ झाल्याचे सायबर सुरक्षा संस्था ‘सीआयएसए’ ने जानेवारी २०२६ च्या परिपत्रकात मान्य केले.

दुसरीकडे, रोजगार क्षेत्रावर दुहेरी आघात होत आहे. भारत, फिलीपिन्स, पूर्व युरोप यांसारख्या देशांमधील आयटी सेवा क्षेत्र ज्यावर उभे आहे – ती पुनरावृत्तीची कामे (कोड मायग्रेशन, टेस्टिंग, लेगसी मेंटेनन्स) – ती सर्वात आधी एआय गिळत आहे. नॅस्कॉमच्या जून २०२५ च्या अहवालानुसार, भारतीय आयटी कंपन्यांमधील कनिष्ठ पातळीवरील ३४% पदे एकतर रद्द झाली आहेत किंवा ‘एआय देखरेख’ या नव्या अस्पष्ट भूमिकेत रूपांतरित झाली आहेत. परंतु याचा अर्थ कुशल नोकऱ्या सुरक्षित आहेत असे नाही. आर्किटेक्ट स्तरावरसुद्धा एआय पर्याय सुचवताना, माणसाची निर्णय प्रक्रिया मंद व महागडी वाटू लागली आहे. व्यवस्थापकीय स्तरावर ‘एआयने सांगितले म्हणून’ हा नवा निर्णय आधार बनत असून, उत्तरदायित्वाचे संकट गहिरे होत आहे. जो निर्णय यंत्र घेते, त्याची नैतिक जबाबदारी कोण घेणार?

पर्यावरणीय किंमतही दुर्लक्षित आहे. एका मोठ्या एआय मॉडेलच्या अविरत प्रशिक्षण व अनुमान प्रक्रियेसाठी लागणारी ऊर्जा व पाणी काही छोट्या राष्ट्रांच्या वार्षिक गरजेइतके आहे. गुगल आणि मायक्रोसॉफ्टने गेल्या वर्षभरात आपले कार्बन उत्सर्जन ४८% वाढल्याचे कबूल केले; मात्र, ‘ग्रीन एआय’ च्या नावाखाली यावर तोडगा म्हणून खरेदी केलेल्या कार्बन क्रेडिटमुळे प्रत्यक्ष परिस्थिती झाकली जात आहे. आयटी उद्योग हरित प्रतिमा जपत असतानाच, प्रचंड डेटा सेंटर्सच्या पाठीमागे स्थानिक जलस्रोत आटत आहेत हे दुर्लक्षित सत्य आहे.

हे सर्व असूनही विरोधी मत मांडणारे उद्योग विचारवंत ‘उत्पादकतेत क्रांती’ आणि ‘नवे रोजगार’ या जुन्या युक्तिवादांवर ठाम आहेत. परंतु इतिहास सांगतो, जेव्हा जेव्हा एखादे तंत्रज्ञान ‘सर्वव्यापी’ आणि ‘सोपे’ होते, तेव्हा मानवी कौशल्याचे अवमूल्यन होते. कॅल्क्युलेटरने अंकगणिताची जागा घेतली नाही; परंतु एआय मात्र विचारप्रक्रियेची जागा घेते आहे – हा फरक जीवघेणा आहे. गुंतवणूकदारांच्या अल्पकालीन फायद्यापोटी संपूर्ण पिढीची बौद्धिक क्षमता गहाण ठेवली जात आहे.

जबाबदार उत्तर काय? सरकारी नियमन उशिरा का होईना, युरोपीय संघाच्या ‘एआय ॲक्ट’प्रमाणे ‘हाय रिस्क’ परिस्थितीत मानवी नियंत्रण अनिवार्य करण्याकडे भारतानेही वाटचाल सुरू केली आहे. पण कायद्यापेक्षा सांस्कृतिक बदल आवश्यक आहे. कंपन्यांनी ‘एआय-प्रथम’ ऐवजी ‘एआय-सहाय्यित, मानव-प्रमुख’ धोरण स्वीकारले पाहिजे. शैक्षणिक अभ्यासक्रमात केवळ एआय साधने वापरणे नव्हे, तर त्यांच्या मर्यादा व पारदर्शकता शिकवणे बंधनकारक झाले पाहिजे. सॉफ्टवेअर अभियंत्रिकी म्हणजे ‘क्विक प्रॉम्प्ट’ नव्हे, तर सखोल पद्धतशीर विचार आहे, याचे भान ठेवून प्रशिक्षित मनुष्यबळ उभे करावे लागेल.

शेवटी, एआय हे एक साधन आहे – अत्यंत शक्तिशाली, पण तितकेच धोकादायक. शल्यक्रियेसाठी लेसरचा वापर करणारे सर्जन लेसरवर अवलंबून राहत नाहीत; ते स्वतःचे निदान कौशल्य जिवंत ठेवतात. माहिती तंत्रज्ञान क्षेत्रानेही एआयच्या या लेसरवर डोळे झाकून विसंबून राहण्यापेक्षा, स्वतःची वैचारिक दृष्टी तपासण्याची घाई करायला हवी. अन्यथा ही अवलंबित्व आपल्याला एका अशा बिंदूवर नेऊन ठेवेल, जिथे यंत्र बंद पडले की माणूसही निष्क्रिय होईल – आणि ती नव्या अंधारयुगाची सुरुवात असेल.