https://frosthead.com

क्या आर्टिफिशियल इंटेलिजेंस स्कूल की शूटिंग को रोक सकता है?

उनकी सभी आश्चर्यजनक आवृत्ति के लिए, स्कूल की शूटिंग एक भयावह डरावनी स्थिति है।

न केवल उन्हें रोकने के तरीके पर थोड़ी-बहुत सहमति है-बल्कि बंदूक पहुंच को प्रतिबंधित करने से लेकर अध्यापकों तक के सुझावों पर भी- लेकिन इस बारे में भी कम निश्चितता है कि कोई छात्र अपने सहपाठियों पर गोलियां क्यों चलाएगा।

अब, कुछ वैज्ञानिक यह पता लगाने में लगे हैं कि कृत्रिम बुद्धिमत्ता (AI) उत्तर खोजने में मदद कर सकती है या नहीं। विचार यह है कि एल्गोरिदम स्कूल की शूटिंग से संबंधित डेटा का बेहतर विश्लेषण करने में सक्षम हो सकता है, और शायद छात्र भाषा या व्यवहार में पैटर्न की पहचान भी कर सकता है जो स्कूल हिंसा को दूर कर सकता है। अनुसंधान अभी भी अपने प्रारंभिक चरण में है, और यह अनुमान लगाने के लिए मशीनों का उपयोग करने की संभावना है कि कौन स्कूल शूटर बन सकता है, किसी भी तरह के प्रोफाइलिंग से जुड़े गोपनीयता के मुद्दों और अन्य नैतिक प्रश्नों को उठाता है, खासकर जब से प्रक्रिया में बच्चे शामिल होंगे। हालांकि, लक्ष्य यह देखना है कि क्या बुद्धिमान मशीनों की विश्लेषणात्मक शक्ति उच्च भावनाओं और राजनीतिक बयानबाजी के भंवर में भस्म त्रासदियों को और अधिक स्पष्टता प्रदान कर सकती है।

प्रौद्योगिकी की ओर रुख करना

कृत्रिम बुद्धिमत्ता का उपयोग वैज्ञानिक विश्लेषण के रूप में कुछ करने के लिए अथक रूप में स्कूल की शूटिंग के रूप में श्रेया नृपति से बहुत अपील की। वह सिर्फ कोलोराडो में हाई स्कूल से स्नातक की उपाधि प्राप्त की, लेकिन फरवरी में वापस फ्लोरिडा के पार्कलैंड में 17 छात्रों की गोली लगने से हुई मौत के बाद, वह छात्र नेता एम्मा गोंजालेज द्वारा कार्रवाई करने के लिए प्रेरित हुई।

"मुझे लगा कि हमें अपने विचारों और संवेदनाओं को पोस्ट नहीं करना चाहिए, " नलापती कहते हैं। "मुझे लगा कि सहस्राब्दी की बढ़ती पीढ़ी के रूप में, हमें उस चीज़ का उपयोग करने की कोशिश करनी चाहिए जिसे हम सबसे अच्छी तकनीक के रूप में जानते हैं।"

तो नलापती, जो हाई स्कूल में कृत्रिम बुद्धिमत्ता का अध्ययन कर रही हैं, अन्य युवा महिलाओं तक पहुँचती हैं, जिन्हें वह आकांक्षाओं नामक एक कार्यक्रम के माध्यम से जानती हैं जो राष्ट्रीय महिला और सूचना प्रौद्योगिकी केंद्र द्वारा चलाया जाता है। कम्प्यूटिंग में आकांक्षाएं युवा महिलाओं को कंप्यूटिंग और तकनीकी क्षेत्रों में प्रवेश करने के लिए प्रोत्साहित करती हैं।

नलापती ने समूह के अन्य लोगों को एक नए प्रोजेक्ट में शामिल होने के लिए कहा, #NeverAgainTech। उन्हें उम्मीद है कि सहयोगात्मक प्रयास के परिणामस्वरूप एआई-चालित संकलन और स्कूल की शूटिंग से संबंधित डेटा की एक विस्तृत श्रृंखला का विश्लेषण होगा - अतीत के निशानेबाजों के बारे में जनसांख्यिकीय और सामाजिक-आर्थिक जानकारी से, नशीली दवाओं के उपयोग या तंत्रिका संबंधी विकारों के किसी भी इतिहास के लिए, जिन राज्यों में हमले हुए हैं, वहां बंदूक की उपलब्धता। लक्ष्य यह है कि वर्तमान में मौजूद किसी भी चीज़ की तुलना में स्कूल की शूटिंग के कई घटकों का अधिक व्यापक विखंडन विकसित किया जाए, और परिणामी सॉफ़्टवेयर को अगले साल जनता, विशेष रूप से स्कूलों और कानून प्रवर्तन एजेंसियों को उपलब्ध कराया जाए।

जोखिम का आकलन

सिनसिनाटी चिल्ड्रन्स हॉस्पिटल मेडिकल सेंटर के शोधकर्ताओं की एक टीम स्कूल हिंसा को संबोधित करने के लिए एआई का उपयोग करने में एक अलग दृष्टिकोण ले रही है। यह हाल ही में प्रकाशित एक अध्ययन का सुझाव है कि मशीन सीखने से संभावित रूप से चिकित्सक और परामर्शदाताओं को मदद मिल सकती है जो एक छात्र को जोखिम के स्तर को समझ सकता है।

विशेष रूप से, वैज्ञानिकों ने पाया कि एआई बच्चे और किशोर मनोचिकित्सकों की एक टीम के रूप में सटीक था, जब यह हिंसक व्यवहार के जोखिम का आकलन करने के लिए आया था, 12 से 18 वर्ष की आयु के बीच 119 बच्चों के साथ साक्षात्कार पर आधारित था। जबकि अध्ययन भौतिक पर मोटे तौर पर किया गया था। आक्रामकता, प्रमुख शोधकर्ता ड्रू बार्ज़मैन का कहना है कि यह स्कूल की शूटिंग के जोखिम का आकलन करने के लिए भी लागू था।

"आमतौर पर स्कूल हिंसा से पहले चेतावनी के संकेत हैं, " वे कहते हैं। विशेष रूप से, एक साक्षात्कार के दौरान छात्र जिस भाषा का उपयोग करता है, वह उच्च जोखिम वाले किशोर को कम जोखिम वाले एक से अलग करने में मदद कर सकती है, जैसा कि पिछले शोध बारज़मैन द्वारा निर्देशित है। उस अध्ययन से यह निष्कर्ष निकला कि पूर्व में अपने बारे में और दूसरों के कृत्यों के बारे में नकारात्मक भावनाओं को व्यक्त करने की अधिक संभावना थी। वह खुद से और हिंसक वीडियो गेम या फिल्मों से जुड़े हिंसक कृत्यों के बारे में बात करने की अधिक संभावना थी।

टीम ने नए शोध के लिए साक्षात्कार में आए छात्रों के टेप का विश्लेषण करने के लिए एआई एल्गोरिदम के पहले के परिणामों का उपयोग करके एक और कदम उठाया। भाषा के पैटर्न के आधार पर, यह इंगित करता है कि क्या कोई व्यक्ति हिंसा करने का उच्च या निम्न जोखिम था। 91 प्रतिशत से अधिक समय, एल्गोरिथ्म, केवल ट्रांसक्रिप्ट्स का उपयोग करके, बच्चे और किशोर मनोचिकित्सकों की एक टीम के अधिक व्यापक आकलन के साथ गठबंधन किया, जिनके पास माता-पिता और स्कूलों की जानकारी भी उपलब्ध थी।

अध्ययन में छात्रों को बड़े पैमाने पर मनोचिकित्सक आउट पेशेंट क्लीनिक, इनपैथेंट यूनिट और आपातकालीन विभागों से भर्ती किया गया था। कुछ ने हाल ही में प्रमुख व्यवहार परिवर्तनों का प्रदर्शन किया था, लेकिन दूसरों के लिए, परिवर्तन अधिक मामूली थे। बारज़मैन का कहना है कि उन्होंने स्कूलों की एक विविध श्रेणी में भाग लिया, हालांकि कोई भी घर-स्कूल नहीं था।

बारज़मैन के अनुसार, अध्ययन ने स्कूल में शारीरिक आक्रामकता की भविष्यवाणी करने पर ध्यान केंद्रित किया, लेकिन यह अभी भी ज्ञात नहीं है कि क्या मशीन सीखने से वास्तव में हिंसा को रोका जा सकता है। इस बिंदु पर ध्यान चिकित्सक और परामर्शदाताओं को एक उपकरण प्रदान करना है जो साक्षात्कार के आधार पर छात्रों के उनके आकलन को तेज कर सकता है। मंशा, बार्ज़मैन नोट, मशीनों को छात्रों के बारे में निर्णय लेने के लिए नहीं है।

"यह मूल रूप से चिकित्सक को उसके निर्णय लेने में मदद करने के लिए होगा, " बार्ज़मैन कहते हैं। "हम उन्हें एक ऐसा ढांचा प्रदान करेंगे जो हमें महत्वपूर्ण प्रश्नों के रूप में मिला है। एक छात्र का साक्षात्कार करना, सही जानकारी निकालना और सब कुछ याद रखना मुश्किल हो सकता है। विचार उन्हें एक उपकरण देना है जो उनकी मदद कर सकता है। प्रक्रिया के माध्यम से और उनके आकलन की सटीकता में वृद्धि। ”

स्कूली हिंसा को संबोधित करने में कृत्रिम बुद्धिमत्ता की क्षमता में मैटी स्क्वार्ज़ोनी एक और विश्वासी है। वह Sitch AI नामक एक कैलिफोर्निया स्टार्टअप के सीईओ हैं, जो बाजार की तकनीक की योजना बनाता है जो कहता है कि वह ऐसे खतरों से निपटने में स्कूलों की मदद कर सकता है। प्रारंभिक ध्यान सेंसर की एक प्रणाली विकसित करने पर होगा जो पुलिस अधिकारियों को बंदूक की नोक के सटीक स्थान का पता लगाने में सक्षम करेगा, और एक स्कूल के माध्यम से एक शूटर के आंदोलनों को भी ट्रैक करेगा। लेकिन स्क्वार्ज़ोनी का कहना है कि कंपनी हिंसक मोड़ लेने से पहले संभावित समस्याओं को समझने के लिए भविष्य कहनेवाला विश्लेषण का उपयोग करने के तरीकों को भी देख रही है।

उनका मानना ​​है कि कृत्रिम बुद्धिमत्ता किसी छात्र के डेटा और उसके प्रदर्शन या व्यवहार में उल्लेखनीय परिवर्तन का विश्लेषण कर सकती है। स्क्वार्ज़ोनी गोपनीयता के बारे में संभावित चिंताओं को स्वीकार करती है, लेकिन कहती है कि कंपनी छात्रों की पहचान नहीं जानती।

"हम प्रोफाइल बनाने के बारे में बात नहीं कर रहे हैं, " वे कहते हैं। “हम प्रत्येक व्यक्ति को एक अनोखी इकाई के रूप में देख रहे हैं। लेकिन मनुष्य आदत के प्राणी हैं। जब उनमें अनियमितताएं होने लगती हैं, तब आप उन्हें देखना शुरू करते हैं। आप झंडे लगाते हैं, और शायद झंडे करीब और करीब होने लगते हैं। वे मानसिक स्वास्थ्य के मुद्दे हो सकते हैं, या शायद उनके ग्रेड गिर रहे हैं।

"हम यह कहने में सक्षम नहीं दिख रहे हैं, 'यह व्यक्ति शूटर बनने जा रहा है।" हम यह कहना चाहते हैं, 'इस व्यक्ति को मदद की ज़रूरत है।'

इतना शीघ्र नही?

लेकिन दूसरों को जटिल सामाजिक मुद्दों को संबोधित करने के लिए सॉफ्टवेयर एल्गोरिदम का उपयोग करने के लिए भीड़ के बारे में गंभीर चिंताएं हैं।

रशीदा रिचर्डसन कहती हैं, "अब हम एआई का एक ट्रेंड देख रहे हैं, जो बहुत संवेदनशील डोमेन पर लागू हो रहा है, और इन एल्गोरिदम को बनाने वाले लोग सभी सामाजिक, और यहां तक ​​कि राजनीतिक, डेटा के पहलुओं को भी नहीं समझते हैं।" एआई नाउ इंस्टीट्यूट में नीति अनुसंधान निदेशक, न्यूयॉर्क विश्वविद्यालय में एक कार्यक्रम जो कृत्रिम बुद्धि के सामाजिक निहितार्थों का अध्ययन करता है।

एक क्षेत्र जहां एआई का उपयोग आग की चपेट में आया है, जिसे भविष्य कहनेवाला पुलिसिंग कहा जाता है। ये ऐसे सॉफ़्टवेयर उत्पाद हैं जो अपराध के आँकड़ों का विश्लेषण करते हैं, और फिर भविष्यवाणी करते हैं कि कहाँ अपराध होने की अधिक संभावना है। लेकिन आलोचकों का कहना है कि गिरफ्तारी जैसे डेटा मानव पूर्वाग्रह का परिणाम हो सकते हैं, जो अंततः एल्गोरिथ्म में बेक हो सकते हैं।

यह हमेशा पूर्वानुमानात्मक विश्लेषण का जोखिम है और डेटा का स्रोत यह निर्धारित करने में एक महत्वपूर्ण कारक है कि यह वास्तव में कितना उद्देश्य हो सकता है। सिनसिनाटी चिल्ड्रन हॉस्पिटल के शोधकर्ताओं द्वारा एआई उपकरण विकसित किए जाने के साथ, हालांकि, विश्लेषण एक साक्षात्कार के दौरान व्यक्तिगत छात्रों के आंकड़ों के व्यापक संकलन के बजाय क्या कहते हैं, इस पर आधारित है।

फिर भी, रिचर्डसन का मानना ​​है कि यह महत्वपूर्ण है कि इस तरह के सॉफ़्टवेयर बनाने वाली टीमें "अंतःविषय" हैं, ताकि शिक्षक, उदाहरण के लिए, उन कार्यक्रमों में शामिल हों जो छात्र व्यवहार का आकलन करते हैं।

“शोधकर्ताओं ने शिक्षा और कानूनी नीति की दुनिया में लोगों को स्कूल की जलवायु के बारे में बहुत सारी बारीकियों को नहीं समझा। इसमें सुरक्षा और व्यवहार संबंधी मुद्दे शामिल हैं। “आप जिस तरह के स्कूल में हैं, वह अक्सर यह बताता है कि व्यवहार के साथ व्यवहार कैसे किया जाता है और अनुशासन कैसे संभाला जाता है।

"उदाहरण के लिए, चार्टर स्कूलों में बहुत अधिक कठोर अनुशासनात्मक नीतियां पाई गई हैं, " रिचर्डसन कहते हैं। “उस माहौल में बच्चों को एक उच्च अंत निजी स्कूल और यहां तक ​​कि विभिन्न पब्लिक-स्कूल सेटिंग्स की तुलना में बहुत अलग तरीके से व्यवहार किया जा रहा है।

“बहुत जटिल मुद्दों को समझने की कोशिश करना, जिसमें इनपुट का असंख्य होना और एक तकनीकी समाधान को लागू करना है जो इसके बारे में एक समस्या को दर्शाता है क्योंकि यह या तो उन्हीं समस्याओं को दोहरा सकता है जो हम समाज में देखते हैं या एक समस्या का समाधान बनाते हैं जो कि नहीं है। "

रिचर्डसन का कहना है कि एक और चिंता यह है कि अगर एक एआई कार्यक्रम को सबसे अच्छे इरादों के साथ विकसित किया जाता है, तो भी यह अपने रचनाकारों द्वारा प्रत्याशित नहीं होने वाले तरीकों से इस्तेमाल किया जा सकता है।

"जब आप एक बार इन उपकरणों के साथ आते हैं, " वह कहती है, "ऐसा नहीं है कि आप पर नियंत्रण जारी रखना है कि वे कैसे लागू होते हैं या वे बड़े पैमाने पर समाज को कैसे प्रभावित करते रहेंगे।"

क्या आर्टिफिशियल इंटेलिजेंस स्कूल की शूटिंग को रोक सकता है?