
नाबालिगहरू लगायत नग्न डिपफेकहरू अनलाइनमा बढ्दो रूपमा सामान्य बन्दै गएका छन् किनकि तिनीहरूलाई सिर्जना गर्ने उपकरणहरू थप पहुँचयोग्य बन्न थालेका छन् – तर त्यस्ता सामग्रीलाई नियमन गर्न कानून अझै पछाडि छ।
Deepfakes, चित्रित व्यक्तिहरूको पहिचान स्वैप वा परिवर्तन गर्न डिजाइन गरिएको संश्लेषित दृश्य सामग्रीलाई सन्दर्भ गर्न प्रयोग गरिएको शब्द, मनोरञ्जन देखि विकृत जानकारी सम्म धेरै उद्देश्यका साथ सिर्जना गर्न सकिन्छ।
सेप्टेम्बरमा, फ्लोरिडाका गभर्नर रोन डिसेन्टिसलाई चित्रण गर्ने एक ठग भिडियो प्रसारित भयो घोषणा गर्दै कि उनी २०२४ को राष्ट्रपतिको दौडबाट बाहिरिएका थिए; अक्टोबरमा, हलिउड अभिनेता टम ह्यान्क्स बताए उनको इन्स्टाग्राम फलोअर्सले भने कि त्यहाँ “मेरो एआई संस्करणको साथ केही दन्त योजनाको प्रचार गर्ने भिडियो थियो। यसमा मेरो कुनै सरोकार छैन।”
यद्यपि, पीडितहरूका लागि जसको पहिचान बिना सहमति यौन सामग्रीमा प्रयोग गरिएको छ, अनुभव दर्दनाक हुन सक्छ – र जीवन परिवर्तन गर्ने घटना।
मे महिनामा, एक गहिरो नक्कली अश्लील भिडियोको कारण, टर्कीमा राष्ट्रपति पदका प्रमुख उम्मेदवारहरू मध्ये एक मुहर्रेम इन्सेले निकाल्नु उनको उम्मेदवारी। भिडियो बनाएको हो प्रयोग गर्दै इजरायली पोर्नोग्राफी साइटबाट फुटेज।
नाबालिगहरू संलग्न हुँदा यस प्रविधिको दुरुपयोगको प्रभावहरू अझ तीव्र हुन्छन्।
सोही महिनामा स्पेनमा २० भन्दा बढी किशोर किशोरीहरू प्राप्त भयो AI-उत्पन्न तिनीहरूको इन्स्टाग्राम खाताहरूबाट खिचिएका तस्बिरहरू सहित आफैंको नग्न तस्बिरहरू, जसमा तिनीहरू पूर्ण रूपमा लुगा लगाएका थिए।
एक अनुसन्धान प्रतिवेदन अनुसार प्रकाशित यूकेको इन्टरनेट वाच फाउन्डेसन (IWF) द्वारा अक्टोबरमा, बाल यौन दुर्व्यवहार सामग्री (CSAM) को गहिरो फेकहरू सिर्जना गर्न कृत्रिम बुद्धिमत्ता बढ्दो रूपमा प्रयोग भइरहेको छ।
“तिनीहरू जताततै प्रकारका हुन्छन्” र “मानिसहरूलाई उत्पादन गर्न तुलनात्मक रूपमा सजिलो छ”, म्याथ्यू ग्रीन, जोन्स हप्किन्स ह्वाइटिङ स्कूल अफ इन्जिनियरिङ् डिपार्टमेन्ट अफ कम्प्युटर साइन्सका एसोसिएट प्रोफेसरले युरासिटिभलाई भने।
“सबै ठाउँमा” ले एआई वेबसाइटहरू समावेश गर्न सक्छ जुन विशेष रूपमा यस प्रकारको सामग्रीको लागि बनाइएको छैन, ग्रीनले भने।
IWF का प्रमुख कार्यकारी Susie Hargreaves OBE ले पनि भनिन्, “यस वर्षको सुरुमा, हामीले चेताउनी दिएका थियौं कि AI इमेजरी चाँडै नै यौन दुर्व्यवहारबाट पीडित बालबालिकाको वास्तविक तस्बिरहरूबाट अविभाज्य हुन सक्छ, र हामीले यो इमेजरी धेरै संख्यामा फैलिएको देख्न थाल्न सक्छौं”। ।
“हामीले अब त्यो बिन्दु पार गरेका छौं,” उनले भनिन्।
के यो अवैध हो?
नाबालिगहरूसँग पोर्नोग्राफिक सामग्री प्रसारित गैरकानूनी हुँदा, वयस्कहरूको सहमतिमा बनाइएको अश्लील छविमा नाबालिगको विशेषताहरू परिचय गर्नु भनेको ग्रे कानूनी क्षेत्र हो जसले राष्ट्रिय फौजदारी संहिताहरूको लचिलोपनलाई परीक्षणमा राख्छ।
डच फौजदारी संहितामा, त्यहाँ “एउटा शब्दावली छ जसमा तपाईंले वास्तविक र गैर-वास्तविक बाल पोर्नोग्राफी दुवैलाई कभर गर्न सक्नुहुन्छ”, रोटरडमको इरास्मस स्कूल अफ लका कानून र नवीनताका प्राध्यापक एभर्ट स्टामहुइसले युरएक्टिभलाई भने। यो एक “फराकिलो र समावेशी अपराध विवरण” हो, उनले भने।
स्टामहुइसले भने कि डच अदालतहरूले सँधै शब्दावलीलाई नयाँ घटनाहरू समावेश गर्ने तरिकामा व्याख्या गर्ने प्रयास गर्छन्, जस्तै बाल यौन दुर्व्यवहार सामग्रीको गहिरो फेकहरू, “यो टुटेसम्म। र त्यहाँ सधैं एक बिन्दु छ जब यो तोड्छ।”
यद्यपि, उनको अनुभवमा, यो दुर्लभ रहन्छ। कानुन पुरानो भइसकेको भए पनि, “विधायकहरूले परम्परागत दृष्टिकोणबाट सम्बोधन गर्न चाहेको जस्तै हानि नयाँ परिस्थितिमा पनि हुन्छ”।
स्पेनमा, एआई-उत्पन्न गरिएका केही फोटोहरू केटीहरूको सहपाठीहरूले बनाएका थिए। तर, स्टामहुइसका अनुसार, किशोर वा वयस्कले यस्तो सामग्री सिर्जना गरेको हो भने अपराध गर्दा यसले फरक पार्दैन। तर यसले मुद्दा चलाउने अधिकारको लागि फरक पार्छ।
यद्यपि, डच फौजदारी संहिता यस मुद्दालाई सम्बोधन गर्ने क्षमतामा नियम भन्दा बढी अपवाद हुन सक्छ। म्याड्रिडको स्वायत्त विश्वविद्यालयका आपराधिक कानूनका प्राध्यापक म्यानुअल क्यान्सियो, बताए युरोन्यूज सेप्टेम्बरमा यो प्रश्न स्पेन र अन्य धेरै युरोपेली कानुनी ढाँचाहरूमा स्पष्ट छैन।
“यो डिपफेकद्वारा उत्पन्न भएको हुनाले, प्रश्नमा रहेको व्यक्तिको वास्तविक गोपनीयतालाई असर पर्दैन। यसको प्रभाव (पीडितमा) वास्तविक नग्न तस्विरसँग मिल्दोजुल्दो हुन सक्छ, तर कानून एक कदम पछाडि छ, ”क्यान्सियोले भने।
डेबोरा डेनिस, द लुसी फेथफुल फाउन्डेशनको प्रमुख कार्यकारी, बाल यौन दुर्व्यवहार रोक्नको लागि बेलायत-व्यापी परोपकारी संस्था, भन्नुभयो कि “केही मानिसहरूले बच्चाहरूको एआई-उत्पन्न यौन तस्बिरहरू कम हानिकारक छन् भनेर आफैंलाई भन्दै आफूले गरिरहेको कुराको औचित्य प्रमाणित गर्ने प्रयास गर्न सक्छन्, तर यो सत्य होइन”।
“एआई-उत्पन्न बाल यौन दुर्व्यवहार सामग्री साझा गर्नु धेरै सदस्य राष्ट्रहरूमा आपराधिक अपराध हो,” EU कानून प्रवर्तन एजेन्सी Europol ले Euractiv लाई भन्यो, उनीहरूलाई “स्पेनिस अधिकारीहरूले मुद्दाको बारेमा जानकारी गराएको छ, तर हामीलाई प्रदान गर्न भनिएको थिएन। समर्थन”।
EU स्तरमा, नीति निर्माताहरूले हाल एआई ऐनबारे छलफल गरिरहेका छन्, जसमा डिपफेकहरू उत्पादन गर्ने प्रणालीहरूका लागि पारदर्शिता दायित्वहरू समावेश हुन सक्छ, जस्तै छवि हेरफेर भएको स्पष्ट रूपमा संकेत गर्न वाटरमार्कहरू समावेश गर्न।
प्रवर्तन समस्या
यद्यपि, कानून प्रवर्तन एजेन्सीहरूले हरेक दिन अनलाइन साझा गरिएका अरबौं छविहरू र भिडियोहरू बीच शंकास्पद सामग्री पत्ता लगाउन कठिन युद्धको सामना गरिरहेका छन्।
“एआईसँग सिर्जना गरिएका नाबालिगहरूको नग्न तस्बिरहरूको प्रसार केही समयको लागि कानून प्रवर्तनको लागि चिन्ताको विषय भएको छ, र यसलाई सम्बोधन गर्न झन्झन् गाह्रो हुने निश्चित छ,” युरोपोलले भने।
कानून प्रवर्तन एजेन्सीले थप्यो कि एआई-उत्पन्न सामग्री एआई क्लासिफायर उपकरणहरू प्रयोग गरेर पत्ता लगाउनु पर्छ। अझै, यस समयमा, तिनीहरू यस विशिष्ट उद्देश्यको लागि वर्गीकरण उपकरणहरू प्रयोग गर्न अधिकृत छैनन्।
यद्यपि, प्रोफेसर ग्रीनले बाल यौन दुर्व्यवहार सामग्री पत्ता लगाउने उद्देश्यका प्रविधिहरू लगभग 80% मात्र सही छन्, र डीपफेक्सको वृद्धिसँगै सफलताको दर घट्ने अपेक्षा गरिएको छ।
Stamhuis को अनुसार, “सफ्टवेयर विकास र उत्पादन को लागी बल ठूला टेक्नोलोजी फर्महरु भित्र छ,” जसको पनि प्रमुख सामाजिक मिडिया प्लेटफर्महरु को स्वामित्व छ, र त्यसैले उनीहरुले यो फुटेज भाइरल भई अप्रत्यक्ष रूप देखि लाभ उठाउन सक्छ।
[Edited by Luca Bertuzzi/Nathalie Weatherald]