रिपोर्टले कम्पनीहरूलाई उनीहरूले बनाएको टेक्नोलोजीमा हानिकारक त्रुटिहरू सम्बोधन गर्न कदम चाल्न आग्रह गर्दछ।

लेख सामग्री
लोकप्रिय कृत्रिम बुद्धिमत्ता छवि-जेनरेटरहरूको जग भित्र लुकेका बाल यौन दुर्व्यवहारका हजारौं छविहरू छन्, नयाँ रिपोर्टका अनुसार कम्पनीहरूलाई उनीहरूले बनाएको टेक्नोलोजीमा हानिकारक त्रुटिहरू सम्बोधन गर्न कारबाही गर्न आग्रह गर्दछ।
ती तस्बिरहरूले AI प्रणालीहरूलाई नक्कली बच्चाहरूको यथार्थपरक र स्पष्ट इमेजरी उत्पादन गर्न सजिलो बनाएको छ र साथै पूर्ण रूपमा लुगा लगाएका वास्तविक किशोरहरूको सामाजिक सञ्जाल फोटोहरूलाई नग्नमा रूपान्तरण गर्न सजिलो बनाएको छ, जसले विश्वभरका स्कूलहरू र कानून प्रवर्तनको लागि चेतावनी दिन्छ।
विज्ञापन २
लेख सामग्री
लेख सामग्री
हालसालै सम्म, दुरुपयोग विरोधी अनुसन्धानकर्ताहरूले सोचेका थिए कि केही अनचेक एआई उपकरणहरूले बच्चाहरूको अपमानजनक इमेजरी उत्पादन गर्ने एक मात्र तरिका हो उनीहरूले अनलाइन छविहरूको दुई अलग बाल्टिनहरू – वयस्क पोर्नोग्राफी र बच्चाहरूको सौम्य फोटोहरूबाट सिकेका कुराहरू संयोजन गरेर।
तर स्ट्यानफोर्ड इन्टरनेट अब्जर्भेटरीले विशाल AI डाटाबेस LAION मा संदिग्ध बाल यौन दुर्व्यवहारका 3,200 भन्दा बढी छविहरू फेला पारे, अनलाइन छविहरू र क्याप्शनहरूको अनुक्रमणिका जुन स्टेबल डिफ्यूजन जस्ता अग्रणी AI छवि-निर्माताहरूलाई तालिम दिन प्रयोग गरिन्छ। स्ट्यानफोर्ड युनिभर्सिटीमा आधारित वाचडग समूहले क्यानाडाली सेन्टर फर चाइल्ड प्रोटेक्शन र अन्य दुर्व्यवहार विरोधी परोपकारी संस्थाहरूसँग अवैध सामग्री पहिचान गर्न र कानुन प्रवर्तनलाई मूल फोटो लिङ्कहरू रिपोर्ट गर्न काम गर्यो। यसले फेला पारेका झण्डै १,००० तस्बिरहरू बाहिरी रूपमा प्रमाणित भएको बताएको छ।
प्रतिक्रिया तुरुन्तै थियो। स्ट्यानफोर्ड इन्टरनेट अब्जर्भेटरीको रिपोर्टको बुधवार रिलीजको पूर्वसन्ध्यामा, LAION ले एसोसिएटेड प्रेसलाई भन्यो कि यसले अस्थायी रूपमा यसको डाटासेटहरू हटाउँदैछ।
LAION, जुन गैर-नाफामुखी ठूला आर्टिफिसियल इन्टेलिजेन्स ओपन नेटवर्कको लागि खडा छ, एक विज्ञप्तिमा भन्यो कि “यससँग अवैध सामग्रीको लागि शून्य सहनशीलता नीति छ र धेरै सावधानीका साथ, हामीले LAION डाटासेटहरू हटाएका छौँ ताकि तिनीहरू सुरक्षित छन्। तिनीहरूलाई पुन: प्रकाशित गर्दै।”
विज्ञापन ३
लेख सामग्री
जबकि छविहरूले LAION को लगभग 5.8 बिलियन छविहरूको अनुक्रमणिकाको एक अंश मात्र हो, स्ट्यानफोर्ड समूह भन्छ कि यसले हानिकारक आउटपुटहरू उत्पन्न गर्न AI उपकरणहरूको क्षमतालाई प्रभाव पारिरहेको छ र धेरै पटक देखा पर्ने वास्तविक पीडितहरूको अघिल्लो दुरुपयोगलाई बलियो बनाउँदैछ।
यो समाधान गर्न सजिलो समस्या होइन, र धेरै जेनेरेटिभ एआई परियोजनाहरूलाई “प्रभावी रूपमा बजारमा पुर्याइएको” र व्यापक रूपमा पहुँचयोग्य बनाइएको छ किनभने यो क्षेत्र धेरै प्रतिस्पर्धी छ, स्ट्यानफोर्ड इन्टरनेट अब्जर्भेटरीका प्रमुख टेक्नोलोजिस्ट डेभिड थिएलले भने, जसले रिपोर्ट लेखेका थिए।
“पूरै इन्टरनेट-व्यापी स्क्र्याप लिनु र त्यो डेटासेटलाई मोडेलहरूलाई प्रशिक्षित गर्नको लागि बनाउनु भनेको अनुसन्धान कार्यमा सीमित हुनु पर्ने कुरा हो, यदि केहि हो भने, र धेरै कडा ध्यान बिना खुला स्रोत हुनु पर्ने कुरा होइन,” Thiel। एक अन्तर्वार्तामा भने।
एक प्रख्यात LAION प्रयोगकर्ता जसले डेटासेटको विकासलाई आकार दिन मद्दत गर्यो लन्डन-आधारित स्टार्टअप स्थिरता AI हो, स्थिर प्रसार पाठ-देखि-छवि मोडेलहरूको निर्माता। स्टेबल डिफ्युजनको नयाँ संस्करणहरूले हानिकारक सामग्री सिर्जना गर्न धेरै गाह्रो बनाएको छ, तर गत वर्ष प्रस्तुत गरिएको पुरानो संस्करण – जुन स्थिरता एआईले जारी नगरेको बताउँछ – अझै पनि अन्य अनुप्रयोगहरू र उपकरणहरूमा बेक गरिएको छ र “उत्पादनको लागि सबैभन्दा लोकप्रिय मोडेल रहन्छ। स्पष्ट इमेजरी,” स्ट्यानफोर्ड रिपोर्ट अनुसार।
लेख सामग्री
विज्ञापन ४
लेख सामग्री
“हामी यसलाई फिर्ता लिन सक्दैनौं। त्यो मोडेल धेरै मानिसहरूको हातमा तिनीहरूको स्थानीय मेसिनहरूमा छ, “अनलाइन यौन शोषण रिपोर्टिङको लागि क्यानाडाको हटलाइन चलाउने क्यानाडाली सेन्टर फर चाइल्ड प्रोटेक्शनका सूचना प्रविधि निर्देशक लोयड रिचर्डसनले भने।
स्थिरता एआईले बुधबार भने कि यसले स्थिर प्रसारको फिल्टर गरिएको संस्करणहरू मात्र होस्ट गर्छ र “स्थिर प्रसारको विशेष विकास लिएपछि, स्टेबिलिटी एआईले दुरुपयोगको जोखिमलाई कम गर्न सक्रिय कदमहरू चालेको छ।”
“ती फिल्टरहरूले मोडेलहरूमा पुग्नबाट असुरक्षित सामग्री हटाउँछन्,” कम्पनीले तयार बयानमा भन्यो। “यो सामग्री मोडेलमा पुग्नु अघि नै हटाएर, हामी मोडेललाई असुरक्षित सामग्री उत्पन्न गर्नबाट रोक्न मद्दत गर्न सक्छौं।”
LAION एक जर्मन अनुसन्धानकर्ता र शिक्षक, क्रिस्टोफ शुहम्यानको दिमागको उपज थियो, जसले यस वर्षको सुरुमा एपीलाई भनेका थिए कि यति ठूलो भिजुअल डाटाबेस सार्वजनिक रूपमा पहुँचयोग्य बनाउनुको कारण भनेको एआई विकासको भविष्यलाई नियन्त्रण गर्न नदिने कुरा सुनिश्चित गर्नु हो। मुट्ठीभर शक्तिशाली कम्पनीहरू।
“यो धेरै सुरक्षित र धेरै निष्पक्ष हुनेछ यदि हामीले यसलाई प्रजातान्त्रिक बनाउन सक्छौं ताकि सम्पूर्ण अनुसन्धान समुदाय र सम्पूर्ण आम जनताले यसबाट लाभान्वित हुन सकून्,” उनले भने।
विज्ञापन ५
लेख सामग्री
LAION को धेरैजसो डाटा अर्को स्रोत, Frequent Crawl बाट आउँछ, डाटाको भण्डार खुला इन्टरनेटबाट निरन्तर ट्रोल गरिन्छ, तर Frequent Crawl का कार्यकारी निर्देशक, Wealthy Skrenta ले भन्यो कि यो LAION लाई स्क्यान गर्न र प्रयोग गर्नु अघि के फिल्टर गर्न “अवस्थित” थियो। यसको।
LAION ले यस हप्ता भन्यो कि यसले यसको डाटासेटहरू जारी गर्नु अघि अवैध सामग्री पत्ता लगाउन र हटाउन “कठोर फिल्टरहरू” विकास गरेको छ र अझै पनि ती फिल्टरहरूलाई सुधार गर्न काम गरिरहेको छ। स्ट्यानफोर्ड रिपोर्टले LAION का विकासकर्ताहरूले “नाबालिग” स्पष्ट सामग्रीलाई फिल्टर गर्न केही प्रयास गरेको स्वीकार गर्यो तर उनीहरूले बाल सुरक्षा विशेषज्ञहरूसँग पहिले परामर्श गरेको भए अझ राम्रो काम गरेको हुन सक्छ।
धेरै पाठ-देखि-छवि जनरेटरहरू LAION डाटाबेसबाट कुनै न कुनै रूपमा व्युत्पन्न हुन्छन्, यद्यपि यो सधैं स्पष्ट हुँदैन कि कुन हो। DALL-E र ChatGPT को निर्माता OpenAI ले LAION प्रयोग गर्दैन र नाबालिगहरू समावेश गर्ने यौन सामग्रीका लागि अनुरोध अस्वीकार गर्नका लागि यसको मोडेलहरूलाई राम्रोसँग ट्युन गरेको छ।
गुगलले LAION डाटासेटमा आधारित आफ्नो टेक्स्ट-टू-इमेज इमेजेन मोडेल निर्माण गर्यो तर डाटाबेसको अडिटले “पोर्नोग्राफिक इमेजरी, नस्लवादी स्लर्स, र हानिकारक सामाजिक स्टिरियोटाइपहरू सहितको अनुपयुक्त सामग्रीको विस्तृत दायरा उजागर गरेपछि यसलाई २०२२ मा सार्वजनिक नगर्ने निर्णय गर्यो।”
विज्ञापन ६
लेख सामग्री
पूर्वव्यापी रूपमा डेटा सफा गर्ने प्रयास गर्नु गाह्रो छ, त्यसैले स्ट्यानफोर्ड इन्टरनेट अब्जर्भेटरीले थप कठोर उपायहरूको लागि आह्वान गरिरहेको छ। एउटा हो जसले LAION-5B को निर्माण प्रशिक्षण सेट अफ गरेको छ – यसमा समावेश 5 बिलियन छवि-टेक्स्ट जोडीहरूको लागि नाम दिइएको छ – “तिनीहरूलाई मेटाउन वा सामग्री सफा गर्न बिचौलियाहरूसँग काम गर्न।” अर्को भनेको स्टेबल डिफ्युजनको पुरानो संस्करणलाई प्रभावकारी रूपमा इन्टरनेटको अँध्यारो कुनाहरू बाहेक सबैबाट गायब बनाउनु हो।
“वैध प्लेटफर्महरूले डाउनलोडको लागि यसको संस्करणहरू प्रस्ताव गर्न रोक्न सक्छ,” विशेष गरी यदि तिनीहरू प्रायः अपमानजनक छविहरू उत्पन्न गर्न प्रयोग गरिन्छ र तिनीहरूलाई रोक्नको लागि कुनै सुरक्षा उपायहरू छैनन्, थिएलले भने।
उदाहरणको रूपमा, Thiel ले CivitAI लाई बोलायो, एक प्लेटफर्म जुन AI-उत्पन्न पोर्नोग्राफी बनाउने मानिसहरूले मनपराएको छ तर उनले भने कि बच्चाहरूको छवि बनाउन विरुद्ध सुरक्षा उपायहरूको अभाव छ। प्रतिवेदनले एआई कम्पनी हगिङ फेसलाई पनि आह्वान गर्दछ, जसले मोडेलहरूको लागि प्रशिक्षण डेटा वितरण गर्दछ, रिपोर्ट गर्न र अपमानजनक सामग्रीको लिङ्कहरू हटाउन राम्रो तरिकाहरू लागू गर्न।
हगिङ फेसले अपमानजनक सामग्री पहिचान गर्न र हटाउन नियमित रूपमा नियामकहरू र बाल सुरक्षा समूहहरूसँग काम गरिरहेको बताए। CivitAI ले आफ्नो वेबपेजमा पेश गरिएको टिप्पणीको लागि अनुरोधहरू फिर्ता गरेन।
विज्ञापन ७
लेख सामग्री
स्ट्यानफोर्ड प्रतिवेदनले संघीय बालबालिकाको अनलाइन गोपनीयता संरक्षण ऐनमा भएका सुरक्षाका कारण बालबालिकाको कुनै पनि फोटो _ सबैभन्दा सौम्य पनि – उनीहरूको परिवारको सहमति बिना AI प्रणालीहरूमा खुवाउनु पर्छ कि भनेर प्रश्न उठाउँदछ।
सम्बन्धित कथाहरू
-
युरोप विश्वको पहिलो व्यापक एआई नियमहरूमा सम्झौतामा पुग्छ
-
स्पोर्ट्स इलस्ट्रेटेड नवीनतम मिडिया कम्पनी AI प्रयोग द्वारा क्षतिग्रस्त गलत भयो
एन्टी-चाइल्ड यौन दुर्व्यवहार संगठन थोर्नका डाटा साइन्सकी निर्देशक रेबेका पोर्टनोफले भनिन् कि उनको संगठनले अनुसन्धान सञ्चालन गरेको छ जसले दुर्व्यवहार गर्नेहरूमा एआई-उत्पन्न छविहरूको प्रचलन सानो छ, तर लगातार बढिरहेको छ।
विकासकर्ताहरूले AI मोडेलहरू विकास गर्न प्रयोग गर्ने डाटासेटहरू दुरुपयोग सामग्रीहरूबाट सफा छन् भनी सुनिश्चित गरेर यी हानिहरूलाई कम गर्न सक्छन्। पोर्टनफले भने कि मोडेलहरू पहिले नै सर्कुलेशनमा भइसकेपछि लाइनमा हानिकारक प्रयोगहरूलाई कम गर्ने अवसरहरू पनि छन्।
टेक कम्पनीहरू र बाल सुरक्षा समूहहरूले हाल भिडियो र छविहरूलाई “ह्यास” – अद्वितीय डिजिटल हस्ताक्षरहरू – बाल दुर्व्यवहार सामग्रीहरू ट्र्याक गर्न र हटाउनको लागि तोक्छन्। पोर्टनफका अनुसार दुरुपयोग भइरहेको एआई मोडलहरूमा पनि यही अवधारणा लागू गर्न सकिन्छ।
“अहिले त्यस्तो भइरहेको छैन,” उनले भनिन्। “तर यो मेरो विचारमा गर्न सकिन्छ र गर्नै पर्ने कुरा हो।”
विज्ञापन ८
लेख सामग्री
लेख सामग्री