اخبار التكنولوجيا

استخدمت بعض أنظمة الذكاء الاصطناعي صور اعتداء جنسي على أطفال: تقرير

بعض أنظمة توليد الصور باستخدام الذكاء الاصطناعي اعتمدت على الآلاف من صور الاعتداء الجنسي على الأطفال (رويترز)

ذكر تقرير جديد أن بعض أنظمة توليد الصور باستخدام الذكاء الاصطناعي اعتمدت على الآلاف من صور الاعتداء الجنسي على الأطفال، وذلك دون موافقة أسرهم.

ووفقا للتقرير، الذي نقلته وكالة أنباء «أسوشييتد برس»، فقد سهلت هذه الصور على أنظمة الذكاء الاصطناعي إنتاج صور صريحة لأطفال مزيفين، بالإضافة إلى تحويل صور وسائل التواصل الاجتماعي الخاصة بمراهقين حقيقيين يرتدون ملابس كاملة إلى صور عارية، الأمر الذي أثار قلق المدارس وجهات إنفاذ القانون في جميع أنحاء العالم.

وحتى وقت قريب، اعتقد الباحثون في مجال مكافحة إساءة استخدام الإنترنت والجرائم السيبرانية أن الطريقة الوحيدة التي تنتج بها بعض أدوات الذكاء الاصطناعي غير الخاضعة للرقابة صوراً مسيئة للأطفال هي من خلال الدمج بين مجموعتين منفصلتين من الصور المتاحة عبر الإنترنت، هما المواد الإباحية للبالغين والصور العادية الخاصة بالأطفال.

لكن التقرير الجديد الذي أصدره مرصد الإنترنت بجامعة ستانفورد عثر على أكثر من 3200 صورة للاعتداء الجنسي على الأطفال في قاعدة بيانات الذكاء الاصطناعي العملاقة LAION، والتي تستخدمها أشهر أنظمة توليد الصور بالذكاء الاصطناعي مثل Stable Diffusion.

وعمل المرصد مع المركز الكندي لحماية الطفل وغيره من الجمعيات الخيرية المناهضة لإساءة استخدام الإنترنت لتحديد المواد غير القانونية والإبلاغ عن روابط الصور الأصلية إلى جهات إنفاذ القانون.

وعقب إصدار تقرير مرصد ستانفورد أمس (الأربعاء)، قالت LAION للوكالة إنها قامت بإزالة قاعدة البيانات الخاصة بها مؤقتاً.

وأوضحت LAION في بيان لها: «نحن ننتهج سياسة عدم التسامح مطلقاً مع المحتوى غير القانوني، وفي ظل قدر كبير من الحذر، قمنا بإزالة قاعدة البيانات الخاصة بنا للتأكد من أنها آمنة قبل إعادتها مرة أخرى».

وأكد تقرير ستانفورد على أهمية عدم إدخال صور الأطفال، حتى الصور الأكثر اعتدالا، في أنظمة الذكاء الاصطناعي دون موافقة أسرهم.

“);
googletag.cmd.push(function() { googletag.display(‘div-gpt-ad-3341368-4’); });
}

مصدر الخبر

زر الذهاب إلى الأعلى