تعمل النماذج اللغوية الكبيرة لشركتي "ميتا" و"أوبن ايه آي" والتي تشكل أساساً لأدوات الذكاء الاصطناعي التوليدي الخاصة بهما، على نقل تحيزات على أساس الجنس، بحسب ما حذّرت دراسة نشرتها منظمة اليونسكو مع اقتراب يوم المرأة العالمي.
وأكّدت اليونسكو أنّ نموذجي "جي بي تي 2" و "جي بي تي 3,5" من "أوبن أيه آي" وبرنامج "لاما 2" من "ميتا"، تظهر "بشكل قاطع تحيّزاً ضد المرأة".
"التمييز الرقمي"
وأكد مساعد المدير العام لليونسكو لشؤون الاتصالات والمعلومات توفيق الجلاصي أن "التمييز في العالم الحقيقي لا ينعكس في المجال الرقمي فحسب، بل يتصاعد فيه أيضاً".
وأظهرت الدراسة التي أجريت بين آب 2023 وآذار 2024، أن هذه النماذج اللغوية أكثر ميلاً إلى ربط الأسماء المؤنثة بكلمات مثل "منزل" و"عائلة" و"أطفال"، في حين أن الأسماء المذكرة أكثر ارتباطاً بكلمات "تجارة" و"راتب" و"وظيفة".
وطلب الباحثون من هذه الأدوات كتابة قصص عن أشخاص من أصول وأجناس مختلفة، فأظهرت النتائج أن القصص المتعلقة بـ"الأشخاص المتحدرين من الأقليات أو النساء كانت في معظم الأحيان أكثر تكراراً وتستند إلى صور نمطية".
وتم عرض الرجل الإنجليزي كمدرّس أو سائق أو موظف مصرف، بينما تم تقديم المرأة الإنجليزية في ما لا يقل عن 30% من النصوص على أنها بائعة هوى أو عارضة أزياء أو نادلة.
وأكدت المتخصصة في السياسات الرقمية والتحول الرقمي في اليونسكو ليونا فيرداديرو، أن هذه الشركات "تفشل في تمثيل كل مستخدميها".
ومع الاستخدام المتزايد لتطبيقات الذكاء الاصطناعي هذه من عامة الناس والشركات، يصبح لديها "القدرة على تشكيل تصوّر لملايين الأشخاص"، على قول المديرة العامة لليونسكو أودري أزولاي.
وأضافت في بيان "إن وجود أدنى قدر من التحيز الجنسي في محتواها (التطبيقات) يمكن أن يزيد بشكل كبير من عدم المساواة في العالم الحقيقي".
"معايير أخلاقية"
ولمكافحة هذه التحيزات، أوصت اليونسكو الشركات العاملة في هذا القطاع بأن تعتمد التنويع أكثر ضمن فرقها من المهندسين، وزيادة عدد النساء تحديداً.
وأشارت إلى أنّ النساء يمثلن فقط 22% من أعضاء الفرق العاملة في مجال الذكاء الاصطناعي على مستوى العالم، بحسب المنتدى الاقتصادي العالمي.
ودعت اليونسكو الحكومات إلى إقرار مزيد من القوانين لاعتماد "ذكاء اصطناعي يستند إلى معايير أخلاقية".