بقلم بيساخ بنسون • 7 أغسطس 2025
القدس، 7 أغسطس 2025 (TPS-IL) — مع تزايد دمج أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT في الحياة اليومية، يثير باحث قانوني إسرائيلي قلقًا ملحًا: قد تعمل هذه الأنظمة بصمت على تضييق نظرتنا للعالم.
في مقال نُشر حديثًا في مجلة Indiana Law Journal، تجادل البروفيسورة ميخال شور-عفري من الجامعة العبرية في القدس، وهي أيضًا زميلة زائرة في معهد قانون المعلومات بجامعة نيويورك، بأن نماذج اللغة الكبيرة (LLMs) تميل إلى توليد محتوى معياري وتقليدي، على حساب التنوع الثقافي والخطاب الديمقراطي.
قالت شور-عفري: “إذا كان الجميع يحصلون على نفس النوع من الإجابات التقليدية من الذكاء الاصطناعي، فقد يحد ذلك من تنوع الأصوات والروايات والثقافات التي نتعرض لها. بمرور الوقت، يمكن أن يؤدي ذلك إلى تضييق عالمنا من الأفكار الممكنة.”
استكشفت دراستها كيف أن الإجابات التي يولدها الذكاء الاصطناعي، على الرغم من أنها غالبًا ما تكون مفيدة ومعقولة، إلا أنها متكررة وضيقة ثقافيًا. على سبيل المثال، عند السؤال عن شخصيات مهمة في القرن التاسع عشر، أعادت ChatGPT أسماء مثل أبراهام لينكولن وتشارلز داروين والملكة فيكتوريا – شخصيات بارزة، ولكنها ذات طابع أنجلو-مركزي بشكل كبير. ظهر تحيز مماثل عندما طُلب من النموذج سرد أفضل المسلسلات التلفزيونية: مالت النتائج بشكل كبير نحو الأعمال الناجحة باللغة الإنجليزية، مع استبعاد البدائل غير الغربية وغير الإنجليزية.
توضح شور-عفري أن المشكلة متجذرة في كيفية بناء أنظمة الذكاء الاصطناعي هذه. يتم تدريب نماذج اللغة الكبيرة على كميات هائلة من نصوص الإنترنت، والتي تكون باللغة الإنجليزية بشكل غير متناسب وتعكس الأعراف الثقافية السائدة. تستخدم النماذج الأنماط الإحصائية للتنبؤ بالاستجابات المحتملة، مما يعني أن الأكثر شيوعًا يظهر في أغلب الأحيان. في حين أن هذا النهج يزيد من الدقة والتماسك، إلا أنه يهمش وجهات النظر من المجتمعات اللغوية والثقافية الأصغر. بمرور الوقت، ومع تغذية نماذج اللغة الكبيرة من مخرجاتها الخاصة والاستمرار في التدريب على المحتوى الرقمي الحالي، يتفاقم تأثير التضييق.
تحذر شور-عفري: “هذه ليست مجرد مشكلة تقنية. يمكن أن تكون لها عواقب مجتمعية عميقة. يمكن أن تقلل من التنوع الثقافي، وتقوض التسامح الاجتماعي، وتضعف أسس الحوار الديمقراطي والذاكرة الجماعية.”
لمواجهة هذا الاتجاه، تقترح شور-عفري مبدأ قانونيًا وأخلاقيًا جديدًا لحوكمة الذكاء الاصطناعي: “التعددية”. يدعو هذا المفهوم إلى تصميم أدوات الذكاء الاصطناعي بطريقة تدعم بنشاط التعرض لوجهات نظر وروايات متنوعة، بدلاً من مجرد تقديم الإجابات الأكثر احتمالاً إحصائيًا.
قالت: “إذا أردنا أن يخدم الذكاء الاصطناعي المجتمع، وليس فقط الكفاءة، علينا أن نفسح المجال للتعقيد والفروق الدقيقة والتنوع. هذا هو ما تدور حوله التعددية – حماية الطيف الكامل للتجربة الإنسانية في عالم مدفوع بالذكاء الاصطناعي.”
يسلط المقال الضوء أيضًا على طريقتين رئيسيتين لتعزيز التعددية. أولاً، من خلال بناء ميزات في منصات الذكاء الاصطناعي تسمح للمستخدمين بزيادة التنوع في المخرجات بسهولة – مثل تعديل “درجة حرارة” النموذج، وهو إعداد يوسع نطاق الاستجابات المولدة. ثانيًا، من خلال تطوير نظام بيئي لأنظمة الذكاء الاصطناعي المتنافسة التي تقدم للمستخدمين القدرة على البحث عن “آراء ثانية” ووجهات نظر بديلة.
تؤكد شور-عفري أيضًا على أهمية محو الأمية في مجال الذكاء الاصطناعي. “يحتاج الناس إلى فهم أساسي لكيفية عمل نماذج اللغة الكبيرة ولماذا قد تعكس مخرجاتها وجهات نظر شائعة، بدلاً من وجهات نظر متوازنة أو شاملة. يمكن لهذا الوعي أن يساعد المستخدمين في طرح أسئلة متابعة، ومقارنة الإجابات، والتفكير بشكل نقدي أكبر في المعلومات التي يتلقونها. إنه يشجعهم على رؤية الذكاء الاصطناعي ليس كمصدر واحد للحقيقة، بل كأداة – أداة يمكنهم مقاومتها سعيًا وراء معرفة أغنى وأكثر تعددية.”
تتعاون مع الدكتور يوناتان بيلينكوف وأدير رحميم من قسم علوم الكمبيوتر في التخنيون، وبار هورويتز-أمساليم من الجامعة العبرية، لتنفيذ هذه الأفكار على أرض الواقع.


































