OpenAI تشدّد قواعد ChatGPT للمراهقين: قيود أكثر صرامة على لعب الأدوار، وضمانات لصورة الجسد، وتوقّع آلي للعمر بينما يناقش المشرّعون معايير الذكاء الاصطناعي للقاصرين
تضيف الضوابط الجديدة للمراهقين في ChatGPT قيودًا أكثر صرامة على لعب الأدوار، وحماية لصورة الجسد، وتوقّعًا للعمر—وهو أمر مهم لمتبنّي الذكاء الاصطناعي في المغرب.
Dec 22, 2025·3 min read
قامت OpenAI بتحديث كيفية تصرّف ChatGPT مع المستخدمين دون 18 عامًا. وأضافت قواعد خاصة بالمراهقين إلى «مواصفات النموذج» العامة (Model Spec). كما نشرت موادًا للتثقيف بالذكاء الاصطناعي موجّهة للمراهقين والآباء.
هذا يهمّ في المغرب لأن المراهقين مستخدمون كثيفون للإنترنت ومتبنّون سريعون للذكاء الاصطناعي. كثيرون يستخدمون روبوتات الدردشة للمساعدة في الواجبات، وممارسة اللغات، وطرح أسئلة شخصية. كما تطلق الشركات الناشئة والوكالات المغربية تجارب دردشة، غالبًا لجمهور واسع يشمل القاصرين.
## أهم الخلاصات
- يُطلب من ChatGPT رفض المزيد من لعب الأدوار للمراهقين، خصوصًا السيناريوهات الرومانسية أو الحميمية أو الجنسية أو العنيفة بصيغة المتكلم.
- ينبغي على النموذج توخي حذر إضافي بشأن صورة الجسد، واضطرابات الأكل، ومعايير الجمال المتطرفة.
- تخطط OpenAI لتطبيق وضع المراهقين عبر توقّع آلي للعمر، إضافة إلى التحقق للبالغين الذين تمّ تصنيفهم خطأ.
- ينبغي أن تتقدّم رسائل السلامة على غيرها عندما يكون هناك ضرر، بما في ذلك خطر إيذاء النفس.
- السؤال الكبير هو التنفيذ: يشكّ الخبراء في أن نص السياسة يضمن سلوكًا واقعيًا على الأرض.
## ما الذي تغيّر في قواعد المراهقين
تفيد TechCrunch بأن OpenAI شدّدت الإرشادات للتفاعلات التي تعتقد أنها تشمل مراهقًا. ولا تزال المحظورات القائمة سارية، بما في ذلك أي محتوى جنسي يتضمن قاصرين. وتضيف التحديثات توقعات أكثر صرامة لمن هم دون 18 عامًا عبر لعب الأدوار والموضوعات الحسّاسة.
كما تستهدف الإرشادات الجديدة صيغًا شائعة لمحاولات كسر القيود (jailbreak). ويجب أن تظل الحدود سارية حتى عندما تُقدَّم الطلبات على أنها خيالية أو افتراضية أو تاريخية أو تعليمية. وغالبًا ما تُستخدم هذه الأطر لدفع النماذج إلى مخرجات غير مسموح بها.
### لعب الأدوار: اندماج أقل وحميمية أقل
بالنسبة للمراهقين، توجّه المواصفات النموذج لتجنّب لعب الأدوار الرومانسي الغامر. كما تتجنب الحميمية بصيغة المتكلم. وتقيّد أكثر لعب الأدوار الجنسي أو العنيف بصيغة المتكلم، حتى لو كان غير صريح.
عمليًا، يعني ذلك رفضًا أشد لطلبات مثل: مثّل دور حبيبتي أو حبيبي. كما يعني حلقات تفاعل أقل «التصاقًا» عاطفيًا يمكن أن تبدو كعلاقة. وقد كان هذا النمط مصدر قلق محوري في سلامة الأطفال.
### صورة الجسد والأكل: مزيد من الضوابط
يدعو التحديث إلى حذر إضافي بشأن موضوعات صورة الجسد واضطرابات الأكل. كما يحدّ من المحتوى الذي يروّج لمعايير جمال متطرفة. ويجب أن يتجنب تقديم نصائح تمكّن الحمية غير الصحية.
هذا مهم في المغرب، حيث يتعرض المراهقون لتدفقات اجتماعية عالمية بالفرنسية والعربية. يمكن لروبوتات الدردشة أن تضخّم المقارنات المؤذية إذا عكست المستخدم بشكل وثيق جدًا. يمكن لافتراضات افتراضية قوية أن تقلّل هذا الخطر.
### الضرر والإخفاء: السلامة قبل الاستقلالية
توجّه إرشادات OpenAI النموذج إلى إعطاء أولوية لرسائل السلامة على الاستقلالية عندما يكون هناك ضرر. وينبغي أن يشجّع على دعم في العالم الحقيقي عندما يظهر خطر. كما يجب ألا يساعد المراهقين على إخفاء سلوك غير آمن عن مقدّمي الرعاية.
تلك النقطة الأخيرة مهمة لسيناريوهات يومية. قد يسأل مراهق عن كيفية إخفاء إيذاء النفس، أو فقدان الوزن الخطِر، أو تحديات خطيرة. تدفع المواصفات المحدّثة النموذج إلى الرفض وإعادة التوجيه.
## كيف تخطط OpenAI لتطبيق قواعد المراهقين هذه
تقول TechCrunch إن قواعد المراهقين صُممت لتعمل مع نظام توقّع العمر. الهدف هو اكتشاف عندما يكون الحساب على الأرجح لقاصر. وعند وضع علامة، يطبق ChatGPT تلقائيًا ضمانات إضافية.
وتذكر وثائق المساعدة لدى OpenAI أن توقّع العمر يستخدم إشارات حول كيفية استخدام الحساب. وقد يشمل ذلك الموضوعات وأنماط الاستخدام، مثل وقت اليوم. ثم يستنتج النظام ما إذا كان الشخص قد يكون دون 18 عامًا.
إذا اعتقد النظام أن الحساب دون 18 عامًا، يطبّق ChatGPT حماية أقوى. هذه القيود تحدّ بشكل أكثر صرامة من المحتوى الحسّاس وأنواع معينة من التفاعل. ويشمل ذلك لعب الأدوار الجنسي أو الرومانسي أو العنيف، بالإضافة إلى محتوى صورة الجسد الضار.
### ماذا يحدث إذا تم تصنيف بالغ خطأ
تقول OpenAI إن البالغين الذين يوضعون في تجربة المراهقين بالخطأ يمكنهم التحقق من أنهم 18+. ويتم التحقق عبر طرف ثالث يُدعى Persona. ويمكن للمستخدم التحقق باستخدام صورة سيلفي أو هوية حكومية.
وتؤكد OpenAI أنها لا تتلقى صورة السيلفي أو الهوية. كما تقول إن Persona تحذف بيانات التحقق خلال ساعات. وحتى مع هذا التطمين، يثير سير العمل أسئلة تتعلق بالخصوصية لدى كثير من المستخدمين.
## المبادئ الأربعة التي تريد OpenAI أن يتبعها النموذج مع المراهقين
تلخّص TechCrunch نهج OpenAI عبر أربعة التزامات. هذه أهداف سلوكية للمساعد، وليست مجرد قواعد فلترة. وهي تشكّل النبرة، وأسلوب الرفض، وإلى أين يوجّه النموذج المستخدم.
- **السلامة أولًا.** إعطاء أولوية لسلامة المراهقين حتى لو قلّل ذلك من أقصى حرية فكرية.
- **تعزيز الدعم في العالم الحقيقي.** توجيه المراهقين نحو العائلة والأصدقاء والمهنيين المحليين.
- **معاملة المراهقين كمراهقين.** أن يكون دافئًا ومحترمًا، دون استعلاء أو «تَكبير» المراهقين لمستوى الكبار.
- **الشفافية.** شرح الحدود وتذكير المستخدمين بأن المساعد ليس إنسانًا.
بالنسبة لبنّائي المنتجات في المغرب، تُعد هذه المبادئ متطلبات تصميم مفيدة. فهي تُترجم إلى نصوص واجهة المستخدم، ومسارات التصعيد، واختبارات الإشراف. كما تشكّل طريقة تعامل روبوت الدردشة مع عامية الدارجة أو مؤشرات الضيق المرمّزة.
## ضمانات تشغيلية: مصنّفات، ومراجعة، وتنبيهات أبوية محدودة
تفيد TechCrunch بأن OpenAI تستخدم مصنّفات آلية في الوقت الحقيقي عبر الوسائط. ويمكن أن تؤدي إشارات الشدة الأعلى إلى مراجعة من فريق مدرّب. وفي حالات تُظهر ضيقًا حادًا، قد يتم إخطار أحد الوالدين.
وتصف صفحة الأسئلة الشائعة الخاصة بالضوابط الأبوية لدى OpenAI نسخة ضيقة من تلك الفكرة. عمومًا لا يمكن للآباء رؤية محادثات المراهقين. وفي حالات نادرة تتعلق بخطر شديد لإيذاء النفس، قد يتلقى أحد الوالدين تنبيه سلامة بمعلومات محدودة وموارد.
بالنسبة للمغرب، يسلّط هذا الضوء على فجوة توقعات معقّدة. قد تفترض العائلات أن الأداة إما خاصة بالكامل أو مراقَبة بالكامل. تقع تنبيهات السلامة في المنتصف وتحتاج إلى تواصل واضح.
## لماذا يحدث هذا الآن
يأتي التحديث وسط ضغط سياسي متزايد في الولايات المتحدة. وقد حثّ المدّعون العامون في الولايات الكبيرة المنصات الكبرى على إضافة ضمانات للأطفال. ويوازن المشرّعون بين خيارات تمتد من معايير أساسية إلى مقترحات قد تحظر القاصرين من روبوتات الدردشة بالذكاء الاصطناعي.
وترتبط TechCrunch أيضًا بالتغييرات بادعاءات أذى للمراهقين تتضمن محادثات مطوّلة مع روبوتات الدردشة. وتشير إلى أن جيل Z من بين أكثر الفئات نشاطًا على ChatGPT. كما يمكن لشراكات توزيع إضافية أن تجلب مزيدًا من المستخدمين الشباب إلى المنظومة.
ينبغي على أصحاب المصلحة في المغرب قراءة ذلك كإشارة. غالبًا ما يتحول ضغط السياسة العالمي إلى افتراضات منتج افتراضية. ثم تشكّل تلك الافتراضات ما يمكن للمستخدمين والمطورين في المغرب فعله.
## رد فعل الخبراء: إشارات إيجابية، لكن شك حقيقي
يصف محامٍ مختص بالخصوصية والذكاء الاصطناعي قابلته TechCrunch الرفض الصريح بأنه إشارة جيدة. ويبرزون لعب الأدوار الرومانسي أو المُجنّس باعتباره عالي المخاطر للمراهقين. ويمكن أن تكون حلقات التفاعل المستمرة إدمانية.
ويؤكد خبراء آخرون أن القواعد المنشورة لا تضمن السلوك الفعلي. وتشير TechCrunch إلى مخاوف «التملّق» (sycophancy)، حيث تبالغ النماذج في الموافقة أو تعكس المستخدم. وتربط ذلك بمخاوف أوسع حول المحاكاة غير المناسبة وتقارير عن سلوكيات «ذهان الذكاء الاصطناعي» في بعض التفاعلات.
كما يحذّر قائد منظمة غير ربحية لسلامة الأطفال من توتر داخلي. فقد يتعارض السلوك الموجه لتعزيز التفاعل مع بنود «السلامة أولًا». ويجادلون بأن الأنظمة يجب أن تُختبر لضمان أن يبقى الأثر الصافي وقائيًا.
## ما الذي يعنيه ذلك لمنظومة الذكاء الاصطناعي في المغرب
قصة الذكاء الاصطناعي في المغرب عملية وسريعة الحركة. تنشر الفرق روبوتات دردشة في دعم العملاء والتعليم والسياحة. كما تدرب الجامعات ومدارس البرمجة مواهب قادرة على إطلاق هذه الأدوات بسرعة.
تثير هذه السرعة سؤالًا بسيطًا: كيف تحمي القاصرين في الاستخدام اليومي؟ يقدّم تحديث OpenAI مخططًا واحدًا، لكنه ليس حلًا كاملًا. سيظل المغرب بحاجة إلى خيارات محلية حول الخصوصية واللغة والتصعيد.
### 1) حالات استخدام المدارس والدروس الخصوصية
يستخدم كثير من المراهقين في المغرب الذكاء الاصطناعي بالفعل للدعم الدراسي. تشمل الموضوعات الشائعة ممارسة اللغة، وخطوات الرياضيات، ومراجعة على نمط البكالوريا. كما يطرحون أسئلة شخصية تقع خارج المدرسة.
قد تقلّل القواعد الجديدة لعب الأدوار الخطِر، لكنها لا تستبدل الإرشاد من البالغين. يمكن للمدارس وجمعيات الآباء تكييف نهج التثقيف لدى OpenAI وفق الأعراف المحلية. يشمل ذلك نقاشًا بالعربية والفرنسية، مع سياق للدارجة.
خطوات عملية للمعلمين في المغرب:
- وضع قواعد واضحة لاستخدام الذكاء الاصطناعي في الواجبات والامتحانات.
- تعليم عادات التحقق من الحقائق والمصادر والاستشهادات.
- إنشاء مسار تصعيد آمن لإشارات إيذاء النفس أو اضطرابات الأكل.
- تشجيع فترات استراحة خلال الجلسات الطويلة، خصوصًا ليلًا.
### 2) الشركات الناشئة التي تبني تجارب دردشة
غالبًا ما تبني الشركات الناشئة المغربية مساعدين للبنوك وتجار التجزئة واللوجستيات والموارد البشرية. وحتى إذا كان المستخدم المستهدف بالغًا، فسيحاول المراهقون استخدام النظام. تحتاج تجارب الدردشة الموجهة للعامة إلى وضعية سلامة للقاصرين افتراضيًا.
يشير نهج OpenAI إلى ميزات ملموسة يمكن نسخها:
- تجارب واعية بالعمر، مع افتراضات أكثر صرامة للقاصرين.
- أنماط رفض للعب الأدوار الرومانسي أو الجنسي مع المراهقين.
- حذر إضافي بشأن صورة الجسد والحمية وإيذاء النفس.
- محفزات توجه المستخدمين إلى دعم في العالم الحقيقي، لا إلى نصائح عبر الإنترنت فقط.
ينبغي على الفرق أيضًا التخطيط لوضعَي فشل. الأول هو السلبيات الكاذبة، حيث يُعامل مراهق كأنه بالغ. والثاني هو الإيجابيات الكاذبة، حيث يُقيَّد بالغ.
### 3) الحكومة والجهات التنظيمية والخدمات العامة
يقوم المغرب برقمنة مزيد من الخدمات العامة ونقاط تواصل المواطنين. يمكن لروبوتات الدردشة تقليل أوقات الانتظار والمساعدة في التنقل متعدد اللغات. إذا استُخدمت تلك الأدوات من قبل العائلات، فيجب أن تتعامل مع القاصرين بأمان.
كما لدى المغرب إطار راسخ لحماية البيانات. يضع القانون 09-08 وCNDP توقعات بشأن التعامل مع البيانات الشخصية. قد يبدو توقّع العمر والإشارات السلوكية كنوع من التنميط، لذا تهم الشفافية وتقليل البيانات.
يمكن للمشتريات العمومية دفع السوق نحو افتراضات أكثر أمانًا. يمكن للجهات اشتراط:
- إفصاح واضح بأن المستخدم يتحدث مع نظام ذكاء اصطناعي.
- تعامل قوي مع إشارات إيذاء النفس وإشارات الأزمات.
- اختبار لمحاولات كسر القيود (jailbreak) بالعربية والفرنسية والرسائل المختلطة النص.
- عمليات موثّقة للإشراف والطعن وإبلاغ المستخدم.
## قائمة تحقق عملية للأسر وبنّائي المنتجات في المغرب
استخدم هذا كنقطة انطلاق، وليس نصيحة قانونية. يصلح سواء كنت تستخدم ChatGPT أو روبوت دردشة آخر.
**للآباء ومقدّمي الرعاية**
- الاتفاق على أين يُسمح بالذكاء الاصطناعي: الواجبات، ممارسة اللغة، أو الكتابة الإبداعية.
- إبقاء الأجهزة خارج غرف النوم خلال ساعات الليل المتأخرة متى أمكن.
- السؤال عن المشاعر بعد جلسات طويلة مع الذكاء الاصطناعي، وليس فقط عن الدرجات.
- حفظ جهات اتصال الدعم المحلي للصحة النفسية وخطر الحالات العاجلة.
**للمراهقين**
- اعتبر الذكاء الاصطناعي أداة، لا صديقًا أو معالجًا.
- لا تشارك أسماء حقيقية أو عناوين أو تفاصيل المدرسة.
- إذا أصبحت المحادثة ثقيلة، توقّف وتحدّث إلى بالغ موثوق.
**لفرق المنتجات**
- إجراء اختبارات فريق أحمر (Red-team) لمحفزات لعب الأدوار للمراهقين ومحفزات صورة الجسد باللغات المحلية.
- إضافة قوالب رفض هادئة وغير مُعيِّرة.
- تسجيل أحداث السلامة بحذر وتقليل الاحتفاظ بالبيانات الحساسة.
- توفير طريقة سهلة للإبلاغ عن المخرجات الضارة.
## السؤال المفتوح: هل سيطابق السلوك المواصفات
تحديث OpenAI هو تحول في السياسة ورهان على التنفيذ. يمكن لتوقّع العمر والمصنّفات والمراجعة البشرية تقليل التفاعل المحفوف بالمخاطر. كما تشجع مواد التثقيف الأسر على وضع حدود.
لكن الخبراء يعودون باستمرار إلى قضية واحدة: التفاعلات الواقعية فوضوية. ستختبر صياغة المحفزات في الحالات الحدّية والمحادثات العاطفية الطويلة النظام. بالنسبة للمغرب، الدرس واضح: تبنَّ الذكاء الاصطناعي، لكن اجعل السلامة والتثقيف ميزتين من الدرجة الأولى.
تحتاج مساعدة في مشروع ذكاء اصطناعي؟
سواء كنت تبحث عن تنفيذ حلول الذكاء الاصطناعي، أو تحتاج استشارة، أو تريد استكشاف كيف يمكن للذكاء الاصطناعي تحويل عملك، أنا هنا للمساعدة.
لنناقش مشروع الذكاء الاصطناعي الخاص بك ونستكشف الإمكانيات معاً.
OpenAI تشدّد قواعد ChatGPT للمراهقين: قيود أكثر صرامة على لعب الأدوار، وضمانات لصورة الجسد، وتوقّع آلي للعمر بينما يناقش المشرّعون معايير الذكاء الاصطناعي للقاصرين