
قامت OpenAI بتحديث كيفية تصرّف ChatGPT مع المستخدمين دون 18 عامًا. وأضافت قواعد خاصة بالمراهقين إلى «مواصفات النموذج» العامة (Model Spec). كما نشرت موادًا للتثقيف بالذكاء الاصطناعي موجّهة للمراهقين والآباء.
هذا يهمّ في المغرب لأن المراهقين مستخدمون كثيفون للإنترنت ومتبنّون سريعون للذكاء الاصطناعي. كثيرون يستخدمون روبوتات الدردشة للمساعدة في الواجبات، وممارسة اللغات، وطرح أسئلة شخصية. كما تطلق الشركات الناشئة والوكالات المغربية تجارب دردشة، غالبًا لجمهور واسع يشمل القاصرين.
تفيد TechCrunch بأن OpenAI شدّدت الإرشادات للتفاعلات التي تعتقد أنها تشمل مراهقًا. ولا تزال المحظورات القائمة سارية، بما في ذلك أي محتوى جنسي يتضمن قاصرين. وتضيف التحديثات توقعات أكثر صرامة لمن هم دون 18 عامًا عبر لعب الأدوار والموضوعات الحسّاسة.
كما تستهدف الإرشادات الجديدة صيغًا شائعة لمحاولات كسر القيود (jailbreak). ويجب أن تظل الحدود سارية حتى عندما تُقدَّم الطلبات على أنها خيالية أو افتراضية أو تاريخية أو تعليمية. وغالبًا ما تُستخدم هذه الأطر لدفع النماذج إلى مخرجات غير مسموح بها.
بالنسبة للمراهقين، توجّه المواصفات النموذج لتجنّب لعب الأدوار الرومانسي الغامر. كما تتجنب الحميمية بصيغة المتكلم. وتقيّد أكثر لعب الأدوار الجنسي أو العنيف بصيغة المتكلم، حتى لو كان غير صريح.
عمليًا، يعني ذلك رفضًا أشد لطلبات مثل: مثّل دور حبيبتي أو حبيبي. كما يعني حلقات تفاعل أقل «التصاقًا» عاطفيًا يمكن أن تبدو كعلاقة. وقد كان هذا النمط مصدر قلق محوري في سلامة الأطفال.
يدعو التحديث إلى حذر إضافي بشأن موضوعات صورة الجسد واضطرابات الأكل. كما يحدّ من المحتوى الذي يروّج لمعايير جمال متطرفة. ويجب أن يتجنب تقديم نصائح تمكّن الحمية غير الصحية.
هذا مهم في المغرب، حيث يتعرض المراهقون لتدفقات اجتماعية عالمية بالفرنسية والعربية. يمكن لروبوتات الدردشة أن تضخّم المقارنات المؤذية إذا عكست المستخدم بشكل وثيق جدًا. يمكن لافتراضات افتراضية قوية أن تقلّل هذا الخطر.
توجّه إرشادات OpenAI النموذج إلى إعطاء أولوية لرسائل السلامة على الاستقلالية عندما يكون هناك ضرر. وينبغي أن يشجّع على دعم في العالم الحقيقي عندما يظهر خطر. كما يجب ألا يساعد المراهقين على إخفاء سلوك غير آمن عن مقدّمي الرعاية.
تلك النقطة الأخيرة مهمة لسيناريوهات يومية. قد يسأل مراهق عن كيفية إخفاء إيذاء النفس، أو فقدان الوزن الخطِر، أو تحديات خطيرة. تدفع المواصفات المحدّثة النموذج إلى الرفض وإعادة التوجيه.
تقول TechCrunch إن قواعد المراهقين صُممت لتعمل مع نظام توقّع العمر. الهدف هو اكتشاف عندما يكون الحساب على الأرجح لقاصر. وعند وضع علامة، يطبق ChatGPT تلقائيًا ضمانات إضافية.
وتذكر وثائق المساعدة لدى OpenAI أن توقّع العمر يستخدم إشارات حول كيفية استخدام الحساب. وقد يشمل ذلك الموضوعات وأنماط الاستخدام، مثل وقت اليوم. ثم يستنتج النظام ما إذا كان الشخص قد يكون دون 18 عامًا.
إذا اعتقد النظام أن الحساب دون 18 عامًا، يطبّق ChatGPT حماية أقوى. هذه القيود تحدّ بشكل أكثر صرامة من المحتوى الحسّاس وأنواع معينة من التفاعل. ويشمل ذلك لعب الأدوار الجنسي أو الرومانسي أو العنيف، بالإضافة إلى محتوى صورة الجسد الضار.
تقول OpenAI إن البالغين الذين يوضعون في تجربة المراهقين بالخطأ يمكنهم التحقق من أنهم 18+. ويتم التحقق عبر طرف ثالث يُدعى Persona. ويمكن للمستخدم التحقق باستخدام صورة سيلفي أو هوية حكومية.
وتؤكد OpenAI أنها لا تتلقى صورة السيلفي أو الهوية. كما تقول إن Persona تحذف بيانات التحقق خلال ساعات. وحتى مع هذا التطمين، يثير سير العمل أسئلة تتعلق بالخصوصية لدى كثير من المستخدمين.
تلخّص TechCrunch نهج OpenAI عبر أربعة التزامات. هذه أهداف سلوكية للمساعد، وليست مجرد قواعد فلترة. وهي تشكّل النبرة، وأسلوب الرفض، وإلى أين يوجّه النموذج المستخدم.
بالنسبة لبنّائي المنتجات في المغرب، تُعد هذه المبادئ متطلبات تصميم مفيدة. فهي تُترجم إلى نصوص واجهة المستخدم، ومسارات التصعيد، واختبارات الإشراف. كما تشكّل طريقة تعامل روبوت الدردشة مع عامية الدارجة أو مؤشرات الضيق المرمّزة.
تفيد TechCrunch بأن OpenAI تستخدم مصنّفات آلية في الوقت الحقيقي عبر الوسائط. ويمكن أن تؤدي إشارات الشدة الأعلى إلى مراجعة من فريق مدرّب. وفي حالات تُظهر ضيقًا حادًا، قد يتم إخطار أحد الوالدين.
وتصف صفحة الأسئلة الشائعة الخاصة بالضوابط الأبوية لدى OpenAI نسخة ضيقة من تلك الفكرة. عمومًا لا يمكن للآباء رؤية محادثات المراهقين. وفي حالات نادرة تتعلق بخطر شديد لإيذاء النفس، قد يتلقى أحد الوالدين تنبيه سلامة بمعلومات محدودة وموارد.
بالنسبة للمغرب، يسلّط هذا الضوء على فجوة توقعات معقّدة. قد تفترض العائلات أن الأداة إما خاصة بالكامل أو مراقَبة بالكامل. تقع تنبيهات السلامة في المنتصف وتحتاج إلى تواصل واضح.
يأتي التحديث وسط ضغط سياسي متزايد في الولايات المتحدة. وقد حثّ المدّعون العامون في الولايات الكبيرة المنصات الكبرى على إضافة ضمانات للأطفال. ويوازن المشرّعون بين خيارات تمتد من معايير أساسية إلى مقترحات قد تحظر القاصرين من روبوتات الدردشة بالذكاء الاصطناعي.
وترتبط TechCrunch أيضًا بالتغييرات بادعاءات أذى للمراهقين تتضمن محادثات مطوّلة مع روبوتات الدردشة. وتشير إلى أن جيل Z من بين أكثر الفئات نشاطًا على ChatGPT. كما يمكن لشراكات توزيع إضافية أن تجلب مزيدًا من المستخدمين الشباب إلى المنظومة.
ينبغي على أصحاب المصلحة في المغرب قراءة ذلك كإشارة. غالبًا ما يتحول ضغط السياسة العالمي إلى افتراضات منتج افتراضية. ثم تشكّل تلك الافتراضات ما يمكن للمستخدمين والمطورين في المغرب فعله.
يصف محامٍ مختص بالخصوصية والذكاء الاصطناعي قابلته TechCrunch الرفض الصريح بأنه إشارة جيدة. ويبرزون لعب الأدوار الرومانسي أو المُجنّس باعتباره عالي المخاطر للمراهقين. ويمكن أن تكون حلقات التفاعل المستمرة إدمانية.
ويؤكد خبراء آخرون أن القواعد المنشورة لا تضمن السلوك الفعلي. وتشير TechCrunch إلى مخاوف «التملّق» (sycophancy)، حيث تبالغ النماذج في الموافقة أو تعكس المستخدم. وتربط ذلك بمخاوف أوسع حول المحاكاة غير المناسبة وتقارير عن سلوكيات «ذهان الذكاء الاصطناعي» في بعض التفاعلات.
كما يحذّر قائد منظمة غير ربحية لسلامة الأطفال من توتر داخلي. فقد يتعارض السلوك الموجه لتعزيز التفاعل مع بنود «السلامة أولًا». ويجادلون بأن الأنظمة يجب أن تُختبر لضمان أن يبقى الأثر الصافي وقائيًا.
قصة الذكاء الاصطناعي في المغرب عملية وسريعة الحركة. تنشر الفرق روبوتات دردشة في دعم العملاء والتعليم والسياحة. كما تدرب الجامعات ومدارس البرمجة مواهب قادرة على إطلاق هذه الأدوات بسرعة.
تثير هذه السرعة سؤالًا بسيطًا: كيف تحمي القاصرين في الاستخدام اليومي؟ يقدّم تحديث OpenAI مخططًا واحدًا، لكنه ليس حلًا كاملًا. سيظل المغرب بحاجة إلى خيارات محلية حول الخصوصية واللغة والتصعيد.
يستخدم كثير من المراهقين في المغرب الذكاء الاصطناعي بالفعل للدعم الدراسي. تشمل الموضوعات الشائعة ممارسة اللغة، وخطوات الرياضيات، ومراجعة على نمط البكالوريا. كما يطرحون أسئلة شخصية تقع خارج المدرسة.
قد تقلّل القواعد الجديدة لعب الأدوار الخطِر، لكنها لا تستبدل الإرشاد من البالغين. يمكن للمدارس وجمعيات الآباء تكييف نهج التثقيف لدى OpenAI وفق الأعراف المحلية. يشمل ذلك نقاشًا بالعربية والفرنسية، مع سياق للدارجة.
خطوات عملية للمعلمين في المغرب:
غالبًا ما تبني الشركات الناشئة المغربية مساعدين للبنوك وتجار التجزئة واللوجستيات والموارد البشرية. وحتى إذا كان المستخدم المستهدف بالغًا، فسيحاول المراهقون استخدام النظام. تحتاج تجارب الدردشة الموجهة للعامة إلى وضعية سلامة للقاصرين افتراضيًا.
يشير نهج OpenAI إلى ميزات ملموسة يمكن نسخها:
ينبغي على الفرق أيضًا التخطيط لوضعَي فشل. الأول هو السلبيات الكاذبة، حيث يُعامل مراهق كأنه بالغ. والثاني هو الإيجابيات الكاذبة، حيث يُقيَّد بالغ.
يقوم المغرب برقمنة مزيد من الخدمات العامة ونقاط تواصل المواطنين. يمكن لروبوتات الدردشة تقليل أوقات الانتظار والمساعدة في التنقل متعدد اللغات. إذا استُخدمت تلك الأدوات من قبل العائلات، فيجب أن تتعامل مع القاصرين بأمان.
كما لدى المغرب إطار راسخ لحماية البيانات. يضع القانون 09-08 وCNDP توقعات بشأن التعامل مع البيانات الشخصية. قد يبدو توقّع العمر والإشارات السلوكية كنوع من التنميط، لذا تهم الشفافية وتقليل البيانات.
يمكن للمشتريات العمومية دفع السوق نحو افتراضات أكثر أمانًا. يمكن للجهات اشتراط:
استخدم هذا كنقطة انطلاق، وليس نصيحة قانونية. يصلح سواء كنت تستخدم ChatGPT أو روبوت دردشة آخر.
*للآباء ومقدّمي الرعاية
*
*للمراهقين
*
*لفرق المنتجات
*
تحديث OpenAI هو تحول في السياسة ورهان على التنفيذ. يمكن لتوقّع العمر والمصنّفات والمراجعة البشرية تقليل التفاعل المحفوف بالمخاطر. كما تشجع مواد التثقيف الأسر على وضع حدود.
لكن الخبراء يعودون باستمرار إلى قضية واحدة: التفاعلات الواقعية فوضوية. ستختبر صياغة المحفزات في الحالات الحدّية والمحادثات العاطفية الطويلة النظام. بالنسبة للمغرب، الدرس واضح: تبنَّ الذكاء الاصطناعي، لكن اجعل السلامة والتثقيف ميزتين من الدرجة الأولى.
سواء كنت تبحث عن تنفيذ حلول الذكاء الاصطناعي، أو تحتاج استشارة، أو تريد استكشاف كيف يمكن للذكاء الاصطناعي تحويل عملك، أنا هنا للمساعدة.
لنناقش مشروع الذكاء الاصطناعي الخاص بك ونستكشف الإمكانيات معاً.