
تُنشئ OpenAI منصبًا قياديًا جديدًا يُسمّى رئيس قسم الجاهزية. وتقول الشركة إن نماذجها الأكثر تقدمًا تدخل مناطق أكثر خطورة. وتفيد TechCrunch بأن المدير التنفيذي سام ألتمان بات يرى تهديدات ملموسة، لا مجرد تهديدات افتراضية. تشمل قائمته أضرارًا على الصحة النفسية وأنظمة بارعة جدًا في أمن الحواسيب إلى درجة تمكّنها من اكتشاف ثغرات حرجة.
تشرح هذه التدوينة ما يعنيه تحرّك OpenAI على صعيد التوظيف ولماذا يهم منظومة الذكاء الاصطناعي في المغرب. وتستعرض كيف ترتبط إدارة مخاطر النماذج الحدّية بالشركات الناشئة المغربية والمبادرات الحكومية وحالات الاستخدام العملية. الهدف بسيط. مساعدة صانعي القرار في المغرب على رؤية الفرصة والمسؤولية معًا وراء الذكاء الاصطناعي المتقدّم.
تملك OpenAI بالفعل «إطار جاهزية» يتتبّع القدرات الحدّية التي يمكن أن تُسبّب أضرارًا جسيمة إذا أُتيحت على نطاق واسع أو مبكرًا جدًا. من المفترض أن يتولى رئيس قسم الجاهزية الجديد تشغيل هذا الإطار عمليًا. وهذا الدور مسؤول عن كيفية اختبار OpenAI للميزات عالية المخاطر وتقييدها وإطلاقها. تشير TechCrunch إلى أن التعويض المعروض يبلغ 555,000 دولار أمريكي إضافةً إلى أسهم، في إشارة إلى مدى أهمية هذه الوظيفة.
لا يقتصر العمل على صياغة السياسات. بل يهدف إلى تنسيق فرق تفحص النماذج بحثًا عن سلوكيات خطرة. يشمل ذلك خبراء الأمن، وأخصائيي الصحة النفسية، وغيرهم ممّن يفهمون الأضرار في العالم الواقعي. وتُسهم نتائجهم بعد ذلك في تشكيل قرارات تدريب النماذج وتقييمها ونشرها.
تُظهر تعليقات ألتمان على منصة X مجالات المخاطر التي تقلق OpenAI أكثر اليوم. أولًا، الآثار على الصحة النفسية للأنظمة التي تبدو متعاطفة ومقنعة ومتاحة على الدوام. ثانيًا، النماذج الآخذة في التقدّم التي يمكنها فحص الشيفرات والبُنى التحتية بحثًا عن ثغرات برمجية. على المسؤول التنفيذي الجديد أن يساعد في ضمان أن تعزّز هذه القدرات المدافعين من دون أن تضع أدوات قوية في يد المهاجمين.
وتذكر TechCrunch أيضًا أن OpenAI تريد من هذا الشخص التفكير في المخاطر البيولوجية والأنظمة ذاتية التحسّن. يعني ذلك التخطيط لمسارات إطلاق آمنة للنماذج التي قد تساعد في أعمال بيولوجية حسّاسة. كما يعني بناء الثقة في تشغيل أنظمة يمكنها المساعدة في تصميم خلفائها أو تحسينهم. هذه أسئلة مبكرة، لكنها ستشكّل الكيفية التي سيُنشَر بها الذكاء الاصطناعي الحدّي حول العالم.
تشير TechCrunch إلى أن OpenAI أنشأت فريقًا للجاهزية في عام 2023 لاستكشاف المخاطر الكارثية. شمل ذلك تهديدات قريبة المدى مثل حملات التصيّد الاحتيالي الموجّهة وسيناريوهات قصوى أكثر افتراضية. وبعد أقل من عام، انتقل رئيس قسم الجاهزية السابق للعمل على قدرات الاستدلال في الذكاء الاصطناعي. كما غيّر قادة آخرون في مجال السلامة أدوارهم أو غادروا، ما دفع منتقدين إلى التساؤل عن التزام OpenAI الطويل الأمد بالسلامة.
يبدو البحث الجديد أشبه بإعادة ضبط للمسار. فـOpenAI ترفع مستوى أقدمية هذا الدور في الوقت الذي تكتسب فيه نماذجها قدرات جديدة. كما حدّثت الشركة إطار الجاهزية الخاص بها. وهي تقول الآن إن متطلبات السلامة قد تُعدّل إذا أطلق منافس نموذجًا عالي المخاطر من دون حماية مماثلة، في إشارة إلى ضغط المنافسة.
بالنسبة للمغرب، يمثّل هذا إنذارًا. فحتى المختبرات الأكثر تمويلًا تشعر بأنها محاصَرة بين التزامات السلامة والمنافسة في السوق. وسيظهر التوتر نفسه مع نشر المؤسسات المغربية للذكاء الاصطناعي في مجالات مثل المالية والرعاية الصحية والخدمات العامة. يحتاج الفاعلون المحليون إلى مبادئ واضحة الآن، قبل أن يواجهوا مقايضات مماثلة.
يبني المغرب منظومة ذكاء اصطناعي متواضعة لكنها آخذة في النمو. تختبر شركات التكنولوجيا والجامعات ومراكز الأبحاث تقنيات التعلّم الآلي في مجالات مثل الزراعة والنقل والسياحة والإدارة العمومية. وتطبّق عدة شركات ناشئة الذكاء الاصطناعي في مهام مثل كشف الاحتيال، وتحسين اللوجستيات، والتعليم المخصّص. كما تدفع برامج التحول الرقمي التي تقودها الحكومة نحو إتاحة مزيد من الخدمات العامة عبر الإنترنت، ويتفاعل المواطنون بشكل متزايد مع الدولة من خلال منصات رقمية.
يخلق هذا السياق شهية حقيقية تجاه الذكاء الاصطناعي. فيمكن لتنبؤات المحاصيل الأكثر دقة أن تدعم المزارعين والتعاونيات. ويمكن لتوقّع حركة المرور بصورة أذكى أن يقلّل الازدحام والتلوث في المدن الكبرى. كما يمكن لأتمتة معالجة الوثائق أن تختصر أوقات الانتظار في الإدارة وخدمات الزبائن.
ومع ذلك، تبقى إدارة المخاطر في كثير من الأحيان مسألة ثانوية. فعديد من المؤسسات تتعامل مع «الذكاء الاصطناعي المسؤول» كخانة امتثال أو عبارة تسويقية. قلّة منها لديها فرق مخصّصة لمراقبة سلوك النماذج أثناء التشغيل الفعلي. والأقل من ذلك من يملك معايير واضحة لتعليق نشر نموذج أو التراجع عنه عندما تظهر مؤشرات على الضرر.
تُظهر قصة OpenAI أن هياكل الحوكمة يجب أن تنمو مع نمو القدرات. فالشركة الناشئة المغربية الصغيرة لا تحتاج إلى ميزانيات وادي السيليكون. لكنها تحتاج إلى حدود واضحة لما يُعدّ سلوكًا عالي المخاطر. وتحتاج أيضًا إلى خطط لكيفية الاستجابة عندما تتصرّف النماذج بطرق غير متوقعة.
المصدر الثاني لقلق ألتمان، أي القدرات المتقدمة في أمن الحواسيب، يرتبط مباشرةً بالمغرب. فالبنية التحتية الحرجة مثل شبكات الكهرباء والموانئ وشبكات الاتصالات والمصارف أصبحت رقمية إلى حد كبير. ومع تحسّن أدوات الذكاء الاصطناعي في فحص الشيفرات والإعدادات، يمكنها مساعدة المدافعين على اكتشاف نقاط الضعف بسرعة أكبر. لكنها قد تُساء أيضًا من قِبل مهاجمين يريدون توسيع نطاق التصيّد أو الاختراق أو سرقة البيانات.
تواجه الشركات المغربية بالفعل برمجيات الفدية، وعمليات احتيال عبر البريد الإلكتروني للأعمال، ومحاولات احتيال أخرى. وتفتقر كثير من المنظمات الصغيرة إلى فرق أمنية متخصّصة أو قدرات ناضجة على الاستجابة للحوادث. يمكن للنماذج الحدّية القادرة على تحليل السجلات، واكتشاف الأنماط الشاذة، أو تدقيق الإعدادات أن توفّر دعمًا قيّمًا. لكن إذا أصبحت النماذج نفسها متاحة بسهولة للمجرمين، فقد يرتفع مستوى الخطر الإجمالي مع ذلك.
يحاول إطار الجاهزية لدى OpenAI إدارة مشكلة الاستخدام المزدوج هذه. فمن المتوقَّع أن يضع رئيس قسم الجاهزية اختبارات تكشف اللحظة التي تبدأ فيها النماذج باكتشاف الثغرات الحرجة بشكل موثوق. ثم تُحدَّد الحدود وضوابط الأمان والتحكّم في الوصول قبل إتاحة تلك القدرات. يمكن للجهات التنظيمية ومقدّمي الخدمات في المغرب تكييف أفكار مماثلة عند تبنّي أدوات ذكاء اصطناعي قوية.
فعلى سبيل المثال، يمكن لمصرف في الدار البيضاء أن يقيّد ميزات تحليل الشيفرات المتقدّم على فريق أمني مُدقَّق. ويمكن أن يتطلّب الوصول مصادقة قوية ورقابة مستمرة. كما يمكن مراجعة سجلات المخرجات الحسّاسة للنموذج بحثًا عن مؤشرات على سوء الاستخدام. يعكس ذلك فكرة تقييد القدرات عالية المخاطر بدلًا من إتاحتها لكل مستخدم.
المجال الرئيسي الآخر للمخاطر هو الصحة النفسية. تذكر TechCrunch دعاوى قضائية تتّهم ChatGPT بتعزيز الأوهام، وتعميق العزلة، وحتى المساهمة في الانتحار. تقول OpenAI إنها تدرب النماذج على التعرّف إلى الضيق العاطفي ودفع المستخدمين نحو الدعم البشري. ومع ذلك، تُبرز هذه الحالات الكيفية التي يمكن بها للأنظمة الحوارية التأثير في الأشخاص المعرّضين للهشاشة.
في المغرب، ما تزال خدمات الصحة النفسية محدودة، خصوصًا خارج المدن الكبرى. كما تمنع الوصمة كثيرًا من الناس من طلب المساعدة. يمكن لروبوتات المحادثة المعتمدة على الذكاء الاصطناعي باللغات العربية أو الفرنسية أو باللهجات المحلية أن توفّر دعمًا منخفض التكلفة للتعامل مع الضغط أو لأغراض التعليم أو الإرشاد الأساسي. لكنها قد تقدّم أيضًا تطمينات زائفة أو نصائح ضارّة أو تشجّع على الانسحاب من العلاقات في العالم الواقعي.
سيحتاج رئيس قسم الجاهزية في OpenAI إلى أدلة من تفاعلات حقيقية مع المستخدمين لفهم هذه المخاطر. وسيدرس أنماط الضيق وسوء الاستخدام والتصعيد. وبناءً على ذلك، يمكنه اقتراح تعديلات على بيانات التدريب، وحواجز الأمان، ومسارات التصعيد. ينبغي للمطوّرين المغاربة الذين يبنون روبوتات محادثة للصحة النفسية أو التعليم أن يتبنّوا الذهنية نفسها.
وبالنسبة للفرق المحلية، يعني ذلك إشراك الأطباء الإكلينيكيين والأخصائيين الاجتماعيين والمهتمّين بالأخلاقيات مبكرًا. كما يعني تحديد اللحظات التي يجب أن يوقف فيها روبوت المحادثة الحوار ويحثّ المستخدم على التواصل مع خدمات الطوارئ أو أشخاص موثوقين. ويعني أيضًا تتبّع الحالات التي يبدو فيها النظام وكأنه يزيد من حدة الضيق. وينبغي أن تُعاد هذه الدروس إلى إعدادات النموذج وقرارات نشره.
تشير TechCrunch إلى أن OpenAI تريد شخصًا يمكنه التفكير في مسارات آمنة لأنظمة قد تكون قادرة على تحسين نفسها. فقد تتمكّن النماذج يومًا ما من المساعدة في تصميم واختبار ونشر خلفائها. وقد تتمكّن من تحسين مسارات تدريبها الخاصة أو إنشاء أدوات جديدة توسّع نطاق تأثيرها. وهذا يطرح أسئلة جديدة على صعيد الحوكمة.
ولا يتطلّب التحسّن الذاتي مستوى من الاستقلالية يشبه الخيال العلمي. فحتى اليوم يمكن لأدوات توليد الشيفرة أن تكتب سكربتات تُؤتمت عبرها عمليات الاختبار والنشر. ويمكن لنماذج اللغة أن تقترح استراتيجيات هجوم ودفاع جديدة في بيئات مُحاكاة. ومع ترسّخ هذه الحلقات الراجعة، يمكن أن تتوسّع أخطاء النظام بسرعة.
ستتصل منظومة المغرب في نهاية المطاف بمثل هذه الأنظمة، سواء عبر منصات سحابية عالمية أو برمجيات مستوردة. وقد تستخدم المصارف وشركات الاتصالات والجهات الحكومية أدوات تتكيّف تلقائيًا بناءً على البيانات الحية. ومن دون شفافية ومسارات تدقيق، سيكون من الصعب معرفة لماذا تغيّرت الأنظمة أو من يتحمّل المسؤولية. هنا يصبح التفكير بمنطق الجاهزية ذا قيمة كبيرة.
لا تحتاج الشركات الناشئة المغربية إلى قسم كامل لرئيس الجاهزية. لكنها يمكن أن تستعير عددًا من الممارسات العملية من نهج OpenAI. الفكرة الجوهرية بسيطة. التعامل مع بعض قدرات الذكاء الاصطناعي على أنها عالية الخطورة وإخضاعها لمعايير أشد في الاختبار والمراقبة والإطلاق.
يمكن للمؤسسات الحكومية أن تتحرّك أيضًا. فيمكنها وضع إرشادات مبسّطة للاستخدامات عالية المخاطر للذكاء الاصطناعي في الخدمات العامة. ويمكنها فرض تقييمات للأثر وتقارير عن الحوادث في عمليات النشر الحرجة. كما يمكنها تشجيع الجامعات على تخريج مهندسين يفهمون قدرات الذكاء الاصطناعي وحدود السلامة في آن واحد.
لا يُعدّ بحث OpenAI عن رئيس لقسم الجاهزية مجرد قصة من وادي السيليكون. بل يشير إلى تحوّل في كيفية حوكمة الذكاء الاصطناعي الحدّي. ما يزال المغرب في مرحلة مبكرة من رحلته مع الذكاء الاصطناعي، وهذا يمثّل ميزة. فيمكن للبلاد أن تدمج التفكير في السلامة ضمن منظومتها منذ الآن، قبل أن تصبح النماذج الحدّية مترسّخة بعمق في الحياة اليومية.
سواء كنت تبحث عن تنفيذ حلول الذكاء الاصطناعي، أو تحتاج استشارة، أو تريد استكشاف كيف يمكن للذكاء الاصطناعي تحويل عملك، أنا هنا للمساعدة.
لنناقش مشروع الذكاء الاصطناعي الخاص بك ونستكشف الإمكانيات معاً.