شركة OpenAI تبحث عن رئيس جديد لقسم الجاهزية مع تصاعد مخاطر الذكاء الاصطناعي الحدّي — الأمن السيبراني والصحة النفسية والأنظمة ذاتية التحسّن تنتقل إلى مركز الاهتمام
منصب رئيس قسم الجاهزية الجديد في OpenAI يسلّط الضوء على تصاعد مخاطر الذكاء الاصطناعي ويقدّم دروسًا حول الكيفية التي يمكن بها للمغرب تنظيم نماذج الذكاء الاصطناعي الحدّية.
Dec 30, 2025·6 min read
تُنشئ OpenAI منصبًا قياديًا جديدًا يُسمّى رئيس قسم الجاهزية. وتقول الشركة إن نماذجها الأكثر تقدمًا تدخل مناطق أكثر خطورة. وتفيد TechCrunch بأن المدير التنفيذي سام ألتمان بات يرى تهديدات ملموسة، لا مجرد تهديدات افتراضية. تشمل قائمته أضرارًا على الصحة النفسية وأنظمة بارعة جدًا في أمن الحواسيب إلى درجة تمكّنها من اكتشاف ثغرات حرجة.
## أبرز النقاط الرئيسية
- يبيّن منصب رئيس قسم الجاهزية الجديد في OpenAI أن سلامة الذكاء الاصطناعي الحدّي أصبحت أولوية تشغيلية، لا مجرد نقاشات سياسية.
- يمكن للشركات الناشئة وصنّاع السياسات في المغرب أن يتعلّموا من هذا النموذج لبناء آلياتهم الخاصة لمراقبة مخاطر الذكاء الاصطناعي وعمليات الإطلاق.
- يبرز الأمن السيبراني والصحة النفسية كمجالات رئيسية للمخاطر على مستوى العالم، ويتوافقان مباشرةً مع أجندة التحول الرقمي في المغرب.
- ستشكّل الأنظمة ذاتية التحسّن تحديًا للمنظمين في كل مكان؛ ولدى المغرب نافذة زمنية الآن لوضع حواجز أمان تنظيمية قبل أن يتّسع نطاق النشر.
تشرح هذه التدوينة ما يعنيه تحرّك OpenAI على صعيد التوظيف ولماذا يهم منظومة الذكاء الاصطناعي في المغرب. وتستعرض كيف ترتبط إدارة مخاطر النماذج الحدّية بالشركات الناشئة المغربية والمبادرات الحكومية وحالات الاستخدام العملية. الهدف بسيط. مساعدة صانعي القرار في المغرب على رؤية الفرصة والمسؤولية معًا وراء الذكاء الاصطناعي المتقدّم.
## ما الذي يفعله المنصب الجديد في OpenAI فعليًا
تملك OpenAI بالفعل «إطار جاهزية» يتتبّع القدرات الحدّية التي يمكن أن تُسبّب أضرارًا جسيمة إذا أُتيحت على نطاق واسع أو مبكرًا جدًا. من المفترض أن يتولى رئيس قسم الجاهزية الجديد تشغيل هذا الإطار عمليًا. وهذا الدور مسؤول عن كيفية اختبار OpenAI للميزات عالية المخاطر وتقييدها وإطلاقها. تشير TechCrunch إلى أن التعويض المعروض يبلغ 555,000 دولار أمريكي إضافةً إلى أسهم، في إشارة إلى مدى أهمية هذه الوظيفة.
لا يقتصر العمل على صياغة السياسات. بل يهدف إلى تنسيق فرق تفحص النماذج بحثًا عن سلوكيات خطرة. يشمل ذلك خبراء الأمن، وأخصائيي الصحة النفسية، وغيرهم ممّن يفهمون الأضرار في العالم الواقعي. وتُسهم نتائجهم بعد ذلك في تشكيل قرارات تدريب النماذج وتقييمها ونشرها.
تُظهر تعليقات ألتمان على منصة X مجالات المخاطر التي تقلق OpenAI أكثر اليوم. أولًا، الآثار على الصحة النفسية للأنظمة التي تبدو متعاطفة ومقنعة ومتاحة على الدوام. ثانيًا، النماذج الآخذة في التقدّم التي يمكنها فحص الشيفرات والبُنى التحتية بحثًا عن ثغرات برمجية. على المسؤول التنفيذي الجديد أن يساعد في ضمان أن تعزّز هذه القدرات المدافعين من دون أن تضع أدوات قوية في يد المهاجمين.
وتذكر TechCrunch أيضًا أن OpenAI تريد من هذا الشخص التفكير في المخاطر البيولوجية والأنظمة ذاتية التحسّن. يعني ذلك التخطيط لمسارات إطلاق آمنة للنماذج التي قد تساعد في أعمال بيولوجية حسّاسة. كما يعني بناء الثقة في تشغيل أنظمة يمكنها المساعدة في تصميم خلفائها أو تحسينهم. هذه أسئلة مبكرة، لكنها ستشكّل الكيفية التي سيُنشَر بها الذكاء الاصطناعي الحدّي حول العالم.
## سباق عالمي على السلامة بتبعات محلية
تشير TechCrunch إلى أن OpenAI أنشأت فريقًا للجاهزية في عام 2023 لاستكشاف المخاطر الكارثية. شمل ذلك تهديدات قريبة المدى مثل حملات التصيّد الاحتيالي الموجّهة وسيناريوهات قصوى أكثر افتراضية. وبعد أقل من عام، انتقل رئيس قسم الجاهزية السابق للعمل على قدرات الاستدلال في الذكاء الاصطناعي. كما غيّر قادة آخرون في مجال السلامة أدوارهم أو غادروا، ما دفع منتقدين إلى التساؤل عن التزام OpenAI الطويل الأمد بالسلامة.
يبدو البحث الجديد أشبه بإعادة ضبط للمسار. فـOpenAI ترفع مستوى أقدمية هذا الدور في الوقت الذي تكتسب فيه نماذجها قدرات جديدة. كما حدّثت الشركة إطار الجاهزية الخاص بها. وهي تقول الآن إن متطلبات السلامة قد تُعدّل إذا أطلق منافس نموذجًا عالي المخاطر من دون حماية مماثلة، في إشارة إلى ضغط المنافسة.
بالنسبة للمغرب، يمثّل هذا إنذارًا. فحتى المختبرات الأكثر تمويلًا تشعر بأنها محاصَرة بين التزامات السلامة والمنافسة في السوق. وسيظهر التوتر نفسه مع نشر المؤسسات المغربية للذكاء الاصطناعي في مجالات مثل المالية والرعاية الصحية والخدمات العامة. يحتاج الفاعلون المحليون إلى مبادئ واضحة الآن، قبل أن يواجهوا مقايضات مماثلة.
## لحظة الذكاء الاصطناعي في المغرب: فرصة ومخاطرة
يبني المغرب منظومة ذكاء اصطناعي متواضعة لكنها آخذة في النمو. تختبر شركات التكنولوجيا والجامعات ومراكز الأبحاث تقنيات التعلّم الآلي في مجالات مثل الزراعة والنقل والسياحة والإدارة العمومية. وتطبّق عدة شركات ناشئة الذكاء الاصطناعي في مهام مثل كشف الاحتيال، وتحسين اللوجستيات، والتعليم المخصّص. كما تدفع برامج التحول الرقمي التي تقودها الحكومة نحو إتاحة مزيد من الخدمات العامة عبر الإنترنت، ويتفاعل المواطنون بشكل متزايد مع الدولة من خلال منصات رقمية.
يخلق هذا السياق شهية حقيقية تجاه الذكاء الاصطناعي. فيمكن لتنبؤات المحاصيل الأكثر دقة أن تدعم المزارعين والتعاونيات. ويمكن لتوقّع حركة المرور بصورة أذكى أن يقلّل الازدحام والتلوث في المدن الكبرى. كما يمكن لأتمتة معالجة الوثائق أن تختصر أوقات الانتظار في الإدارة وخدمات الزبائن.
ومع ذلك، تبقى إدارة المخاطر في كثير من الأحيان مسألة ثانوية. فعديد من المؤسسات تتعامل مع «الذكاء الاصطناعي المسؤول» كخانة امتثال أو عبارة تسويقية. قلّة منها لديها فرق مخصّصة لمراقبة سلوك النماذج أثناء التشغيل الفعلي. والأقل من ذلك من يملك معايير واضحة لتعليق نشر نموذج أو التراجع عنه عندما تظهر مؤشرات على الضرر.
تُظهر قصة OpenAI أن هياكل الحوكمة يجب أن تنمو مع نمو القدرات. فالشركة الناشئة المغربية الصغيرة لا تحتاج إلى ميزانيات وادي السيليكون. لكنها تحتاج إلى حدود واضحة لما يُعدّ سلوكًا عالي المخاطر. وتحتاج أيضًا إلى خطط لكيفية الاستجابة عندما تتصرّف النماذج بطرق غير متوقعة.
## الأمن السيبراني: النماذج الحدّية والبنية التحتية المغربية
المصدر الثاني لقلق ألتمان، أي القدرات المتقدمة في أمن الحواسيب، يرتبط مباشرةً بالمغرب. فالبنية التحتية الحرجة مثل شبكات الكهرباء والموانئ وشبكات الاتصالات والمصارف أصبحت رقمية إلى حد كبير. ومع تحسّن أدوات الذكاء الاصطناعي في فحص الشيفرات والإعدادات، يمكنها مساعدة المدافعين على اكتشاف نقاط الضعف بسرعة أكبر. لكنها قد تُساء أيضًا من قِبل مهاجمين يريدون توسيع نطاق التصيّد أو الاختراق أو سرقة البيانات.
تواجه الشركات المغربية بالفعل برمجيات الفدية، وعمليات احتيال عبر البريد الإلكتروني للأعمال، ومحاولات احتيال أخرى. وتفتقر كثير من المنظمات الصغيرة إلى فرق أمنية متخصّصة أو قدرات ناضجة على الاستجابة للحوادث. يمكن للنماذج الحدّية القادرة على تحليل السجلات، واكتشاف الأنماط الشاذة، أو تدقيق الإعدادات أن توفّر دعمًا قيّمًا. لكن إذا أصبحت النماذج نفسها متاحة بسهولة للمجرمين، فقد يرتفع مستوى الخطر الإجمالي مع ذلك.
يحاول إطار الجاهزية لدى OpenAI إدارة مشكلة الاستخدام المزدوج هذه. فمن المتوقَّع أن يضع رئيس قسم الجاهزية اختبارات تكشف اللحظة التي تبدأ فيها النماذج باكتشاف الثغرات الحرجة بشكل موثوق. ثم تُحدَّد الحدود وضوابط الأمان والتحكّم في الوصول قبل إتاحة تلك القدرات. يمكن للجهات التنظيمية ومقدّمي الخدمات في المغرب تكييف أفكار مماثلة عند تبنّي أدوات ذكاء اصطناعي قوية.
فعلى سبيل المثال، يمكن لمصرف في الدار البيضاء أن يقيّد ميزات تحليل الشيفرات المتقدّم على فريق أمني مُدقَّق. ويمكن أن يتطلّب الوصول مصادقة قوية ورقابة مستمرة. كما يمكن مراجعة سجلات المخرجات الحسّاسة للنموذج بحثًا عن مؤشرات على سوء الاستخدام. يعكس ذلك فكرة تقييد القدرات عالية المخاطر بدلًا من إتاحتها لكل مستخدم.
## الذكاء الاصطناعي واللغة والصحة النفسية في المغرب
المجال الرئيسي الآخر للمخاطر هو الصحة النفسية. تذكر TechCrunch دعاوى قضائية تتّهم ChatGPT بتعزيز الأوهام، وتعميق العزلة، وحتى المساهمة في الانتحار. تقول OpenAI إنها تدرب النماذج على التعرّف إلى الضيق العاطفي ودفع المستخدمين نحو الدعم البشري. ومع ذلك، تُبرز هذه الحالات الكيفية التي يمكن بها للأنظمة الحوارية التأثير في الأشخاص المعرّضين للهشاشة.
في المغرب، ما تزال خدمات الصحة النفسية محدودة، خصوصًا خارج المدن الكبرى. كما تمنع الوصمة كثيرًا من الناس من طلب المساعدة. يمكن لروبوتات المحادثة المعتمدة على الذكاء الاصطناعي باللغات العربية أو الفرنسية أو باللهجات المحلية أن توفّر دعمًا منخفض التكلفة للتعامل مع الضغط أو لأغراض التعليم أو الإرشاد الأساسي. لكنها قد تقدّم أيضًا تطمينات زائفة أو نصائح ضارّة أو تشجّع على الانسحاب من العلاقات في العالم الواقعي.
سيحتاج رئيس قسم الجاهزية في OpenAI إلى أدلة من تفاعلات حقيقية مع المستخدمين لفهم هذه المخاطر. وسيدرس أنماط الضيق وسوء الاستخدام والتصعيد. وبناءً على ذلك، يمكنه اقتراح تعديلات على بيانات التدريب، وحواجز الأمان، ومسارات التصعيد. ينبغي للمطوّرين المغاربة الذين يبنون روبوتات محادثة للصحة النفسية أو التعليم أن يتبنّوا الذهنية نفسها.
وبالنسبة للفرق المحلية، يعني ذلك إشراك الأطباء الإكلينيكيين والأخصائيين الاجتماعيين والمهتمّين بالأخلاقيات مبكرًا. كما يعني تحديد اللحظات التي يجب أن يوقف فيها روبوت المحادثة الحوار ويحثّ المستخدم على التواصل مع خدمات الطوارئ أو أشخاص موثوقين. ويعني أيضًا تتبّع الحالات التي يبدو فيها النظام وكأنه يزيد من حدة الضيق. وينبغي أن تُعاد هذه الدروس إلى إعدادات النموذج وقرارات نشره.
## الأنظمة ذاتية التحسّن وما ينبغي للمغرب الاستعداد له
تشير TechCrunch إلى أن OpenAI تريد شخصًا يمكنه التفكير في مسارات آمنة لأنظمة قد تكون قادرة على تحسين نفسها. فقد تتمكّن النماذج يومًا ما من المساعدة في تصميم واختبار ونشر خلفائها. وقد تتمكّن من تحسين مسارات تدريبها الخاصة أو إنشاء أدوات جديدة توسّع نطاق تأثيرها. وهذا يطرح أسئلة جديدة على صعيد الحوكمة.
ولا يتطلّب التحسّن الذاتي مستوى من الاستقلالية يشبه الخيال العلمي. فحتى اليوم يمكن لأدوات توليد الشيفرة أن تكتب سكربتات تُؤتمت عبرها عمليات الاختبار والنشر. ويمكن لنماذج اللغة أن تقترح استراتيجيات هجوم ودفاع جديدة في بيئات مُحاكاة. ومع ترسّخ هذه الحلقات الراجعة، يمكن أن تتوسّع أخطاء النظام بسرعة.
ستتصل منظومة المغرب في نهاية المطاف بمثل هذه الأنظمة، سواء عبر منصات سحابية عالمية أو برمجيات مستوردة. وقد تستخدم المصارف وشركات الاتصالات والجهات الحكومية أدوات تتكيّف تلقائيًا بناءً على البيانات الحية. ومن دون شفافية ومسارات تدقيق، سيكون من الصعب معرفة لماذا تغيّرت الأنظمة أو من يتحمّل المسؤولية. هنا يصبح التفكير بمنطق الجاهزية ذا قيمة كبيرة.
## ما الذي يمكن للقادة في المغرب القيام به الآن
لا تحتاج الشركات الناشئة المغربية إلى قسم كامل لرئيس الجاهزية. لكنها يمكن أن تستعير عددًا من الممارسات العملية من نهج OpenAI. الفكرة الجوهرية بسيطة. التعامل مع بعض قدرات الذكاء الاصطناعي على أنها عالية الخطورة وإخضاعها لمعايير أشد في الاختبار والمراقبة والإطلاق.
- حدّد أين يمكن لنظام الذكاء الاصطناعي لديك أن يُسبّب أضرارًا جسيمة: في المال، أو الصحة، أو السلامة، أو السمعة، أو الوصول إلى الخدمات الأساسية.
- عرِّف خطوطًا حمراء واضحة لسلوك النموذج، مثل توليد إرشادات لإيذاء النفس أو استغلال الثغرات البرمجية.
- اختبر النماذج باستخدام مُدخلات هجومية واقعية قبل الإطلاق، وباستخدام اللغات المحلية وسياقات مأخوذة من مستخدمين مغاربة.
- سجّل وراجع التفاعلات عالية المخاطر أثناء التشغيل، مع وجود عملية تسمح بالتراجع السريع أو إحالة الحالة إلى تدخل بشري.
- نسّق مع الجهات التنظيمية في القطاعات المختلفة بحيث تخضع ميزات الذكاء الاصطناعي القوية في المصارف أو الرعاية الصحية أو التعليم لإشراف ملائم.
يمكن للمؤسسات الحكومية أن تتحرّك أيضًا. فيمكنها وضع إرشادات مبسّطة للاستخدامات عالية المخاطر للذكاء الاصطناعي في الخدمات العامة. ويمكنها فرض تقييمات للأثر وتقارير عن الحوادث في عمليات النشر الحرجة. كما يمكنها تشجيع الجامعات على تخريج مهندسين يفهمون قدرات الذكاء الاصطناعي وحدود السلامة في آن واحد.
لا يُعدّ بحث OpenAI عن رئيس لقسم الجاهزية مجرد قصة من وادي السيليكون. بل يشير إلى تحوّل في كيفية حوكمة الذكاء الاصطناعي الحدّي. ما يزال المغرب في مرحلة مبكرة من رحلته مع الذكاء الاصطناعي، وهذا يمثّل ميزة. فيمكن للبلاد أن تدمج التفكير في السلامة ضمن منظومتها منذ الآن، قبل أن تصبح النماذج الحدّية مترسّخة بعمق في الحياة اليومية.
تحتاج مساعدة في مشروع ذكاء اصطناعي؟
سواء كنت تبحث عن تنفيذ حلول الذكاء الاصطناعي، أو تحتاج استشارة، أو تريد استكشاف كيف يمكن للذكاء الاصطناعي تحويل عملك، أنا هنا للمساعدة.
لنناقش مشروع الذكاء الاصطناعي الخاص بك ونستكشف الإمكانيات معاً.
شركة OpenAI تبحث عن رئيس جديد لقسم الجاهزية مع تصاعد مخاطر الذكاء الاصطناعي الحدّي — الأمن السيبراني والصحة النفسية والأنظمة ذاتية التحسّن تنتقل إلى مركز الاهتمام
«ازدهار إنتاجية قليل الوظائف» في تجارة التجزئة بالمملكة المتحدة: ارتفاع الأجور + تكاليف الضرائب لدى حزب العمال تتصادم مع الأتمتة، و«الغارديان» تحذّر من أن التاريخ قد يتكرر
عمالقة تكنولوجيا المعلومات في الهند يلتزمون بجعل Copilot 'الوضع الافتراضي': كل من Cognizant وTCS وInfosys وWipro يخطط لـ 50,000+ مقعد ضمن موجة تضم 200,000 ترخيص