Menu

الذكاء الاصطناعي: صرخة إنذار من إيلون ماسك وخبراء التكنولوجيا

أحمد رباص

وقع إيلون ماسك، رئيس تويتر، ومئات المتخصصين على دعوة إلى التوقف لمدة ستة أشهر عن البحث عن الذكاءات الاصطناعية الأقوى من من صيغة ChatGPT الأخيرة. إنهم قلقون بشأن التهديدات المحدقة بالشغل والمعلومات الخاطئة وخطر فقدان السيطرة على حضارتنا.

هل يقودنا الذكاء الاصطناعي إلى الخسارة؟ هذا هو السؤال الأساسي الذي طرحه إيلون ماسك وخبراء آخرون في الذكاء الاصطناعي ضمن رسالة/عريضة موقعة من قبل أكثر من 1100 شخصية وتم نشرها في أبريل الماضي.

من أبرز الموقعين الداعين مختبرات الذكاء الاصطناعي إلى التوقف لمدة ستة اشهر رئيس تويتر الملياردير، ستيف وزنياك، المؤسس المشارك لشركة Apple، غاري ماركوس، الأستاذ المتخصص في الذكاء الاصطناعي، يوشوا بنجيو، الأكاديمي الشهير، نعوم شازير، مؤسس شخصية الذكاء الاصطناعي، عماد مستقي، مؤسس Stability AI، إضافة إلى العديد من المتخصصين الآخرين.

هؤلاء يقترحون بالتحديد التوقف الفوري، لمدة ستة أشهر على الأقل، عن تشكيل أنظمة ذكاء اصطناعي أقوى من GPT-4، آخر صيغة من برامج الدردشة الخاصة بـ OpenAI (الذكاء الاصطناعي المفتوح)، التي كشفت عن قوة الذكاء الاصطناعي. "يجب أن يكون هذا التوقف عاما وقابلا للتحقق منه، وأن يشمل جميع الفاعلين الرئيسيين. إذا لم يكن بالإمكان إجراء مثل هذا التوقف في حينه وبسرعة، فيجب على الحكومات أن تتدخل وتفرض توقفا"، كما كتبوا. سوف يكون رد فعل ميكروسوفت، التي استثمرت بكثافة في OpenAI، مثيرا للاهتمام.

يشعر خبراء القطاع، بدعم من الدراسات الأكاديمية، بالقلق من الذهاب بعيدا على هذا المضمار. :"تُظهر الأبحاث المكثفة أن أنظمة الذكاء الاصطناعي التي تتمتع بذكاء منافس للبشر يمكن أن تشكل مخاطر عميقة على المجتمع والإنسانية. [...] يمكن أن يمثل الذكاء الاصطناعي المتقدم تغييرا عميقا في تاريخ الحياة على الأرض ويجب التخطيط له وإدارته بالاهتمام والموارد اللازمة"، كما أوضحوا في هذه الرسالة المتوفرة على موقع معهد Future of Life، حال لسان منظمة غير ربحية تدرس مخاطر وفوائد التكنولوجيا. إنهم يثيرون الانتباه إلى سباق لا يمكن السيطرة عليه من قبل مختبرات "تطور وتبلور باستمرار أنظمة رقمية أكثر قوة، لا أحد يستطيع - حتى مبتكروها - فهمها، توقعها او مراقبتها بشكل موثوق به.

يطرح الموقعون عدة أسئلة أساسية. هل نترك الآلات تغرق قنواتنا بـ "الدعاية والأكاذيب"؟ يردد هذا السؤال صدى العديد من الدراسات حول مخاطر الذكاء الاصطناعي من حيث "الأخبار الكاذبة". هل يجب علينا أتمتة جميع الوظائف؟ يتساءلون مرة أخرى. وهو ما يشير مرة أخرى إلى المخاوف، التي تدعمها دراسات مثل الدراسة الأخيرة التي أجراها جولدمان ساش، من أن الذكاء الاصطناعي يمكن أن يقضي على 300 مليون وظيفة في جميع أنحاء العالم.

- بروتوكولات السلامة

كما هو الحال في سينياريوهات أفلام الخيال العلمي، يذهبون إلى أبعد من ذلك إلى أن يتساءلوا: هل يجب أن نطور أنظمة غير بشرية قد تفوقنا عددا يوما ما، وتكون أكثر ذكاءً، وتحل محلنا بالتالي؟ "لا ينبغي تفويض هذه القرارات لقادة تكنولوجيين غير منتخبين. يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون قابلة للإدارة "، كما جاء في الرسالة/العريضة.

يقترح الداعون إلى هذه الهدنة أن تستفيد مختبرات الذكاء الاصطناعي من هذا الوقت الميت لتطوير مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير أنظمة الذكاء الاصطناعي المتقدمة، التي يتم فحصها بدقة والإشراف عليها من قبل خبراء مستقلين.

- قادة OpenAI نفسها "مرعوبون إلى حد ما"

تأتي الرسالة في وقت تتزايد فيه المخاوف مع تقدم الذكاء الاصطناعي بسرعة مذهلة - تم إصدار GPT-4 في مارس، بعد أشهر فقط من الصيغة السابقة لChatGPT التي أحدثت البوز. بالفعل، أعرب إيلون ماسك - المستثمر الأول في OpenAI والذي حاول عبثا السيطرة عليها - عن تحفظاته بشأن التهديدات المحتملة للذكاء الاصطناعي. واعترف سام ألتمان، رئيس شركة OpenAI، مصمم ChatGPT، بنفسه بأنه "خائف قليلاً" من ابتكاره إذا تم استخدامه في "معلومات مضللة أو هجمات إلكترونية على نطاق واسع".

وقال لـ (أ بي سي نيوز) في منتصف مارس الماضي: "المجتمع يحتاج إلى وقت للتكيف"، رغم أنه ليس من الموقعين على الرسالة. وفي هذا الصدد، وبحسب "فاينانشيال تايمز"، لا أحد من المنتسبين إلى OpenAI

وقع على الرسالة.

بالإضافة إلى ذلك، حذرت وكالة الشرطة الأوروبية يوروبول خلال الأسبوع الذي ظهرت فيه العريضة من مخاطر استفادة المجرمين من الذكاء الاصطناعي، خاصة في الجرائم الإلكترونية. على العكس من ذلك، لا يزال تنظيم الذكاء الاصطناعي في مهده. هناك مسودة لائحة أوروبية في طور الإعداد. يشير جوناثان روفي، المحامي في DLA Piper، إلى أن "هذه الرسالة من المرجح أن تسرع التنظيم". تتناقض رسالة ماسك وخبراء آخرين على أي حال مع رسالة بيل جيتس، المنشورة قبل أيام قليلة. مع ملاحظة التهديدات المحتملة للذكاء الاصطناعي، ادعى المؤسس المشارك لشركة ميكروسوفت أن ChatGPT كانت أكبر ثورة تكنولوجية منذ الثمانينيات وأبرزت مساهمتها المحتملة في الحد من عدم المساواة.

- صداع رأس بالنسبة للمنظمين

إن استخدام الذكاء الاصطناعي في عدد لا يحصى من القطاعات، وتعقيده واعتماده السريع للغاية، كل ذلك يجعل أي تنظيم من الصعوبة بمكان. لهذا بدأت أوروبا وبعض الولايات الأمريكية في معالجة المشكلة.

كيف يمكن تنظيم الذكاء الاصطناعي؟ تطرح السرعة التي أعلنت بها الشركات منذ بضعة أشهر عن رغبتها في الاستيلاء على برامج المحادثة مثل ChatGPT نفس السؤال. كان الجدل قد وصل بالفعل إلى درجة قصوى من الحدة في الأسابيع التي سبقت إطلاق هذه العريضة، لا سيما مع انتشار الصور الزائفة، مثل تلك الخاصة بالبابا في سترة بيضاء، تم إنشاؤها بواسطة برامج الذكاء الاصطناعي التوليدية مثل Dall-E أو Midjourney. كما هو الحال في كثير من الأحيان مع الابتكارات، تستولى الشركات على التقنيات وتأتي اللوائح في ما بعد.

لكن القوى التحويلية لأحدث التطورات في الذكاء الاصطناعي تطرح مشاكل على نطاق مختلف تمامًا. لدرجة أن خبراء وشخصيات من هذه الصناعة دعوا، بقيادة إيلون ماسك، في رسالة مفتوحة، إلى تجميد تطورات الذكاء الاصطناعي لمدة ستة أشهر، وهي مهلة كافية لابتكار حلول لإشكالاته الأخلاقية والمجتمعية.

- فراغ قانوني

اليوم، يزدهر الذكاء الاصطناعي في ظل فراغ قانوني أكيد. من المسلم به أن "هناك جيوب مقاومة للتنظيم"، كما يوضح ونستون ماكسويل، مدير القانون والدراسات الرقمية في "اتصالات باريس". مثلا، يجب أن يتوافق برنامج الذكاء الاصطناعي الذي يطحن البيانات الشخصية مع اللائحة العامة لحماية البيانات الأوروبية. في الصحة أو صناعة السيارات أو الخدمات المصرفية، بدأ استخدامه يؤطر أيضا. لكن رغم كل ذلك، "أي تنظيم للقبعة معقد للغاية"، يتابع الخبير.

لأنه على عكس التقنيات الأخرى، مثل 5G أو السحابة (cloud)، لا يوجد ذكاء اصطناعي ولكن ذكاءات اصطناعية. والاستخدامات متعددة: لا يطرح التعرف على الوجه لفتح قفل الهاتف الذكي نفس التحديات مثل تلك التي يطرحها إنشاء خوارزميات "منحازة". تقول فيرجيني ماثيفيت، طبيبة الذكاء الاصطناعي: "لا تحتاج بعض الاستخدامات إلى التنظيم".

من جهة أخرى، يتقدم البحث في هذا المجال بسرعة كبيرة. في غضون أربعة أشهر، خطت شركة OpenAI خطوات عملاقة مع برنامجها الشهير ChatGPT. وبالتالي، فإن الخطر، كما هو الحال في كثير من الأحيان في التكنولوجيا الرقمية، يكمن في تطوير لائحة عفا عليها الزمن بسرعة.

رغم هذه الصعوبات، بدأ المنظمون في تناول الأمر. تؤكد فيرجيني ماثيفيت "لمدة عام، كان الجو محتدما". في هذه المرحلة، تعد أوروبا، مع لوائح قانون الذكاء الاصطناعي المستقبلية المقدمة في أبريل 2021، هي القارة الوحيدة التي أحرزت تقدما ملموسا. إنها مقاربة تتعامل مع كل حالة على حدة، وتركز على أكثر مخاطر الذكاء الاصطناعي إشكالية. يجب مناقشة اللائحة في الأشهر القليلة القادمة في أفق دخولها حيز التطبيق في عام 2025.

على وجه التحديد، تنص مسودة اللائحة على إطار عمل قائم على مخاطر أنظمة الذكاء الاصطناعي. يميز النص عدة فئات: المخاطر غير المقبولة - تهديد الأمن وحقوق الأشخاص وغيرها مما يحظر أدوات الذكاء الاصطناعي بشأنها - والمخاطر العالية والمخاطر المحدودة والمخاطر الطفيفة (تطبيقات الذكاء الاصطناعي في ألعاب الفيديو..). يجب أن يندرج الذكاء الاصطناعي التوليدي مثل ChatGPT في فئة المخاطر العالية، وفقا للتعديلات المقدمة في هذه المرحلة. إذا تم تأكيد ذلك، "فإنه سيؤدي إلى فرض عدد كبير من الإكراهات والقيود على جميع الجهات الفاعلة في السلسلة وخاصة مورد الذكاء الاصطناعي التوليدي [مثل OpenAI، ملاحظة المحرر]"، تشرح جين دوزير، المحامية لدى DLA Piper. يجب أن يتأكد الأخير من أن نظامه يوفر جميع الضمانات اللازمة من حيث الشفافية،الأمان، الموثوقية، والحصول على المصادقة من قبل المفوضية الأوروبية.

بشكل ملموس، "لن تعلن المفوضية الأوروبية أن الأداة متوافقة في حالة وجود تحيزات"، تشرح المحامية من أهل الاختصاص. "يمكن للمرء أن يتخيل أنه يتعين عليه استخدام أنظمة ضبط تلقائية لتجنب إشكالية المعلومات"، يضيف ماثيو لوتشيزي وجوليان جينو-ديليري، المحسوبين على شركة Gide. في الوقت نفسه، سيتعين على الشركات التي تدمج برامج الذكاء الاصطناعي (شركة محاماة، وسيلة إعلامية، إلخ..) التوقف عن استخدامها في حالة الشك. "الأمر الذي سيجبرها على وضع إجراءات محددة"، يستطرد الخبيران. ومشروع اللائحة مصحوب بتوجيهين يركزان على المسؤوليات المعمول بها، في حالة الضرر على وجه الخصوص. لا يوجد إجماع على المستوى الفيدرالي في الولايات المتحدة،

من ناحية أخرى، في الولايات المتحدة، لا يزال تنظيم الذكاء الاصطناعي في مهده. نشر البيت الأبيض "قانون حقوق الذكاء الاصطناعي" ولكنه ليس ملزما في الوقت الحالي. على المستوى الفيدرالي، كما يقول الخبراء، من غير المرجح أن يوافق الكونجرس على نص عالمي بشأن الذكاء الاصطناعي، على غرار نص القانون الأوروبي. لم يمنع ذلك المسؤولين المنتخبين من تقديم مشاريع قوانين تهدف إلى تنظيم جوانب معينة، بما في ذلك التعرف على الوجه.

في غضون ذلك، أصدرت عدة ولايات قوانين تحد من استخدام هذه التقنية في حالات محددة: مثلا، تقيد ولاية كولورادو استخدام مصالح الدولة لتقنية التعرف على الوجه. في ولاية إلينوي، يجب على الشركات التي تستخدم الذكاء الاصطناعي للتوظيف مشاركة البيانات حول عرق الأشخاص الذين تم تعيينهم وأولئك الذين تم رفضهم. في كاليفورنيا، تهدف محاولة تشريعية مماثلة إلى جعل الشركات التي تستخدم الذكاء الاصطناعي لفحص المرشحين للوظائف مسؤولة أمام القانون. تريد الدولة، حيث توجد العديد من الشركات التي تشتغل بأدوات متقدمة باستخدام الذكاء الاصطناعي، التحكم بشكل أفضل في استخدام هذه التكنولوجيا من قبل القطاع العام.