Menu

شركات التكنولوجيا الأميركية وهندسة الإبادة: عندما تصبح الخوارزميات سلاحًا للقتل و لإخفاء الجريمة

جمال كنج

hero-AI-Lexicon.jpg

لم تعد الإبادة الجماعية تُنفَّذ بالقنابل وحدها، بل بالكود، والخوارزميات، والبنية التحتية الرقمية. كما زوّدت شركات كبرى النظام النازي بتقنيات أدار بها معسكرات الموت، تعيد شركات التكنولوجيا الأميركية اليوم إنتاج الجريمة ذاتها، ولكن بأدوات أكثر تطورًا وأقل ظهورًا، عبر تمكين دولة الاحتلال من قتل الفلسطينيين، ثم إخفاء الجريمة خلف شاشات زرقاء وروايات مُصنَّعة.

 

وادي السيليكون (مكان معظم شركات الذكاء الاصطناعي في شمال كاليفورنيا) ليس طرفًا محايدًا. هذه الشركات لا «تبيع خدمات»، بل تشارك فعليًا في آلة الإبادة: تبني أنظمة المراقبة، وتغذّي منصات الاستهداف، وتُدير الفضاء الإعلامي الذي يبرر القتل. التكنولوجيا هنا ليست أداة، بل عقيدة تفوق، تُحوّل الإنسان إلى «بيانات» قابلة للمحو.

 

التواطؤ لا يقف عند حدود الدعم التقني، بل يصل إلى قلب الحرب النفسية والإعلامية. فقد كشفت تقارير صحفية أن غوغل وقّعت عقدًا بملايين الدولارات مع مكتب بنيامين نتنياهو لإدارة حملات تضليل ممنهجة تقلل من حجم المجاعة في غزة، وتُعيد إنتاج الأكاذيب الرسمية لدولة الاحتلال. بينما كان الأطفال يموتون جوعًا، كانت غوغل تسوق لرواية تنكر وجود الجريمة.

 

أما مايكروسوفت، فقد وضعت بنيتها السحابية في خدمة الجيش الصهيوني، بعقود تجعل الاحتلال أحد أكبر زبائنها العسكريين في العالم. مئات الاشتراكات في برامج مايكروسوفت، «أزور»، وضعت تحت تصرف وحدات عسكرية واستخباراتية متورطة مباشرة في القتل الجماعي، وعلى رأسها وحدة 8200، مصنع التجسس والابتزاز والاغتيالات الرقمية. هذه ليست «شراكة تقنية»، بل شراكة قتل.

 

الذكاء الاصطناعي الذي تروّج له هذه الشركات بوصفه «ثورة إنسانية» تحوّل في غزة إلى محرّك إجرامي. الخوارزميات الصهيونيه مثل برامج «لافندر» و«غوسبل» لا تكتشف الأهداف، بل تخترعها. تصنّف البشر وفق احتمالات مبنية على الشبهة العائلية، والاتصال الاجتماعي، ولهجة الكلام، لتنتج معلومات تبدو منطقية لكنها في جوهرها مختلقة. فالخوارزميات تستنبط نتائجها من بيانات ناقصة أو مشوّهة—ترجمات لغويه خاطئة، إشارات ملتبسة، أو افتراضات غير علمية—لتصنيع «أهداف قتل» تُقدَّم على أنها دقيقة وموثوقة. وتُعرف هذه الظاهرة في علم الذكاء الاصطناعي بـ«هلوسة» الذكاء الاصطناعي.

 

القتل لم يعد خطأً عرضيًا، بل نتيجة محسوبة. الذكاء الاصطناعي لا يجعل الحرب أكثر دقة، بل يجعل القتل أكثر كفاءة. ينزع عن الانسان إنسانيته، ولهذا ثار موظفون داخل شركات التكنولوجيا رفضًا للتواطؤ في الإبادة، فقوبلوا بالقمع والفصل. الرسالة كانت واضحة: الأرباح أهم من الأرواح.

 

غوغل وأمازون، عبر مشروع «نيمبوس»، لم تبنيا سحابة لخدمة المدنيين، بل عمودًا فقريًا لحرب دائمة. بنية رقمية سيادية لدولة الاحتلال، تعمل خارج أي مساءلة قانونية، وتُستخدم لتوسيع المراقبة، وتسريع الاستهداف، وتعميق نظام الفصل العنصري الرقمي.

 

وعندما احتجّ مهندسو غوغل، لم تناقش الإدارة أخلاقيات التورط في جرائم الحرب، بل استدعت الشرطة. هكذا تُدار «قيم الشركات»: بالارباح.

 

وبدل التراجع، أعادت شركات الذكاء الاصطناعي صياغة قواعدها الأخلاقية لتلائم الحرب. أزالت غوغل حظر استخدام الذكاء الاصطناعي في الأسلحة، وفتحت «أوبن إيه آي» (open AI) الباب أمام الاستخدام العسكري، بينما دعا مدير «بالانتير» الصهيوني إلى تطوير أدوات قتل أكثر فتكًا. لم يعد السؤال: هل تُستخدم التكنولوجيا في القتل؟ بل: كيف نجعل القتل أسرع وأكثر ربحية؟

 

التواطؤ لا يكتمل دون السيطرة على السردية. فشركات التواصل الاجتماعي تصنع «الضباب الرقمي» الذي يخنق الحقيقة. تُخفى صور الأطفال الجوعى، وتُقمع الأصوات المتضامنة مع فلسطين، بينما تُضخ روايات الاحتلال بلا عوائق. تعيين شخصيات مرتبطة بالمؤسسة الصهيونية في مواقع القرار داخل هذه المنصات ليس تفصيلًا إداريًا، بل جزء من هندسة إسكات ممنهجة. 

 

ومثال صارخ على ذلك تعيين شركة «ميتا» التي تدير شركات فيسبوك، واتساب، إنستغرام و ثردز، موظفة سابقة في السفارة الصهيونية مسؤولة عن إدارة سياسات «إسرائيل والشتات اليهودي» داخل الشركة، وقد تفاخرَت هذه الموظفه مؤخرا أمام مجلس التمويل اليهودي بدورها الفعال في إسكات الأصوات المؤيدة لفلسطين.

 

الإبادة ليست جريمة دولة فقط. بل هي مشروع متكامل تشارك فيه شركات تكنولوجية عابرة للقوميات، تجني أرباحًا ملوّثة بالدم، وتختبئ خلف لغة «الابتكار» و«التحوّل الرقمي». القنابل تسقط من السماء، لكن قرارات القتل تُكتب وتبرمج في مكاتب مكيفة في كاليفورنيا.

 

والسؤال الذي يجب أن يُطرح اليوم ليس أخلاقيًا فقط، بل قانونيًا وسياسيًا:

هل سيُحاسَب فقط من ضغط على الزناد، أم أيضًا من كتب الخوارزمية، وبنى المنصة، وصمّم الكذبة لإخفاء الجريمه؟