
تصاعد التوتر مؤخرًا بين إدارة الرئيس الأميركي دونالد ترامب وشركة الذكاء الاصطناعي الأميركية أنثروبيك، في مواجهة تعكس صراعًا أوسع قد يحدد مستقبل الذكاء الاصطناعي في الولايات المتحدة، في وقت بات فيه الذكاء الاصطناعي من أهم الأدوات الاستراتيجية في العالم، التي تثير في الوقت نفسه مخاوف متزايدة بسبب مخاطرها الواسعة إذا استُخدمت دون قيود.
وبحسب تقرير لصحيفة ذي إيكونوميست، هاجم ترامب الشركة في 27 فبراير واتهم العاملين فيها بأنهم “متطرفون يساريون”، معلنًا أنه سيطلب من جميع الوكالات الحكومية الأميركية وقف استخدام تقنياتها فورًا. لكن في الوقت نفسه أشار إلى أنه سيستخدم صلاحياته كرئيس لإجبار الشركة على التعاون مع الحكومة خلال الأشهر الستة المقبلة، وهو ما يعكس التناقض في موقف الإدارة الأميركية التي تنتقد الشركة لكنها تحتاج إلى تقنياتها.
وكما ورد في التقرير، بدأ الخلاف بين الطرفين بسبب إصرار أنثروبيك على وضع قيود أمام الحكومة الأمريكية على استخدام نماذج الذكاء الاصطناعي التي تطورها. فالشركة رفضت السماح باستخدام تقنياتها في المراقبة الجماعية داخل الولايات المتحدة أو في تطوير أسلحة تعمل بشكل مستقل بالكامل. في المقابل أرادت وزارة “الحرب” الأميركية استخدام هذه التكنولوجيا بلا قيود.
وبحسب ما ورد في التقرير، هدد وزير الحرب الأميركي بيت هيغسث الشركة ملوحًا باعتبارها “خطرًا على سلسلة التوريد للأمن القومي”، وهو توصيف يُستخدم عادة ضد شركات أجنبية يُخشى أن تُستغل تقنياتها للتجسس. كما قال إن أي شركة تتعامل مع الجيش الأميركي قد تُمنع من العمل مع أنثروبيك إذا تم تنفيذ هذا القرار.
ويشير التقرير إلى أن الأزمة تهدد عقودًا حكومية ضخمة، إذ تبلغ قيمة العقد المباشر محل الخلاف مع وزارة الحرب 200 مليون دولار، وهو مبلغ صغير مقارنة بقيمة الشركة التي تُقدر بنحو 380 مليار دولار. لكن المشكلة الأكبر تكمن في احتمال تأثر عقود أخرى للشركة مع وكالات حكومية إذا تصاعدت المواجهة مع الحكومة الأمريكية.
وفي الوقت نفسه تواجه الحكومة الأميركية معضلة، لأنها لا تستطيع بسهولة الاستغناء عن تقنيات أنثروبيك. فالنموذج الذي تطوره الشركة، المعروف باسم “كلود” Claude، يُعد من أفضل الأنظمة في كتابة الأكواد البرمجية، وكان حتى وقت قريب النموذج الوحيد الذي حصل على إذن لاستخدام معلومات عسكرية سرية.
كما يوضح التقرير أن الأزمة تفاقمت بعد تسريب مذكرة داخلية للرئيس التنفيذي للشركة داريو أمودي، قال فيها إن الخلاف اندلع لأنه رفض مدح ترامب بطريقة تشبه مدح “ديكتاتور”، واتهم وزارة الحرب بالكذب. وبعد انتشار المذكرة أعرب أمودي عن ندمه على نبرة كلامه، لكنه أشار أيضًا إلى أن الشركة مستعدة لخوض معركة قانونية إذا لزم الأمر.
ويشير التقرير إلى أن هذا الصراع قد يضر أيضًا بالولايات المتحدة نفسها، لأن مثل هذه المواجهات قد تدفع شركات الذكاء الاصطناعي إلى تجنب العمل مع الحكومة خوفًا من ضغوط سياسية قد تهدد أعمالها. وإذا كان هدف الإدارة الأميركية الحفاظ على تفوق الولايات المتحدة في مجال الذكاء الاصطناعي، فإن إضعاف إحدى أكبر الشركات في هذا المجال قد يضر بهذا الهدف.
كما يلفت التقرير إلى أن الخلاف يعكس نقاشًا أوسع داخل عالم الذكاء الاصطناعي حول المخاطر المحتملة لهذه التكنولوجيا. فبعض الشركات، ومنها أنثروبيك، تحاول فرض قيود على استخدام نماذجها لتجنب استغلالها في القرصنة الإلكترونية أو في تطوير أسلحة بيولوجية أو كيميائية أو في عمليات تضليل واسعة.
ويضيف التقرير أن هذه المخاوف لم تعد نظرية بالكامل، إذ بدأت تظهر حالات حقيقية استخدمت فيها نماذج الذكاء الاصطناعي في عمليات قرصنة إلكترونية أو في كتابة برامج خبيثة. كما أظهرت أبحاث حديثة أن هذه الأنظمة أصبحت قادرة على مساعدة المستخدمين في تصميم مواد بيولوجية خطيرة أو تنفيذ عمليات خداع إلكتروني متطورة.
مقالات ذات صلة: الحرب على إيران والحرب على Anthropic











