
في عالم يتغير بوتيرة غير مسبوقة بفعل ثورة الذكاء الاصطناعي، يخطو الرئيس التنفيذي لشركة OpenAI، سام ألتمان، المطورة لـChatGPT خطوة إضافية نحو المستقبل الرقمي بمفهوم قد يبدو “يوتوبيًا” للبعض، لكنه “ديستوبي” للقلقين على خصوصيتهم. ففي تصريحات مثيرة أدلى بها خلال فعالية تقنية، أعرب ألتمان عن طموحه في أن يتحول ChatGPT إلى نظام ذكي قادر على تذكر كل ما يتعلق بحياة مستخدمه.
رؤية ألتمان تقوم على بناء نموذج يحتوي على “تريليون رمز سياقي”، وهي وحدة بيانات رقمية تُستخدم لتتبع وربط المعلومات بشكل متسلسل ومنطقي، بحيث يتمكن ChatGPT من التفاعل مع المستخدم بطريقة تُشبه تفاعل شخص مطّلع تمامًا على كامل تفاصيل حياته. يقول ألتمان: “كل محادثة أجريتها في حياتك، وكل كتاب قرأته، وكل بريد إلكتروني قرأته، وكل ما اطلعت عليه موجود هناك… وحياتك تستمر في الإضافة إلى هذا السياق”.
ويرى ألتمان أن رؤيته يدعمها سلوك المستخدمين الأصغر سنًا، لا سيما في العشرينات والثلاثينات من عمرهم، الذين بدأوا بالفعل في استخدام ChatGPT كمستشار دائم، بل كمساعد شخصي موثوق يتدخل في كل قرار مهم، من اختيار التخصص الجامعي إلى تقييم فرص العمل والعلاقات الشخصية. في المقابل، لا يزال المستخدمون الأكبر سنًا ينظرون إليه كأداة بديلة لمحركات البحث التقليدية مثل Google.
الطموح هنا ليس تقنيًا فقط، بل أسلوب حياة أيضًا، أي أن يصبح ChatGPT ليس مجرد روبوت يجيب على الأسئلة، بل رفيق رقمي دائم يمكنه، في نظر ألتمان، أن ينظم حياتك بالكامل، من مواعيد صيانة السيارة، إلى اقتراحات السفر، وحتى شراء الكتاب التالي من سلسلة الروايات المفضلة لديك قبل أن تطلبه. وبدمجه مع باقي تقنيات الذكاء الاصطناعي التي تطورها شركات وادي السيليكون، يمكن لهذه الرؤية أن تتحول إلى منظومة ذكاء اصطناعي شاملة تعيش معك، تتوقع احتياجاتك، وتتصرف من تلقاء نفسها لخدمتك.
لكن مع كل هذا الإبهار التكنولوجي، تبرز مخاوف مشروعة، وعلى رأسها الخصوصية. فهل من المقبول أن تحتفظ شركة تكنولوجيا ربحية بكم هائل من البيانات الشخصية لمستخدمٍ واحد؟ هل يمكن الوثوق بأن هذه المعلومات لن تُستخدم لأغراض تجارية أو سياسية أو أمنية؟ المخاوف لا تقتصر فقط على احتمالية تسريب البيانات أو بيعها، بل تمتد إلى احتمالات استخدام الذكاء الاصطناعي للتأثير على الرأي العام، أو الانحياز لأيديولوجيات محددة، أو حتى التواطؤ مع سلطات رقابية كما شوهد في حالات بعض روبوتات الدردشة التي خضعت للرقابة الصينية.
القلق الأكبر هو أن يتحول الذكاء الاصطناعي من أداة إلى مراقب صامت، يُسجّل كل ما نقوله، نفعله، أو حتى نفكر فيه، ثم يُعيد توجيه هذه المعرفة لمصلحة كيانات ليست دائمًا شفافة أو خاضعة للمساءلة. وما يجعل هذا الأمر أكثر حساسية هو صعوبة تحديد أين تنتهي “الراحة” ويبدأ “التحكم”.
رؤية ألتمان تُعيد طرح السؤال الأقدم في العالم الرقمي: إلى أي مدى نحن مستعدون لتسليم خصوصيتنا مقابل خدمة ذكية ومريحة؟ الجواب لن يكون تقنيًا فقط، بل أخلاقي، قانوني، وشخصي للغاية.
مقالات ذات صلة: رغم الطلب الكبير عليها سابقًا: هذه الوظائف التهمها الذكاء الاصطناعي بالفعل!











