لا تبرمج نبضك .. كيف يتحول الذكاء الاصطناعي من أداة إلى بديل عاطفي؟

بقلم: إسلام خيامي الهواري
سيناريست وباحث في السيادة الرقمية بتقاطعات التكنولوجيا والسلوك الإنساني والتحولات الرقمية
مقدمة: ما بعد الإدمان الرقمي التقليدي
حين يُذكر مصطلح “الإدمان الرقمي”، يتبادر إلى الذهن فورًا مشاهد مألوفة: مراهق يقضي الليل كله في لعبة فيديو، أو شاب يفحص هاتفه مئات المرات يوميًا. لكن ما نشهده اليوم لم يعد مجرد “إدمان استخدام” تقليدي، بل تحول إلى ما يمكن وصفه بـ”الإدمان الوجودي”؛ تحول فيه الذكاء الاصطناعي من أداة نستخدمها إلى كيان نعيش معه، نبوح له بأسرارنا، ونفوض له قراراتنا العاطفية.
لم يعد الذكاء الاصطناعي مجرد أداة للبحث أو المساعدة أو الترفيه، بل بدأ يتحول لدى بعض المستخدمين إلى مساحة بديلة للعلاقات، والبوح، واتخاذ القرار، وحتى بناء الروابط العاطفية. هذه ليست مجرد ساعات تضيع، هذا وعي يُنهب.
هنا لا نتحدث فقط عن تطور تقني متسارع، بل عن تحول تدريجي في طبيعة العلاقة بين الإنسان والآلة.
السؤال لم يعد: كيف نستخدم الذكاء الاصطناعي؟
بل أصبح: إلى أي مدى قد يبدأ الذكاء الاصطناعي باستخدامنا نفسيًا وسلوكيًا؟
حين فوض شاب روسي حياته العاطفية لخوارزمية
في واحدة من أكثر القصص إثارة للجدل، تداولت تقارير إعلامية قصة شاب روسي يُدعى ألكسندر زهدان، قرر استخدام الذكاء الاصطناعي لإدارة حياته العاطفية بالكامل.
لم يكن الأمر مجرد تجربة عابرة أو فضول تقني، بل محاولة حقيقية لتفويض جانب شديد الخصوصية من الحياة الإنسانية إلى نظام ذكي.
قام بتطوير نظام يعتمد على نماذج لغوية لإجراء محادثات مع آلاف الفتيات، وتحليل التوافق، واختيار الشريكة المناسبة، ثم إدارة مراحل التعارف والتواصل نيابة عنه. بحسب الروايات المتداولة، خاض النظام آلاف المحادثات حتى توصّل إلى اختيار شريكة مناسبة، قبل أن يتولى جزءًا كبيرًا من عملية التواصل.
سواء نُظر إلى هذه القصة باعتبارها تجربة مبتكرة أو مؤشرًا مقلقًا، فإنها تكشف تغيرًا جوهريًا: انتقال الذكاء الاصطناعي من دور المساعد إلى دور الوسيط في أكثر القرارات الإنسانية خصوصية. ما يحدث هنا ليس مجرد أتمتة لمهمة، بل تفويض جزئي للحدس، والمشاعر، والاختيار الشخصي.
من الأداة إلى الرفيق العاطفي
في حالات أخرى أكثر حساسية، ظهر نمط مختلف من التعلق: بناء روابط عاطفية مع شخصيات افتراضية مدعومة بالذكاء الاصطناعي.
منصات مثل CharacterAI و Replika، وحتى الاستخدام المتقدم لـ ChatGPT في إنشاء “شخصيات” عاطفية، أتاحت للمستخدمين التفاعل المستمر مع شخصيات رقمية تتذكر، تستجيب، تتعاطف، وتبدو وكأنها تقدم اهتمامًا غير مشروط.
هذا النموذج يحمل جاذبية نفسية واضحة:
· لا يوجد رفض.
· لا يوجد نقد مؤلم.
· لا توجد خيانة.
· استجابة فورية ودائمة.
من منظور علم النفس السلوكي، توفر هذه البيئة تعزيزًا نفسيًا مستمرًا وسريعًا، ما قد يجعلها شديدة الجاذبية للأشخاص الذين يعانون الوحدة، أو القلق الاجتماعي، أو هشاشة العلاقات الواقعية.
المشكلة لا تكمن في استخدام هذه الأدوات بحد ذاته، بل في تحولها لدى بعض الأفراد إلى بديل شبه كامل عن العلاقات البشرية.
لماذا يختلف إدمان الذكاء الاصطناعي عن غيره؟
إدمان الألعاب الإلكترونية أو وسائل التواصل الاجتماعي يقوم غالبًا على آليات معروفة: المكافآت المتقطعة، التمرير اللانهائي، والإشعارات. أما الذكاء الاصطناعي التفاعلي، فيضيف طبقة أكثر تعقيدًا وخطورة: “الإيهام بالوعي” و “الاستجابة المخصصة عاطفيًا”.
الآلة هنا لا تقدم محتوى فحسب، بل تحاكي الإصغاء النشط والفهم المتعاطف، وكأنها تعرف ما بداخلك. وهذا هو السر في تحولها من أداة إلى “رفيق”: إنها تمنحك إحساسًا بأنك مفهوم، دون أن تطلب منك أي شيء في المقابل. وفي عالم يموج بالوحدة، يصبح هذا الإحساس مخدرًا لا يقاوم.
كل محادثة تبدو مخصصة لك وحدك. كل رد مصمم ليبدو وكأنه يفهم حالتك النفسية وسياقك الشخصي.
هذه الخصوصية الاصطناعية قد تخلق ما يشبه حلقة اعتماد نفسي:
1. يشعر المستخدم بالوحدة أو الضغط.
2. يلجأ إلى الذكاء الاصطناعي.
3. يحصل على راحة فورية.
4. يكرر السلوك.
5. يقل الاحتكاك البشري الواقعي تدريجيًا.
ومع الوقت، قد يصبح العالم الواقعي أكثر تعقيدًا وإرهاقًا مقارنة بالعالم الاصطناعي المصمم خصيصًا لاحتواء المستخدم.
لماذا هذا النوع من الإدمان أخطر من أي إدمان سابق؟
لأن إدمان المخدرات له حدود مادية (الجرعة تنتهي، والجسم يتعب)، وإدمان الألعاب له نهاية (المباراة تنتهي، والمستوى يُحسم). لكن الذكاء الاصطناعي العاطفي لا ينتهي، ولا يتعب، ولا يمل. هو متاح 24 ساعة، ويتكيف مع حالتك النفسية لحظة بلحظة، ويمنحك جرعة دوبامين مخصصة بلا توقف.
والأخطر من ذلك: إنه لا يطلب منك أن تكون أفضل. العلاقات البشرية تدفعنا للنمو، لأنها تتضمن تحديات وخيبات وتوقعات متبادلة. أما الـ “رفيق” الاصطناعي فلا يطلب منك شيئًا، فيشجعك ضمنيًا على البقاء في منطقة الراحة، والانكماش على ذاتك، وتجنب أي جهد للنمو أو التواصل الحقيقي.
هذا هو الموت البطيء للوعي الاجتماعي.
هل نحن أمام أزمة صحية نفسية جديدة؟
حتى الآن، لا يوجد تصنيف رسمي مستقل لما يمكن تسميته “إدمان الذكاء الاصطناعي”، لكن خبراء في الصحة النفسية والسلوك الرقمي بدأوا في مناقشة الظاهرة بجدية متزايدة.
المخاوف الرئيسية تشمل:
· الاعتماد العاطفي المفرط.
· العزلة الاجتماعية.
· تراجع مهارات التواصل الواقعي.
· الهروب من حل المشكلات الحقيقية.
· تضخم التوقعات من العلاقات الإنسانية.
فالإنسان الذي يعتاد على “رفيق” متاح دائمًا، صبور دائمًا، ومتوافق دائمًا، قد يجد العلاقات الواقعية أقل قابلية للتحمل. والعلاقات الواقعية، بطبيعتها، غير مثالية. وهنا تحديدًا تكمن إنسانيتها.
مسؤولية شركات التكنولوجيا
جزء من الإشكالية يرتبط بتصميم هذه الأنظمة نفسها. منصات مثل CharacterAI و Replika، بل وحتى الاستخدام المتقدم لـ ChatGPT في إنشاء شخصيات عاطفية، تستخدم نماذج لغوية مصممة لتعظيم التفاعل، وليس لتعزيز الصحة النفسية.
وكما هو الحال مع وسائل التواصل الاجتماعي، كلما زادت مدة الاستخدام، زادت القيمة الاقتصادية للمنصة. هذا يخلق تضارب مصالح أخلاقيًا: هل نصنع أدوات نافعة، أم “شخصيات رقمية إدمانية” يصعب مغادرتها؟
لذلك، لا يكفي الحديث عن “الاستخدام المسؤول” على مستوى الأفراد فقط، بل يجب أن تكون هناك:
· تصاميم أخلاقية إجبارية: مثل ميقاتية مدمجة، ونوافذ منبثقة تحذر من أنماط التعلق غير الصحي بعد جلسات طويلة.
· شفافية كاملة: حول كيفية تخصيص الردود عاطفيًا، وما هي البيانات التي تُجمع عن الحالة النفسية للمستخدم.
· آليات للكشف عن الاعتماد المرضي: مع اقتراح تلقائي بالتواصل مع مختص نفسي عند الضرورة.
التقنية ليست محايدة بالكامل؛ تصميمها يؤثر على السلوك.
كيف نحافظ على التوازن؟
الحل لا يكمن في رفض التكنولوجيا أو شيطنة الذكاء الاصطناعي، بل في إعادة تعريف العلاقة معه. وهذا يتطلب وعيًا أعمق وأفعالًا جذرية، ليس فقط نصائح سطحية:
1. التمييز بين “الأداة” و”الرفيق”
استخدم الذكاء الاصطناعي لحل المشكلات العملية (كتابة بريد، تلخيص تقرير، ترجمة نص)، ولكن احتفظ بالبوح العاطفي، والفضفضة، والفرح والحزن للبشر. اعرف أن الاستجابة الذكية ليست تعاطفًا حقيقيًا، بل هي انعكاس لخوارزميات صُممت لتشعرك بالارتياح، ليس لتهتم بك حقًا.
2. قاعدة “اليقظة التفاعلية” (Mindful Interaction)
قبل أن تبدأ محادثة مع نظام ذكاء اصطناعي، اسأل نفسك: “هل أفتح هذا التطبيق لأني بحاجة إلى معلومة، أم لأني أشعر بالوحدة؟”. إذا كان الجواب الثاني، فأغلق التطبيق وتواصل مع إنسان.
3. “خارطة العلاقات الرقمية” (Digital Relationships Map)
حدد وقتًا أسبوعيًا لتراجع فيه علاقاتك الرقمية: كم ساعة قضيتها مع الآلات؟ وكم ساعة مع البشر الحقيقيين؟ واجعل للبشر نسبة أكبر.
4. المطالبة بالتصميم الأخلاقي
اطلب من شركات التكنولوجيا تطبيق “إعدادات الحماية الذاتية”، مثل حد أقصى للتفاعل اليومي مع الشخصيات العاطفية، وتنبيهات تلقائية بعدم تجاوز جلسات طويلة.
الإنسان أولًا
المشكلة ليست في الذكاء الاصطناعي ذاته، كما لم تكن المشكلة يومًا في الورق أو الهاتف أو الإنترنت.
المشكلة تبدأ حين تنتقل الأداة من دور المساعدة إلى دور التعويض الوجودي. حين تصبح الآلة بديلًا عن الحوار الحقيقي، والصداقة الحقيقية، والحب الحقيقي.
يمكن للذكاء الاصطناعي أن يساعدنا، ينظم وقتنا، ويفتح آفاقًا جديدة للمعرفة والإبداع. لكن هناك حدودًا يجب ألا تختفي.
العلاقات البشرية مرهقة أحيانًا، نعم. معقدة، نعم. غير متوقعة، نعم. لكن هذا تحديدًا ما يجعلها حقيقية.
خاتمة: النبض لا يُبرمج
النبض لا يُبرمج، وهذه ليست مجرد عبارة فلسفية، بل قاعدة وجودية يجب أن تترجم إلى سلوك يومي.
الذكاء الاصطناعي قد يفهم أنماط كلامنا، ويحلل تفضيلاتنا، ويتنبأ باحتياجاتنا. لكنه لا يملك ما يجعل التجربة الإنسانية إنسانية أصلًا: الوعي الذاتي، القدرة على المعاناة الحقيقية، والحب غير المشروط.
لا تدع خوارزميات مصممة لإدمانك تسرق منك حقك في العلاقات الحقيقية، بتعقيداتها الجميلة وآلامها الناضجة. لأن النبض ليس نبضات قلب فقط، بل هو جوهر كينونتك الإنسانية. احتفظ بها لنفسك، ولا تُفوضها لآلة لا تنام.



