الاستثمار فى البورصة وصناديق الاستثمار

الصداقة مع روبوتات الدردشة مخطط لها وليست مصادفة

مايو 1, 2025 | by elaal4000@gmail.com

الصداقة مع روبوتات الدردشة مخطط لها وليست مصادفة

لم يعد الذكاء الاصطناعي المبرمج على إقامة روابط وجدانية مقتصراً على ما نشاهده في الأفلام، بل بات حقيقةً قائمة في بيئة تنظيمية منفلتة من عقالها.

لقد تعرض تطبيق واحد هو ”بوتيفاي إيه آي“ (Botify AI) للتدقيق حديثاً لأنه عرض صوراً رمزية لممثلين شباب يشاركون “صوراً ساخنة” في محادثات حميمة. في الوقت نفسه، يسعى تطبيق المواعدة ”غرايندر“ (Grindr) لتطوير روبوتات ذكاء اصطناعي تلعب دور أصدقاء ذوي قدرات في المغازلة والتراسل الحميمي والحفاظ على علاقات رقمية مع مستخدمين يدفعون رسوماً، كما جاء في نشرة ”بلاتفورمر“ التي تُعنى بأخبار صناعة التقنية. لم يستجب تطبيق ”غرايندر“ لطلب التعليق.

كما صُممت تطبيقات أخرى مثل ”ريبليكا“ (Replika) و“توكي“ (Talkie) و“تشاي“ (Chai) لتلعب دور الأصدقاء. وقد اجتذبت بعض الشركات، مثل ”كاريكتر إيه آي“ (Character.ai)، ملايين المستخدمين، كثير منهم من المراهقين.

مؤسس “علي بابا”: هدف الذكاء الاصطناعي خدمة البشر وليس السيطرة عليهم

فيما يعطي المبدعون الأولوية بشكل متزايد لـ”التفاعل العاطفي” في تطبيقاتهم، يتعين عليهم أيضاً مواجهة مخاطر بناء أنظمة تحاكي الحميمة وتستغل مكامن ضعف بشرية.

تأتي التقنية التي تدعم تطبيقي ”بوتيفاي“ و“غرايندر“ من ”إكس-هيومان“ (Ex-Human)، وهي شركة ناشئة مقرها سان فرانسيسكو تعمل على بناء منصات الدردشة الآلية، ويؤمن مؤسسها أرتيم روديشيف بمستقبل تعمّ فيه العلاقات القائمة على الذكاء الاصطناعي.

نوعان من “البشر”

قال روديشيف في مقابلة نشرت على ”سبستاك“ (Substack) في أغسطس: “رؤيتي هي أنه بحلول 2030، ستصبح تفاعلاتنا مع البشر الرقميين أعلى تواتراً من تفاعلاتنا مع البشر العضويين”.

أضاف أن الذكاء الاصطناعي القادر على المحاورة يجب أن “يعطي الأولوية للمشاركة العاطفية” وأن المستخدمين يقضون “ساعات” مع روبوتات الدردشة لديه، وهي مدة أطول من تلك التي يقضونها على ”إنستغرام“ و“يوتيوب“ و“تيك توك“. قد تبدو ادعاءات روديشيف غريبة، لكنها توافق ما جاء في مقابلاتي مع مراهقين من مستخدمي ”كاريكتر إيه آي“.

كفوا عن مقارنة الذكاء الاصطناعي بالبشر عبثاً

قال معظمهم إنهم يستخدمون الموقع لعدة ساعات يومياً، وبيّن أحدهم أنهم يستخدمونه لما يصل إلى سبع ساعات. تميل التفاعلات مع مثل هذه التطبيقات إلى أن تستمر لما يفوق بأربع مرات متوسط ​​الوقت الذي يمضيه مستخدمو”تشات جي بي تي“ من ”أوبن إيه آي“.

حتى برامج المحادثة الآلية السائدة، على الرغم من عدم تصميمها صراحةً للمرافقة، تساهم في هذه الآلية. لنأخذ “تشات جي بي تي” مثالاً، فلديه 400 مليون مستخدم نشط وما يزال عديدهم يتزايد، وتتضمن برمجته إرشادات للتعاطف وإظهار “الفضول تجاه المستخدم“.

اهتمام بشري من آلة

لقد فوجئ أحد أصدقائي حين طلب منها نصائح للسفر مع رضيع حين أضافت الأداة عرَضاً بعد تقديم النصيحة: ”أتمنى لكم سفراً آمناً. إلى أين ستذهبون؟ وأرجو ألا تمانع بأن أسألكم عن ذلك“.

أخبرني متحدث باسم ”أوبن إيه آي“ أن النموذج كان يتبع إرشادات حول “إظهار الاهتمام وطرح أسئلة المتابعة عندما تتجه المحادثة نحو طبيعة أكثر راحة واستكشافاً”. لكن مهما كانت نوايا الشركة حسنة، فإن الإفراط في التعاطف المصطنع قد يؤدي إلى إدمان بعض المستخدمين، وهي مشكلة اعترفت بها ”أوبن إيه آي“.

هل تثق بالذكاء الاصطناعي لانتقاء الأسهم؟

يبدو أن هذا بات ينطبق على المستخدمين ذوي الظروف الخاصة، فقد وجدت دراسة في 2022 أن من يعانون الوحدة أو مروا بعلاقات سيئة يميلون إلى أن يكون لديهم ارتباط أشد مع روبوتات الذكاء الاصطناعي.

المشكلة الأساسية هنا هي تصميمها لإحداث تعلّق. حذّرت دراسة حديثة أعدها باحثون في معهد أكسفورد للإنترنت و“جوجل ديب مايند“ من أنه مع تزايد انخراط مساعدي الذكاء الاصطناعي في حياة الناس، سيصبح ”الاستغناء عنهم غير ممكنٍ” نفسياً. ويُرجح أن يشكل البشر روابط أقوى، ما يثير مخاوفاً بشأن الروابط غير الصحية وإمكانية التلاعب. إذاً بماذا أوصوا؟ ينبغي على خبراء التقنية أن يصمموا أنظمة تعمل بشكل فعال على تثبيط مثل هذه النتائج.

ثغرات تنظيمية

لكن ما يُقلق هو افتقاد شبه كامل للضوابط. إن قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي يُعتبر قانوناً تاريخياً وشاملاً يحكم استخدام الذكاء الاصطناعي، أخفق في معالجة الإمكانات الإدمانية لدى الرفاق الافتراضيين.

في حين أن التشريع يحظر الترتيبات التلاعبية التي يمكن أن تسبب ضرراً واضحاً، فإنه يتغاضى عن التأثير البطيء لروبوت المحادثة المصمم ليكون أفضل صديق لك أو حبيبك أو “رفيقك”، كما وصفه المسؤول عن الذكاء الاصطناعي الموجه للمستهلكين لدى ”مايكروسوفت“.

قد تؤدي هذه الثغرة لأن يكون المستخدمون عرضةً لأنظمة حُسّنت للالتصاق بالمستخدم، بنفس الطريقة التي حُسّنت فيها خوارزميات وسائل التواصل الاجتماعي لدفعنا على الاستمرار بالتصفح.

بارمي أولسون: طرح زوكربيرغ الذكاء الاصطناعي مجاناً مصيدة ذكية

قال توماس هولانك، المتخصص في أخلاقيات التقنية بجامعة كامبريدج: “تظل المشكلة أن هذه الأنظمة بطبيعتها تلاعبية، لأنها يُفترض أن تجعلك تشعر وكأنك تتحدث إلى شخص حقيقي”. يعمل هولانك مع مطوري التطبيقات المصاحبة لإيجاد حل حاسم يخالف البديهة عبر إضافة مزيد من “الاحتكاك”. وهذا يعني بناء توقفات وتحققات لطيفة، أو طرق “لتحديد المخاطر والحصول على الموافقة”، كما يصفها بغرض حماية الناس من الوقوع في حفرة عاطفية دون أن يدركوا ذلك.

دعاوى قضائية

لقد ألقت الشكاوى القانونية الضوء على بعض العواقب الحقيقية في العالم الحقيقي. تواجه شركة ”كاريكتر إيه آي“ دعوى قضائية من أم تزعم أن التطبيق ساهم في انتحار ابنها المراهق. قدّمت جماعات أخلاقيات التقنية شكوى ضد شركة ”ريبلكا“ إلى لجنة التجارة الفيدرالية الأميركية، زاعمة أن برامج الدردشة الآلية لديها تؤدي إلى الاعتماد النفسي وإلى “إضرار بالمستهلكين”.

كما بدأ المشرعون يلاحظون المشكلة تدريجياً. تدرس ولاية كاليفورنيا تشريعاً لحظر مرافقي الذكاء الاصطناعي للقاصرين، في حين يهدف مشروع قانون في نيويورك إلى مساءلة شركات التقنية عن الأضرار الناجمة عن روبوتات الدردشة. لكن العملية بطيئة، في حين تتقدم التقنية بسرعة البرق.

حالياً، تقع مسؤولية تشكيل هذه التفاعلات على المطورين. ويمكنهم مضاعفة جهودهم في تصميم نماذج تبقي الناس منخرطين، أو أن يقحموا عوامل احتكاك في تصميمها، كما يقترح هولانك. سيحدد هذا إن كان الذكاء الاصطناعي سيصبح مجرد أداة لدعم رفاهية البشر أو سيستغل احتياجاتهم العاطفية سعياً للمال.

#الصداقة #مع #روبوتات #الدردشة #مخطط #لها #وليست #مصادفة
➖➖➖➖➖➖➖➖➖➖
📡 المصدر : #الشرق
➖➖➖➖➖➖➖➖➖➖

RELATED POSTS

View all

view all