
مع انتشار تطبيقات محادثات الذكاء الاصطناعي المثيرة للجدل، حذّرت دراسة علمية من مخاطر الإفراط في استخدام هذه المنصّات.
وأوضح الباحث دانييل شانك في جامعة “ميسوري” الأميركية أن “قدرة الذكاء الاصطناعي على التصرف الآن مثل الإنسان والدخول في حوارات طويلة الأمد تفتح المجال لأمور شريرة جديدة”.
وأضاف في ورقة بحثية نشرتها مجلة “اتجاهات العلوم المعرفية” العلمية، أن هناك “قلقاً حقيقياً من أن الحميمية المصطنعة مع تطبيقات محادثة الذكاء الاصطناعي قد تشهد بعض الاضطراب في العلاقات الإنسانية”.

وأوضح فريق البحث أنه “بعد أسابيع وأشهُر من المحادثات المكثّفة بين المستخدم ومنصة محادثة الذكاء الاصطناعي يمكن أن تصبح الأخيرة بالنسبة الى المستخدم الرفيق الموثوق فيه الذي يعرف كل شيء عنه ويهتم بشؤونه”.
وحذّرت الدراسة من أن هذه البرامج قد تسبّب نوعاً من “الهلوسة” لبعض المستخدمين، وهذا قد يؤدي الى إنتاج استجابات تبدو غير دقيقة أو غير متماسكة وتشكّل سبباً آخر للقلق، لأن هذا يعني أن “حتى المحادثات قصيرة الأمد مع الذكاء الاصطناعي يمكن أن تكون مضلّلة”.
وقال الباحثون معدّو الدراسة: “إذا بدأنا التفكير في تطبيقات الذكاء الاصطناعي بهذه الطريقة، فسنعتقد أنها تهتم بمصلحتنا، بينما هي في الواقع تقدّم المشورة لنا بطرق سيئة للغاية، وبالتالي قد تؤذي هذه التطبيقات الناس من خلال تشجيع السلوكيات المنحرفة وغير الأخلاقية والخارجة على القانون”.