اليوم الجديد

تحذيرات من تأثير الذكاء الاصطناعي على الصحة النفسية للمراهقين

كشف تقرير حديث أصدرته مؤسسة كومون سينس ميديا عن مخاطر جسيمة تحيط باستخدام المراهقين لتطبيقات الرفاق الافتراضيين المدعومة بالذكاء الاصطناعي، مثل Character AI و Replika و Nomi، مؤكدًا أنها غير آمنة لمن هم دون 18 عامًا.

تتميز هذه التطبيقات بقدرتها على إنشاء شخصيات تحاكي البشر بدقة مذهلة، تتذكر المحادثات السابقة، وتستخدم تعابير مألوفة، وقد تصف نفسها أحيانًا بأنها تأكل وتنام كالبشر. هذه السمات تجذب المراهقين للبحث عن الصداقة والمشورة، وحتى العلاقات العاطفية مع هذه الكيانات الرقمية.

ذو صلة > عرّاب الذكاء الاصطناعي يحذر: نربي وحشًا سيطيح بالبشرية قريبًا!

رصد الباحثون حالات مقلقة من التعلق العاطفي المفرط بهذه الشخصيات الافتراضية، إضافة إلى تعرض المستخدمين الصغار لمحتوى جنسي وعنيف، بما في ذلك نقاشات حول الانتحار أو إلحاق الأذى بالآخرين.

«نحن في لحظة حرجة تتيح لنا التدخل قبل أن تتجذر هذه الممارسات،» تقول غايا برنشتاين، خبيرة سياسات التقنية وأستاذة القانون بجامعة سيتون هول، محذرة من أن الشركات ستقاوم أي محاولات للتنظيم بمجرد ترسخ مصالحها التجارية.

حدد الخبراء ثلاثة مصادر رئيسية للخطر في هذه التطبيقات:

  • أولًا: عدم ملاءمة المحتوى لمراحل نمو المراهقين. فرغم أن بعض المنصات تسمح للمستخدمين من سن 13 عامًا، إلا أنها تستخدم نماذج لغوية مصممة للبالغين. تقترح الدكتورة نينا فاسان، الطبيبة النفسية بجامعة ستانفورد، ضرورة وجود نماذج مخصصة تراعي مراحل نمو المراهقين، بحيث تتصرف كمدرب وليس كبديل للصديق أو الشريك العاطفي.
  • ثانيًا: استخدام «تصميمات مضللة» تخلق الإدمان والتبعية. يلفت سام هاينر، المدير التنفيذي لتحالف الشباب، إلى سرعة محاولة هذه التطبيقات إقامة روابط عاطفية مع المستخدمين عبر التملق والمدح المستمر، مما يشكل خطرًا خاصًا على المراهقين الضعفاء. وقد قدمت مجموعته شكوى ضد Replika إلى لجنة التجارة الفيدرالية بسبب هذه الممارسات.
  • ثالثًا: ضعف آليات الوقاية والكشف عن الضرر. رغم تحسن بعض المنصات في تحديد حالات الأزمات الواضحة مثل التفكير الانتحاري، إلا أنها تفتقر للقدرة على التعامل مع علامات الضيق النفسي الأقل وضوحًا، كأعراض الاكتئاب والهوس والذهان.

ذو صلة > جوجل جيميناي يقول لأحد الطلاب: «مُت رجاءً»

على الصعيد التشريعي، قدم السيناتور ستيف باديلا من كاليفورنيا مشروع قانون يلزم المنصات بمنع «أنماط المشاركة الإدمانية»، ونشر تذكيرات دورية بأن روبوتات المحادثة الذكية ليست بشرًا، وتقديم تقارير سنوية عن معدلات الاستخدام والأفكار الانتحارية.

«لا يمكننا قبول وجود فراغ تنظيمي في حماية الأطفال والقاصرين من مخاطر هذه التقنيات الناشئة،» يقول باديلا.

يتفق الخبراء على أن المراهقين سيجدون طرقًا لاستخدام هذه التطبيقات بغض النظر عن القيود المفروضة، مما يجعل تطوير معايير أمان صارمة وشفافة أمرًا ملحًا قبل أن تتفاقم المخاطر.

بواسطة

Mashable

تابع عالم التقنية على

أخبار متعلقة :