أعلنت شركة ماتيل، الرائدة في مجال ألعاب الأطفال الإلكترونية، عن تعاونها مع OpenAI الأسبوع الماضي، مشيرةً إلى أن الألعاب المستقبلية ستتضمن روبوت الدردشة الشهير المعتمد على الذكاء الاصطناعي.
على الرغم من أن الإعلان لم يتضمن تفاصيل دقيقة حول كيفية استخدام هذه التقنية، أكدت ماتيل أن الشراكة تهدف إلى تعزيز المنتجات والتجارب المدعومة بالذكاء الاصطناعي، مما سيضفي لمسة سحرية على تجارب اللعب المناسبة للأطفال.
مواضيع مشابهة: فرحة عيد الأضحى في الجزائر مع موعد الصلاة المناسب
دعوات للامتناع عن استخدام الذكاء الاصطناعي
ردًا على هذا التعاون، دعا نشطاء حقوق الطفل شركة ماتيل إلى عدم استخدام هذه التقنية التجريبية في ألعاب الأطفال. وأكد روبرت فايسمان، الرئيس المشترك لمجموعة “بابليك سيتيزن” المدافعة عن حقوق الطفل، في بيان له: “الأطفال لا يمتلكون القدرة المعرفية الكافية للتمييز بين الواقع واللعب”.
خطورة على الأطفال
وأضاف فايسمان: “إن تزويد الألعاب بأصوات تشبه أصوات البشر، وتمكينها من إجراء محادثات تشبه تلك التي يقوم بها البشر، يُهدد بإلحاق ضرر حقيقي بالأطفال”. ومن بين الأضرار المحتملة؛ تقويض التطور الاجتماعي للأطفال والتأثير سلبًا على قدرتهم على بناء علاقات مع أقرانهم.
ودعا فايسمان الشركة للإعلان فورًا أنها لن تُدمج تقنية الذكاء الاصطناعي في ألعاب الأطفال الإلكترونية، محذرًا من استغلال ثقة الآباء لإجراء تجارب اجتماعية غير محسوبة على أطفالهم من خلال بيع ألعاب تحتوي على الذكاء الاصطناعي.
من نفس التصنيف: السباق بدأ للتنسيق تنسيق التمريض بعد الإعدادية 2025 بالسويس شروط ومؤشرات
يأتي تعاون ماتيل وOpenAI وسط مخاوف متزايدة بشأن تأثير أنظمة الذكاء الاصطناعي التوليدية، مثل ChatGPT، على الصحة النفسية للمستخدمين. فقد تم الإبلاغ عن أن روبوتات الدردشة تنشر معلومات مضللة، وتؤكد نظريات المؤامرة، بل وتُزعم أنها تُشجع المستخدمين على الانتحار.
تأثير نفسي خطير
كما حذر الأطباء النفسيون من ظاهرة تُعرف بذهان روبوتات الدردشة، والتي تحدث نتيجة التفاعل مع الذكاء الاصطناعي. فالرسائل المتبادلة مع روبوتات الدردشة المُولَّدة للذكاء الاصطناعي، مثل ChatGPT، تبدو واقعية للغاية، مما يخلق انطباعًا بأن هناك شخصًا حقيقيًا في الطرف الآخر. ومن المرجح أن يساهم هذا التنافر المعرفي في تغذية الأوهام لدى الأشخاص الذين لديهم ميل متزايد نحو الذهان.
من جانبه، صرح سام ألتمان، رئيس شركة OpenAI، هذا الأسبوع بأن شركته تعمل على تطبيق تدابير سلامة تهدف إلى حماية المستخدمين المعرضين للخطر، مثل قطع المحادثات التي تتضمن نظريات المؤامرة، أو توجيه الأشخاص إلى خدمات مهنية عند ظهور مواضيع حساسة مثل الانتحار.