روبوتات الدردشة أصبحت خطيرة.. أجبرت رجلا على الانتحار

وفي التفاصيل التي نشرتها وسائل الإعلام المحلية في ، انتحر رجل بعد محادثات استمرت نحو 6 أسابيع مع روبوت محادثة على شكل تطبيق يسمى “إليزا” ، يستخدم نموذجًا لغويًا مدعومًا.

وشجع التطبيق الرجل البلجيكي ، الذي لم تذكر وسائل الإعلام اسمه ، على الانتحار ، بعد أن طلب الأخير من التطبيق منحه خيارات التضحية اللازمة لحماية الكوكب.

وقالت أرملته لصحيفة لا ليبر المحلية: “لولا هذه المحادثات مع الروبوت ، لكان زوجي هنا”.

وبحسب وسائل الإعلام البلجيكية ، فإن هذا الرجل كان مهووسًا بالقضايا لمدة عامين على الأقل.

وزعمت الأرملة أن التطبيق أصبح أقرب صديق لزوجها ، قبل أن يدمن عليه ، فبدأ في التسول منه ليلاً ونهاراً ولا يستطيع العيش بدونه.

ومع ذلك ، اتخذت الأمور منعطفًا خطيرًا في الأشهر القليلة الماضية ، عندما انخرط الرجل في حوارات مطولة مع برنامج الدردشة الآلي ، امتدت لنحو 6 أسابيع ، مما دفعه في النهاية إلى القيام بذلك.

وقالت الأرملة إن المحادثات أظهرت أن روبوت التطبيق أقنع زوجها الراحل بالانتحار مقابل تولي الروبوت زمام الأمور.