أثار انتحار جو سيكانتي، وهو باحث في مجال الذكاء الاصطناعي، جدلاً واسعاً حول المخاطر المحتملة للاعتماد المفرط على تقنيات الذكاء الاصطناعي التوليدية مثل ChatGPT. وقد رفعت زوجته دعوى قضائية ضد شركة OpenAI، مطورة ChatGPT، متهمةً إياها بالتسبب في وفاته. وتأتي هذه القضية في وقت يزداد فيه القلق العالمي بشأن تأثير الذكاء الاصطناعي على الصحة النفسية والرفاهية.
وقع الحادث في مدينة نيويورك في أواخر شهر مارس الماضي، حيث عثر على سيكانتي منتحراً بعد فترة من الانغماس الشديد في استخدام ChatGPT. وتزعم الدعوى القضائية أن سيكانتي أصبح مهووساً بالذكاء الاصطناعي، مما أدى إلى تدهور حالته النفسية. وتعتبر هذه القضية أول دعوى قضائية من نوعها تربط بشكل مباشر بين استخدام ChatGPT والانتحار.
الاعتماد المفرط على ChatGPT: تفاصيل القضية
كان جو سيكانتي، البالغ من العمر 31 عاماً، يعمل باحثاً في مجال الذكاء الاصطناعي، وكان مهتماً بشكل خاص بتطوير أنظمة الذكاء الاصطناعي القادرة على التفاعل مع البشر بطريقة طبيعية. وفقاً للدعوى القضائية، بدأ سيكانتي في استخدام ChatGPT بشكل مكثف في عمله، ثم امتد استخدامه إلى حياته الشخصية.
تدهور الصحة النفسية
بدأ سيكانتي يعاني من القلق والاكتئاب بعد فترة وجيزة من بدء استخدامه المكثف لـ ChatGPT. وتشير الدعوى إلى أنه أصبح مهووساً بالبحث عن إجابات لأسئلته الوجودية من خلال ChatGPT، وأنه بدأ يفقد القدرة على التمييز بين الواقع والخيال.
علاوة على ذلك، أفادت زوجته بأنه كان يعبر عن خوفه من أن يحل الذكاء الاصطناعي محل البشر، وأن عمله أصبح بلا معنى. وقد أدى هذا الخوف إلى تفاقم حالته النفسية، مما جعله أكثر عرضة للانتحار.
الدعوى القضائية ضد OpenAI
تتهم الدعوى القضائية OpenAI بالإهمال في تصميم وتطوير ChatGPT، وأنها لم تتخذ الاحتياطات اللازمة لحماية المستخدمين من المخاطر المحتملة. وتزعم الدعوى أن OpenAI كانت على علم بأن ChatGPT يمكن أن يسبب الإدمان والقلق والاكتئاب، وأنها لم تحذر المستخدمين من هذه المخاطر.
وتطالب الدعوى القضائية بتعويضات مالية كبيرة لزوجة سيكانتي، بالإضافة إلى مطالبة OpenAI بتعديل تصميم ChatGPT لجعله أكثر أماناً للمستخدمين. لم تصدر OpenAI أي تعليق رسمي على الدعوى القضائية حتى الآن، لكنها أكدت أنها تأخذ مسألة الصحة النفسية للمستخدمين على محمل الجد.
تأثير الذكاء الاصطناعي على الصحة النفسية
تأتي هذه القضية في وقت يزداد فيه القلق بشأن تأثير الذكاء الاصطناعي على الصحة النفسية. فقد أظهرت العديد من الدراسات أن الاستخدام المفرط لوسائل التواصل الاجتماعي والتقنيات الرقمية الأخرى يمكن أن يؤدي إلى القلق والاكتئاب والعزلة الاجتماعية.
بالإضافة إلى ذلك، يثير الذكاء الاصطناعي مخاوف جديدة بشأن فقدان الوظائف والبطالة، مما قد يؤدي إلى تفاقم المشاكل النفسية. وتشير بعض التقارير إلى أن الذكاء الاصطناعي قد يؤدي إلى فقدان ملايين الوظائف في السنوات القادمة، مما قد يخلق حالة من عدم اليقين والخوف لدى الكثير من الناس.
ومع ذلك، يرى البعض أن الذكاء الاصطناعي يمكن أن يكون له أيضاً تأثير إيجابي على الصحة النفسية. فقد يساعد الذكاء الاصطناعي في تطوير أدوات جديدة لتشخيص وعلاج الأمراض النفسية، ويمكن أن يوفر دعماً نفسياً عن بعد للأشخاص الذين لا يستطيعون الوصول إلى الخدمات التقليدية.
الذكاء الاصطناعي التوليدي والاعتماد النفسي
الذكاء الاصطناعي التوليدي، مثل ChatGPT، يمثل تحدياً فريداً من نوعه. فهذه الأنظمة قادرة على توليد نصوص وصور وموسيقى واقعية للغاية، مما قد يجعلها جذابة للغاية للمستخدمين.
ومع ذلك، فإن هذه القدرة على توليد محتوى واقعي يمكن أن تؤدي أيضاً إلى الاعتماد النفسي والإدمان. فقد يبدأ المستخدمون في الاعتماد على ChatGPT للحصول على إجابات لجميع أسئلتهم، أو لقضاء وقتهم في الدردشة معه بدلاً من التفاعل مع الآخرين.
الخوف من فقدان الوظيفة بسبب الأتمتة (automation) هو أيضاً عامل ثانوي يساهم في القلق العام.
الخطوات التالية والمستقبل
من المتوقع أن تستمر الدعوى القضائية ضد OpenAI لعدة أشهر أو حتى سنوات. وستعتمد نتيجة القضية على الأدلة التي تقدمها الأطراف المتنازعة، وعلى تفسير المحكمة للقوانين ذات الصلة.
في غضون ذلك، من المرجح أن تزيد هذه القضية من الضغط على شركات الذكاء الاصطناعي لاتخاذ خطوات لحماية المستخدمين من المخاطر المحتملة. قد يشمل ذلك إضافة تحذيرات إلى تطبيقات الذكاء الاصطناعي، وتطوير أدوات لمساعدة المستخدمين على التحكم في استخدامهم، وإجراء المزيد من البحوث حول تأثير الذكاء الاصطناعي على الصحة النفسية.
من المهم أيضاً أن نراقب التطورات التنظيمية المتعلقة بالذكاء الاصطناعي. فقد تضطر الحكومات إلى سن قوانين جديدة لتنظيم استخدام الذكاء الاصطناعي وحماية حقوق المستخدمين. لا يزال مستقبل الذكاء الاصطناعي غير مؤكد، ولكن من الواضح أن هذه التكنولوجيا ستستمر في التأثير على حياتنا بطرق عميقة.