وقعت شركتا الذكاء الاصطناعي الناشئتان OpenAI وAnthropic اتفاقيات مع حكومة الولايات المتحدة لإجراء أبحاث واختبار وتقييم نماذج الذكاء الاصطناعي الخاصة بهما، حسبما قال معهد سلامة الذكاء الاصطناعي الأمريكي يوم الخميس.
وتأتي هذه الاتفاقيات الأولى من نوعها في وقت تواجه فيه الشركات التدقيق التنظيمي بشأن الاستخدام الآمن والأخلاقي لتقنيات الذكاء الاصطناعي.
ومن المقرر أن يصوت المشرعون في كاليفورنيا على مشروع قانون هذا الأسبوع لتنظيم كيفية تطوير الذكاء الاصطناعي ونشره في الولاية على نطاق واسع.
وبموجب هذه الصفقات، سيكون لدى معهد سلامة الذكاء الاصطناعي الأمريكي إمكانية الوصول إلى النماذج الرئيسية الجديدة من كل من OpenAI وAnthropic قبل وبعد إصدارها العام.
وستتيح الاتفاقيات أيضًا إجراء أبحاث تعاونية لتقييم قدرات نماذج الذكاء الاصطناعي والمخاطر المرتبطة بها.
وقال جيسون كوون، كبير مسؤولي الاستراتيجية في شركة OpenAI، الشركة المصنعة لـ ChatGPT: “نعتقد أن المعهد لديه دور حاسم في تحديد القيادة الأمريكية في تطوير الذكاء الاصطناعي بشكل مسؤول ونأمل أن يوفر عملنا معًا إطارًا يمكن لبقية العالم البناء عليه”.
ولم تستجب شركة أنثروبيك، المدعومة من أمازون وألفابت، على الفور لطلب من رويترز للتعليق.
وقالت إليزابيث كيلي، مديرة معهد سلامة الذكاء الاصطناعي في الولايات المتحدة: “هذه الاتفاقيات هي مجرد البداية، ولكنها تشكل معلمًا مهمًا في عملنا على المساعدة في إدارة مستقبل الذكاء الاصطناعي بشكل مسؤول”.
وسيتعاون المعهد، وهو جزء من المعهد الوطني للمعايير والتكنولوجيا (NIST) التابع لوزارة التجارة الأمريكية، مع معهد سلامة الذكاء الاصطناعي في المملكة المتحدة ويقدم ملاحظات للشركات بشأن التحسينات المحتملة للسلامة.
تم إطلاق معهد سلامة الذكاء الاصطناعي الأمريكي العام الماضي كجزء من أمر تنفيذي صادر عن إدارة الرئيس جو بايدن لتقييم المخاطر المعروفة والناشئة لنماذج الذكاء الاصطناعي.
(تقرير بواسطة هارشيتا ماري فارغيز في بنغالورو؛ تحرير شينجيني جانجولي)