تطرح إدارة بايدن مبادرات لضمان أن التكنولوجيا سريعة التطور تعمل على تحسين الحياة دون تعريض حقوق الناس وسلامتهم للخطر
يستمع الرئيس جو بايدن بينما تتحدث نائبة الرئيس كامالا هاريس في حديقة الورود بالبيت الأبيض في واشنطن ، في 1 مايو 2023 ، حول الأسبوع الوطني للأعمال الصغيرة. – ملف AP
التقت نائبة الرئيس كامالا هاريس يوم الخميس برؤساء جوجل ومايكروسوفت وشركتين أخريين تعملان على تطوير الذكاء الاصطناعي مع إطلاق إدارة بايدن مبادرات تهدف إلى ضمان أن التكنولوجيا سريعة التطور تعمل على تحسين الحياة دون تعريض حقوق الناس وسلامتهم للخطر.
قال مسؤولو البيت الأبيض يوم الخميس إن إطلاق برنامج ChatGPT الشهير للذكاء الاصطناعي في أواخر العام الماضي – حتى أن الرئيس جو بايدن قد جربه – أثار موجة من الاستثمار التجاري في أدوات الذكاء الاصطناعي التي يمكنها كتابة نص مقنع يشبه الإنسان وإخراج نصوص جديدة. الصور والموسيقى ورمز الكمبيوتر.
لكن السهولة التي يمكن بها تقليد البشر دفعت الحكومات في جميع أنحاء العالم إلى التفكير في كيفية الاستغناء عن الوظائف وخداع الناس ونشر المعلومات المضللة.
أعلنت الإدارة الديمقراطية عن استثمار 140 مليون دولار لإنشاء سبعة معاهد بحثية جديدة للذكاء الاصطناعي.
بالإضافة إلى ذلك ، من المتوقع أن يصدر مكتب الإدارة والميزانية بالبيت الأبيض إرشادات في الأشهر القليلة المقبلة حول كيفية استخدام الوكالات الفيدرالية لأدوات الذكاء الاصطناعي. هناك أيضًا التزام مستقل من قبل كبار مطوري الذكاء الاصطناعي للمشاركة في تقييم عام لأنظمتهم في أغسطس في مؤتمر القراصنة في لاس فيغاس DEF CON.
قال آدم كونر من مركز التقدم الأمريكي الليبرالي إن البيت الأبيض يحتاج أيضًا إلى اتخاذ إجراءات أقوى حيث يتم دمج أنظمة الذكاء الاصطناعي التي أنشأتها هذه الشركات في آلاف التطبيقات الاستهلاكية.
“أعتقد أننا في لحظة ما في الشهرين المقبلين سنحدد حقًا ما إذا كنا سنقود هذا أم لا أو نتنازل عن القيادة لأجزاء أخرى من العالم ، كما فعلنا في المساحات التنظيمية التقنية الأخرى مثل الخصوصية أو تنظيم الإنترنت الكبيرة قال كونر.
تم تصميم اجتماع يوم الخميس لهاريس ومسؤولي الإدارة لمناقشة المخاطر التي يرونها في التطوير الحالي للذكاء الاصطناعي مع الرئيس التنفيذي لشركة Google Sundar Pichai والرئيس التنفيذي لشركة Microsoft Satya Nadella ورؤساء شركتين ناشئتين مؤثرتين: OpenAI المدعومة من Microsoft و Anthropic المدعومة من Google. رسالة القادة الحكوميين للشركات هي أن لديهم دورًا يلعبونه في الحد من المخاطر وأنه يمكنهم العمل جنبًا إلى جنب مع الحكومة.
وقالت هاريس في بيان بعد الاجتماع المغلق إنها أبلغت المديرين التنفيذيين أن “القطاع الخاص يتحمل مسؤولية أخلاقية ومعنوية وقانونية لضمان سلامة وأمن منتجاتهم”.
كما قالت السلطات في المملكة المتحدة يوم الخميس إنها تبحث في المخاطر المرتبطة بالذكاء الاصطناعي. قالت هيئة مراقبة المنافسة في بريطانيا إنها تفتح مراجعة لسوق الذكاء الاصطناعي ، مع التركيز على التكنولوجيا التي تقوم عليها برامج الدردشة مثل ChatGPT ، التي طورتها شركة OpenAI.
أشار الرئيس جو بايدن الشهر الماضي إلى أن الذكاء الاصطناعي يمكن أن يساعد في معالجة الأمراض وتغير المناخ ، ولكنه قد يضر أيضًا بالأمن القومي ويعطل الاقتصاد بطرق مزعزعة للاستقرار. كما توقف بايدن عن الحدث يوم الخميس. وقالت السكرتيرة الصحفية للبيت الأبيض كارين جان بيير للصحفيين في مؤتمر صحفي يوم الخميس “تم إطلاع الرئيس بشكل مكثف على ChatGPT ويعرف كيف يعمل.”
أدت موجة من “الذكاء الاصطناعي التوليدي” الجديد مثل روبوتات المحادثة ومولدات الصور إلى زيادة المخاوف الأخلاقية والمجتمعية بشأن الأنظمة الآلية.
كانت بعض الشركات ، بما في ذلك OpenAI ، سرية بشأن البيانات التي تم تدريب أنظمة الذكاء الاصطناعي الخاصة بها عليها. هذا يجعل من الصعب فهم سبب قيام روبوت المحادثة بإنتاج إجابات متحيزة أو خاطئة للطلبات أو معالجة المخاوف بشأن ما إذا كان يسرق أعمالًا محمية بحقوق الطبع والنشر.
قالت مارجريت ميتشل ، كبيرة علماء الأخلاقيات في شركة Hugging Face الناشئة لمنظمة العفو الدولية ، إن الشركات التي تشعر بالقلق من تحمل المسؤولية عن شيء ما في بيانات التدريب الخاصة بها قد لا يكون لديها أيضًا حوافز لتتبعها بدقة.
قال ميتشل في مقابلة يوم الثلاثاء: “أعتقد أنه قد لا يكون من الممكن لـ OpenAI أن تفصل فعليًا جميع بيانات التدريب الخاصة بها على مستوى من التفاصيل سيكون مفيدًا حقًا فيما يتعلق ببعض المخاوف المتعلقة بالموافقة والخصوصية والترخيص”. “من خلال ما أعرفه عن ثقافة التكنولوجيا ، هذا لم يتم القيام به.”
من الناحية النظرية ، قد يجبر نوع من قانون الإفصاح مقدمي خدمات الذكاء الاصطناعي على فتح أنظمتهم لمزيد من التدقيق من قبل طرف ثالث. ولكن مع بناء أنظمة الذكاء الاصطناعي فوق النماذج السابقة ، فلن يكون من السهل على الشركات توفير قدر أكبر من الشفافية بعد وقوعها.
قال ميتشل: “أعتقد أن الأمر متروك للحكومات لتقرر ما إذا كان هذا يعني أنه يتعين عليك التخلص من كل العمل الذي قمت به أم لا”. “بالطبع ، أتخيل نوعًا ما أنه على الأقل في الولايات المتحدة ، فإن القرارات سوف تميل نحو الشركات وستكون داعمة لحقيقة أنه قد تم بالفعل. سيكون لها مثل هذه التداعيات الهائلة إذا كان على كل هذه الشركات أن تقوم بشكل أساسي بإهمال كل هذا العمل والبدء من جديد “.
بينما أشار البيت الأبيض يوم الخميس إلى نهج تعاوني مع الصناعة ، فإن الشركات التي تبني أو تستخدم الذكاء الاصطناعي تواجه أيضًا تدقيقًا شديدًا من الوكالات الأمريكية مثل لجنة التجارة الفيدرالية ، التي تفرض قوانين حماية المستهلك ومكافحة الاحتكار.
تواجه الشركات أيضًا قواعد أكثر صرامة في الاتحاد الأوروبي ، حيث يضع المفاوضون اللمسات الأخيرة على لوائح الذكاء الاصطناعي التي تم اقتراحها لأول مرة قبل عامين. يمكن للقواعد أن تجعل الكتلة المكونة من 27 دولة في طليعة الدفعة العالمية لوضع معايير للتكنولوجيا.
عندما صاغ الاتحاد الأوروبي لأول مرة اقتراحه لقواعد الذكاء الاصطناعي في عام 2021 ، كان التركيز على كبح جماح التطبيقات عالية الخطورة التي تهدد سلامة الأشخاص أو حقوقهم مثل مسح الوجه المباشر أو أنظمة التسجيل الاجتماعي الحكومية ، والتي تحكم على الأشخاص بناءً على سلوكهم. بالكاد تم ذكر روبوتات المحادثة.
ولكن في انعكاس لمدى سرعة تطور تقنية الذكاء الاصطناعي ، كان المفاوضون في بروكسل يسعون جاهدين لتحديث مقترحاتهم لمراعاة أنظمة الذكاء الاصطناعي ذات الأغراض العامة. ستتطلب البنود المضافة إلى مشروع القانون ما يسمى بنماذج مؤسسة AI للكشف عن مواد حقوق الطبع والنشر المستخدمة لتدريب الأنظمة ، وفقًا لمسودة جزئية حديثة للتشريع حصلت عليها وكالة Associated Press.
نماذج الأساس هي فئة فرعية من الأغراض العامة للذكاء الاصطناعي والتي تتضمن أنظمة مثل ChatGPT. يتم تدريب الخوارزميات الخاصة بهم على مجموعات ضخمة من البيانات.
ومن المقرر أن تصوت لجنة برلمانية أوروبية الأسبوع المقبل على مشروع القانون ، لكن قد يستغرق الأمر سنوات قبل دخول قانون الذكاء الاصطناعي حيز التنفيذ.
في أماكن أخرى من أوروبا ، حظرت إيطاليا مؤقتًا ChatGPT لخرق قواعد الخصوصية الأوروبية الصارمة ، وأنشأ مجلس حماية البيانات الأوروبي فريق عمل للذكاء الاصطناعي ، في خطوة أولية محتملة لوضع قواعد خصوصية مشتركة للذكاء الاصطناعي.
في الولايات المتحدة ، قد يكون وضع أنظمة الذكاء الاصطناعي للفحص العام في مؤتمر DEF CON للقراصنة طريقة جديدة لاختبار المخاطر ، على الرغم من أن الحدث الذي يحدث لمرة واحدة قد لا يكون شاملاً مثل التدقيق المطول ، كما قال هيذر فرايز ، الزميل البارز في مركز جامعة جورجتاون للأمن والتكنولوجيا الناشئة.
إلى جانب Google و Microsoft و OpenAI و Anthropic ، فإن الشركات التي يقول البيت الأبيض إنها وافقت على المشاركة تشمل Hugging Face و Nvidia لصناعة الرقائق و Stability AI ، والمعروفة بمولد الصور Stable Diffusion.
قال فرايز: “ستكون هذه وسيلة للأشخاص ذوي المهارات العالية والمبدعين للقيام بذلك في نوع واحد من الاندفاع الكبير”.