Connect with us

Hi, what are you looking for?

اقتصاد

سؤال وجواب من الداخل: ميرا موراتي ، رئيس قسم التكنولوجيا في OpenAI ، حول رعاية ChatGPT

تتحدث عن إجراءات حماية الذكاء الاصطناعي ورؤية الشركة للمفهوم المستقبلي للذكاء الاصطناعي العام

ميرا موراتي ، رئيس قسم التكنولوجيا في OpenAI. يقود موراتي فرق البحث والمنتج والسلامة في OpenAI. – ا ف ب

كانت شركة OpenAI تبني سمعة طيبة في مجال الذكاء الاصطناعي ولكنها لم تكن اسمًا مألوفًا عندما انضمت ميرا موراتي إلى مختبر الأبحاث غير الربحي في عام 2018.

بعد فترة وجيزة ، بدأ مختبر سان فرانسيسكو تحولًا كبيرًا. لقد حولت نفسها إلى شركة جذبت اهتمامًا عالميًا بصفتها صانع ChatGPT.

الآن ، كبير مسؤولي التكنولوجيا ، يقود Murati فرق البحث ، والمنتجات والسلامة في OpenAI. لقد قادت تطوير وإطلاق نماذج الذكاء الاصطناعي الخاصة بها بما في ذلك ChatGPT ، ومولد الصور DALL-E والأحدث ، GPT-4.

تحدثت مع وكالة أسوشيتيد برس حول ضمانات الذكاء الاصطناعي ورؤية الشركة للمفهوم المستقبلي للذكاء الاصطناعي العام ، المعروف باسم AGI. تم تحرير المقابلة من أجل الطول والوضوح.

س: ماذا يعني الذكاء العام الاصطناعي لشركة OpenAI؟

أ: بالذكاء العام الاصطناعي ، فإننا نعني عادةً الأنظمة ذاتية التحكم للغاية القادرة على إنتاج مخرجات اقتصادية ومخرجات اقتصادية كبيرة. بمعنى آخر ، الأنظمة التي يمكنها التعميم عبر مجالات مختلفة. إنها قدرة على المستوى البشري. تتمثل رؤية OpenAI المحددة حولها في بنائها بأمان ومعرفة كيفية بنائها بطريقة تتماشى مع النوايا البشرية ، بحيث تقوم أنظمة الذكاء الاصطناعي بالأشياء التي نريدها أن تفعلها ، وتستفيد إلى أقصى حد من العديد من الأشخاص هناك قدر الإمكان ، من الناحية المثالية للجميع.

س: هل هناك مسار بين منتجات مثل GPT-4 و AGI؟

أ: نحن بعيدون عن نقطة امتلاك نظام AGI آمن وموثوق ومتوافق. طريقنا للوصول إلى هناك له عدة نواقل مهمة. من وجهة نظر بحثية ، نحاول بناء أنظمة لديها فهم قوي للعالم بشكل مشابه لما نفعله كبشر. تم تدريب أنظمة مثل GPT-3 في البداية على البيانات النصية فقط ، ولكن عالمنا ليس فقط مكونًا من نص ، لذلك لدينا صور أيضًا ثم بدأنا في تقديم أساليب أخرى. كانت الزاوية الأخرى تحجيم هذه الأنظمة لزيادة عموميتها. مع GPT-4 ، نتعامل مع نظام أكثر قدرة ، وتحديداً من زاوية التفكير في الأشياء. هذه القدرة هي المفتاح. إذا كان النموذج ذكيًا بما يكفي لفهم اتجاه غامض أو اتجاه عالي المستوى ، فيمكنك معرفة كيفية جعله يتبع هذا الاتجاه. ولكن إذا لم يفهم حتى هذا الهدف رفيع المستوى أو الاتجاه رفيع المستوى ، فسيكون من الصعب جدًا مواءمته. لا يكفي بناء هذه التكنولوجيا في فراغ في المختبر. نحتاج حقًا إلى هذا الاتصال بالواقع ، مع العالم الحقيقي ، لنرى أين توجد نقاط الضعف ، وأين توجد نقاط الانهيار ، ونحاول القيام بذلك بطريقة يتم التحكم فيها ومنخفضة المخاطر والحصول على أكبر قدر ممكن من التعليقات.

س: ما هي إجراءات السلامة التي تتخذونها؟

أ: نفكر في التدخلات في كل مرحلة. نقوم بتنقيح بيانات معينة من التدريب الأولي على النموذج. مع DALL-E ، أردنا تقليل مشكلات التحيز الضار التي كنا نراها. قمنا بتعديل نسبة صور الإناث والذكور في مجموعة بيانات التدريب. لكن عليك أن تكون حذرًا للغاية لأنك قد تخلق بعض الاختلالات الأخرى. عليك أن تراجع باستمرار. في هذه الحالة ، حصلنا على تحيز مختلف لأن الكثير من هذه الصور كانت ذات طبيعة جنسية. لذلك عليك تعديلها مرة أخرى وأن تكون حذرًا للغاية بشأن كل مرة تقوم فيها بتدخل ، لترى ما الذي يتم تعطيله أيضًا. في التدريب النموذجي ، مع ChatGPT على وجه الخصوص ، قمنا بالتعلم المعزز من خلال ردود الفعل البشرية لمساعدة النموذج على التوافق بشكل أكبر مع التفضيلات البشرية. ما نحاول فعله بشكل أساسي هو تضخيم ما يعتبر سلوكًا جيدًا ثم إلغاء تضخيم ما يعتبر سلوكًا سيئًا.

س: هل يجب تنظيم هذه الأنظمة؟

أ: نعم على الاطلاق. يجب تنظيم هذه الأنظمة. في OpenAI ، نتحدث باستمرار مع الحكومات والهيئات التنظيمية والمنظمات الأخرى التي تطور هذه الأنظمة ، على الأقل على مستوى الشركة ، للاتفاق على مستوى معين من المعايير. لقد قمنا ببعض العمل على ذلك في العامين الماضيين مع مطوري نماذج اللغة الكبيرة في التوافق مع بعض معايير الأمان الأساسية لنشر هذه النماذج. لكني أعتقد أن هناك الكثير مما يجب أن يحدث. ومن المؤكد أن المنظمين الحكوميين يجب أن يكونوا منخرطين للغاية.

س: حظي خطاب يدعو إلى توقف صناعي لمدة 6 أشهر في بناء نماذج ذكاء اصطناعي أقوى من GPT-4 باهتمام كبير. ما رأيك في العريضة وافتراضها بشأن مخاطر الذكاء الاصطناعي؟

أ: انظر ، أعتقد أن تصميم آليات السلامة في الأنظمة المعقدة أمر صعب. هناك الكثير من الفروق الدقيقة هنا. بعض المخاطر التي أشارت إليها الرسالة صحيحة تمامًا. في OpenAI ، كنا نتحدث عنها بصراحة شديدة لسنوات وندرسها أيضًا. لا أعتقد أن توقيع خطاب هو وسيلة فعالة لبناء آليات السلامة أو للتنسيق بين اللاعبين في الفضاء. كانت بعض العبارات الواردة في الرسالة غير صحيحة بشأن تطوير GPT-4 أو GPT-5. نحن لا نقوم بتدريب GPT-5. ليس لدينا أي خطط للقيام بذلك في الأشهر الستة المقبلة. ولم نسرع ​​في الخروج من GPT-4. في الواقع ، لقد استغرقنا ستة أشهر للتركيز بالكامل على التطوير الآمن ونشر GPT-4. حتى ذلك الحين ، قمنا بتدويره بعدد كبير من الدرابزين وطرح بطيء ومتناسق للغاية. لا يمكن للجميع الوصول إليه بسهولة ، وهو بالتأكيد ليس مفتوح المصدر. كل هذا يعني أنني أعتقد أن آليات السلامة وآليات التنسيق في أنظمة الذكاء الاصطناعي هذه وأي نظام تكنولوجي معقد أمر صعب ويتطلب الكثير من التفكير والاستكشاف والتنسيق بين اللاعبين.

س: ما مدى تغير OpenAI منذ انضمامك؟

أ: عندما انضممت إلى OpenAI ، كانت منظمة غير ربحية. اعتقدت أن هذه كانت أهم تقنية سنبنيها كبشرية على الإطلاق ، وشعرت حقًا أن شركة ذات مهمة OpenAI ستعمل على الأرجح على التأكد من أنها تسير على ما يرام. بمرور الوقت ، قمنا بتغيير هيكلنا لأن هذه الأنظمة باهظة الثمن. إنها تتطلب الكثير من التمويل. لقد حرصنا على هيكلة الحوافز بطريقة تجعلنا نخدم المهمة غير الربحية. لهذا السبب لدينا هيكل “ربح محدود”. يتمتع الأشخاص في OpenAI بدوافع جوهرية ومتوافقة مع المهمة ، وهذا لم يتغير منذ البداية. ولكن على مدار خمس سنوات ، تطور تفكيرنا كثيرًا عندما يتعلق الأمر بأفضل طريقة للنشر ، وما هي الطريقة الأكثر أمانًا. ربما يكون هذا هو الاختلاف الأوضح. أعتقد أنه تغيير جيد.

س: هل توقعت الرد على ChatGPT قبل إصداره في 30 نوفمبر؟

أ: كانت التكنولوجيا الأساسية موجودة منذ شهور. كانت لدينا ثقة عالية في قيود النموذج من العملاء الذين كانوا يستخدمونه بالفعل عبر واجهة برمجة التطبيقات. لكننا أجرينا بعض التغييرات على النموذج الأساسي. قمنا بتكييفه للحوار. ثم جعلنا ذلك متاحًا للباحثين من خلال واجهة ChatGPT جديدة. كنا نستكشفها داخليًا مع مجموعة صغيرة موثوق بها ، وأدركنا أن عنق الزجاجة يكمن في الحصول على مزيد من المعلومات والحصول على المزيد من البيانات من الأشخاص. أردنا توسيعه ليشمل المزيد من الأشخاص في ما نسميه معاينة البحث ، وليس منتجًا. كان القصد من ذلك هو جمع التعليقات حول كيفية تصرف النموذج واستخدام تلك البيانات لتحسين النموذج وجعله أكثر اتساقًا. لم نتوقع الدرجة التي سيكون عندها الناس مفتونون بالتحدث إلى نظام ذكاء اصطناعي. كانت مجرد معاينة بحثية. عدد المستخدمين وما إلى ذلك ، لم نتوقع هذا المستوى من الإثارة.

اضف تعليقك

اترك تعليقك

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات ذات صلة

الخليج

صور KT: راؤول جاجار سيتم طرح تشكيلة iPhone 16 الجديدة، بالإضافة إلى جميع منتجات Apple الجديدة التي تم الكشف عنها مؤخرًا، للبيع غدًا، 20...

دولي

عمال ينظمون احتجاجا للمطالبة بزيادة الأجور والاعتراف بنقابتهم، في مصنع سامسونج الهند في سريبيرومبودور، بالقرب من تشينا. الصورة: أرشيف وكالة فرانس برس أظهرت أوراق...

اقتصاد

أعلن البنك الدولي، اليوم الخميس، أنه قدم مبلغا قياسيا قدره 42.6 مليار دولار لتمويل تغير المناخ في السنة المالية 2024، بزيادة قدرها 10 في...

الخليج

صورة الملف أعلنت السلطات، اليوم الخميس، أن أكثر من 8 ملايين موظف سجلوا بالفعل في نظام التأمين ضد البطالة في الإمارات العربية المتحدة منذ...

دولي

قال وزير العمل الهندي يوم الخميس إن الهند تحقق في بيئة العمل في شركة EY، إحدى الشركات الأربع الكبرى في مجال المحاسبة، بعد وفاة...

اقتصاد

سيارة كهربائية من إنتاج شركة BYD Seal معروضة في وكالة بيع سيارات في شنغهاي. — ملف رويترز قال المفوض التجاري بالاتحاد الأوروبي فالديس دومبروفسكيس...

الخليج

الصورة: وام حققت إحدى المنظمات الإماراتية أمنيات واحد وعشرين طفلاً مريضاً من غزة التي مزقتها الحرب، وذلك بفضل مبادرة إنسانية. نظمت مؤسسة تحقيق أمنية...

دولي

يستمع الناس إلى خطاب متلفز للأمين العام لحزب الله حسن نصر الله في مقهى في قرية زوطر بجنوب لبنان في 19 سبتمبر 2024. تصوير:...