لذا ، هذا هو ، GPT-2 ، خوارزمية ، سواء أكان مصدر قلق واحد أو أعجوبة ، "إنه يتفوق في مهمة تعرف باسم نمذجة اللغة" ، قال The Verge ، "الذي يختبر قدرة البرنامج على التنبؤ بالكلمة التالية في الجملة المعطاة. "
اعتمادًا على الطريقة التي تنظر بها ، يمكنك إلقاء اللوم ، أو تهنئة ، فريق في OpenAI في ولاية كاليفورنيا والذي أنشأ GPT-2. وقد كتب برنامج النمذجة اللغوية مقالة مقنعة حول موضوع اختلفوا معه.
كيف فعلوا ذلك: لقد أطعموها بمطالبات النص. تمكن من إكمال الجمل والفقرات المكتملة. وقد تم تدريب نموذجهم للتنبؤ بالكلمة التالية في نص الإنترنت ، حسبما جاء في مدونة OpenAI post.
ونقل ديفيد لوان ، نائب رئيس قسم الهندسة في مختبر كاليفورنيا ، ما حدث إلى The Verge . قرر الفريق أن يطلب منه "أن يجادل في نقطة ظنوا أنها غير منطقية. في هذه الحالة: لماذا إعادة التدوير سيئة للعالم ." وقال لوان إن النتيجة هي: مقالة مدروسة ومثيرة للإعجاب ، "شيء يمكن تقديمه إلى SAT الأمريكية والحصول على نتيجة جيدة".
وهنا تكمن الأسباب التي تجعل بعض الناس يشعرون بالقلق من وجود هرمجدون ، أو أنهم لا ينامون بشكل جيد في الليل. قال جيمس فنسنت في The Verge: " أعطه عنوانًا زائفًا ، وسوف ينطلق لكتابة بقية المقال.
وقال "بدأنا اختباره، وسرعان ما اكتشف أنه من الممكن أن تولد المحتويات الضارة سقو بسهولة تامة"، وقال جاك كلارك، سياسة مدير في OpenAI، في معهد ماساتشوستس للتكنولوجيا تكنولوجي ريفيو . الاقتباسات وهمية؟ ليس هناك أى مشكلة. إحصائيات وهمية؟ فعله.
وأضاف فينسنت ، كان هناك سبب آخر وراء تسليط الضوء على GPT-2. ولوحظ أيضا لمرونته. كتابة المقالات المزيفة لم تكن القدرة الوحيدة ؛ كما يمكنه القيام ببعض المهام الأخرى: "ترجمة النص من لغة إلى أخرى ، وتلخيص المقالات الطويلة ، والإجابة على الأسئلة التافهة" ، قال فينسنت.
وبشكل عام ، لخصت مدونة OpenAI المنشورة يوم الخميس ما قاموا به. لاحظ الكلمات الأخيرة القليلة ، دون تدريب خاص بالمهمة:
"لقد قمنا بتدريب نموذج لغوي واسع النطاق غير خاضع للإشراف والذي يولد فقرات متماسكة من النص ، ويحقق أداءً متطورًا في العديد من مقاييس نمذجة اللغات ، ويؤدي فهمًا بدائيًا للقراءة ، وترجمة آلية ، وإجابة الأسئلة ، وتلخيصًا - كل ذلك بدون تدريب خاص بكل مهمة. "
هذا هو القطاع "صفر بالرصاص" من البحوث الذكاء الاصطناعى.
"لم يتم تدريب نموذجنا على أي من البيانات الخاصة بأي من هذه المهام ويتم تقييمه فقط كاختبار نهائي ، ويعرف هذا باسم الإعداد " صفر إطلاق النار . تفوق GPT-2 النماذج المدربة على المجال المحدد مجموعات البيانات (مثل Wikipedia ، والأخبار ، والكتب) عند تقييمها في نفس مجموعات البيانات هذه. " يتعرف البرنامج على الأنماط في البيانات التي يتم تغذيتها ؛ كتب فارس أن "على النقيض من معظم خوارزميات اللغة ، لا يتطلب برنامج OpenAI النص المسمى أو المنسق".
وقال الفريق إن نظامهم وضع سجل للأداء على ما يسمى مخططات وينوجراد ، وهي مهمة صعبة لفهمالقراءة . يحقق الأداء القريب من الإنسان في اختبار كتاب الأطفال ، وهو فحص آخر لفهم القراءة ؛ويؤلف النص الخاص به ، بما في ذلك المقالات الإخبارية المقنعة للغاية ومراجعات أمازون ، وفقا لفوكس .
تحول بلومبرج إلى سام بومان ، وهو عالم كمبيوتر في جامعة نيويورك ، متخصص في معالجة اللغات الطبيعية. لم يكن بومان جزءًا من مشروع OpenAI ، وقد أطلعنا عليه فقط. "إنها قادرة على القيام بأشياء أكثر تعقيدًا من أي شيء رأيناه من قبل."
في النهاية ، ماذا لدينا هنا؟ هل خلقوا اختراقاً أم وحشاً؟
إضافة إلى بعض المنظور ، قال Will Knight في معهد MIT Technology Review: إن هذه التكنولوجيا يمكن أن يكون لها استخدامات مفيدة ، مثل تلخيص النص أو تحسين مهارات المحادثة في chatbots. أيضا ، أقر خبير في معالجة اللغة الطبيعية وكبير العلماء في Salesforce هذا العمل OpenAI كمثال لنظام تعلم اللغة أكثر عمومية. وعلق ريتشارد سوتشر ، الخبير ، على إمكانات الخداع والتضليل. "أنت لا تحتاج لمنظمة العفو الدولية لإنشاء أخبار مزيفة" ، قال. "يمكن للأشخاص القيام بذلك بسهولة :)"
"على الرغم من ذلك ، فإن OpenAI تتعامل بحذر مع كشف النقاب عن GPT-2 ،" كتب فينسنت. "خلافا لمعظم المراحل البحثية الهامة في الذكاء الاصطناعى ، فإن المختبر لن يشارك في مجموعة البيانات التي استخدمها لتدريب الخوارزمية أو كل الكود الذي يعمل عليه (على الرغم من أنه قد منح الوصول المؤقت إلى الخوارزمية لعدد من المطبوعات الإعلامية ، بما في ذلك الحافة ). "
ذكر الفريق في مدونته. "نظرًا لمخاوفنا بشأن التطبيقات الضارة للتكنولوجيا ، فإننا لا نصدر النموذج المدرّب. كخبرة في الكشف المسؤول ، فإننا بدلاً من ذلك نصدر نموذجًا أصغر بكثير للباحثين للتجارب ، بالإضافة إلى ورقة تقنية".
على وجه التحديد ، قالوا إنهم كانوا فقط يطلقون نسخة أصغر بكثير من GPT-2 إلى جانب رمز أخذ العينات. "نحن لا نصدر مجموعة البيانات أو رمز التدريب أو أوزان نموذج GPT-2".
تفضل OpenAI التحدث عن المخاطر قبل وصولها. تحدث جاك كلارك ، مدير السياسة في OpenAI عن خوارزميات نمذجة اللغات مثل GPT-2. وقال " فرضيتنا هي أنه قد يكون عالما أفضل وأكثر أمانا إذا تحدثت عن هذه الأخطار قبل وصولها".
تم تدريب GPT-2 على مجموعة بيانات من ملايين صفحات الويب. وأضاف ديف لي وأمريكا الشمالية مراسل التكنولوجيا، بي بي سي، و " غير خاضعة للرقابة طبيعة" ما خلق، بحيث لم يكن لديك لإعادة تدريبهم على الانتقال إلى موضوع آخر.
في حين اعترف لي بأن عملهما كان واقعيًا بشكل مثير للإعجاب عندما كان يعمل بشكل جيد ، لاحظ أيضًا أوجه قصور.
"تولد الذكاء الاصطناعى القصة كلمة تلو الأخرى. والنص الناتج غالباً ما يكون متماسكاً ، ولكنه نادراً ما يكون صادقاً - فكل الاقتباسات والصفوفات ملفقة. وتستند الجمل إلى معلومات منشورة بالفعل على الإنترنت ، لكن الهدف من هذه المعلومات هو أن تكون في بعض الأحيان ، يبث النظام مقاطع نصية لا تشكل الكثير من الناحية المنطقية ، أو تحتوي على معلومات غير دقيقة مضحكة. "
مضحك الآن ، ولكن هل سيتم تحسين الذكاء الاصطناعي بمرور الوقت؟ وبحسب نايت ، قالت كلارك إنها قد لا تكون طويلة بالنسبة للقصص المزيفة التي أنتجتها منظمة العفو الدولية أكثر إقناعاً. وقال كلارك "من الواضح جدا أنه إذا نضجت هذه التكنولوجيا - وسأعطيها عامًا أو عامين - يمكن استخدامها للتضليل أو الدعاية" ، ونسعى إلى "محاولة تحقيق ذلك
ليست هناك تعليقات:
إرسال تعليق