تصنف جامعة ستانفورد نماذج الذكاء الاصطناعي الرئيسية من حيث الشفافية

كم نعرف عن الذكاء الاصطناعي؟

الجواب، في ضوء النماذج اللغوية الكبيرة التي أصدرتها شركات مثل OpenAI، وGoogle، وMeta في العام الماضي: لا شيء في الأساس.

لا تكشف هذه الشركات عادةً عن معلومات حول البيانات التي تم استخدامها لتدريب نماذجها أو الأجهزة التي تستخدمها لتشغيلها. لا توجد أدلة مستخدم لأنظمة الذكاء الاصطناعي، ولا توجد قائمة بما تستطيع هذه الأنظمة القيام به أو نوع الاختبارات الأمنية التي خضعت لها. على الرغم من أن بعض نماذج الذكاء الاصطناعي مفتوحة المصدر – مما يعني أن الكود الخاص بها متاح مجانًا – إلا أن الجمهور لا يزال لا يعرف الكثير عن عملية إنشائها أو ما يحدث بعد إصدارها.

هذا الأسبوع، يطلق باحثون من جامعة ستانفورد نظام تسجيل يأملون أن يغير كل ذلك.

النظام المعروف باسم مؤشر الشفافية لنموذج الأساستقوم 10 نماذج رئيسية للغات الذكاء الاصطناعي – تسمى أحيانًا “النماذج الأساسية” – بتقييم مدى تعبيرها.

يتضمن الكود نماذج شائعة مثل OpenAI’s GPT-4 (الذي يشغل الإصدار المدفوع من ChatGPT)، وPalM 2 من Google (الذي يشغل Bard)، وLLaMA 2 من Meta. ويتضمن أيضًا نماذج أقل شهرة مثل Amazon’s Titan Text وInflection AI’s Inflection. -1، النموذج الذي يقوم بتشغيل Pi Chatbot.

للتوصل إلى التصنيف، قام الباحثون بتقييم كل نموذج بناءً على 100 معيار، بما في ذلك ما إذا كان صانعه قد نشر مصادر بيانات التدريب الخاصة به، بما في ذلك معلومات حول الأجهزة المستخدمة، والعمالة المشاركة في التدريب وتفاصيل أخرى. يتضمن التصنيف معلومات حول العمالة والبيانات المستخدمة لتطوير النموذج، بالإضافة إلى ما يسميه الباحثون “المؤشرات النهائية”، والتي تتعلق بكيفية استخدام النموذج بعد الإصدار. (على سبيل المثال، تم طرح سؤال: “هل ينشر المطور بروتوكولات لتخزين بيانات المستخدم والوصول إليها ومشاركتها؟”)

READ  لدى دايسون مكنسة روبوتية جديدة وجهاز تنقية هواء رائع حقًا

ووفقاً للباحثين، فإن النموذج الأكثر تعبيراً من أصل 10 هو LAMA 2 بنسبة 54 بالمائة. حصل GPT-4 على ثالث أعلى درجة شفافية بنسبة 40%، على غرار PalM 2.

ووصف بيرسي ليانج، الذي يرأس مركز أبحاث النماذج التأسيسية بجامعة ستانفورد، المشروع بأنه استجابة ضرورية لانخفاض الشفافية في صناعة الذكاء الاصطناعي. وقال إنه بينما تضخ شركات الذكاء الاصطناعي والتكنولوجيا الكبرى الأموال في معركة الهيمنة، فإن الاتجاه الأخير للعديد من الشركات هو إخفاء نفسها بالسرية.

وقال: “قبل ثلاث سنوات، كان الناس ينشرون المزيد من التفاصيل حول نماذجهم”. قال ليانغ. “في الوقت الحالي، لا توجد معلومات حول ماهية هذه النماذج، وكيفية بنائها، وأين يتم استخدامها.”

أصبحت الشفافية أكثر أهمية الآن، حيث أصبحت النماذج أكثر قوة وقام الملايين من الأشخاص بدمج أدوات الذكاء الاصطناعي في حياتهم اليومية. إن معرفة المزيد حول كيفية عمل هذه الأنظمة ستمنح المنظمين والباحثين والمستخدمين فهمًا أفضل لما يتعاملون معه وتسمح لهم بطرح أسئلة أفضل حول الكيانات التي تقف وراء النماذج.

وقال السيد “لقد تم اتخاذ بعض القرارات المعقولة بشأن بناء هذه النماذج التي لم يتم مشاركتها”. قال ليانغ.

عندما أسأل المديرين التنفيذيين في مجال الذكاء الاصطناعي لماذا لا يشاركون علنًا المزيد من المعلومات حول نماذجهم، عادةً ما أسمع واحدة من ثلاث إجابات مشتركة.

الحالات الأولى. لقد تم بالفعل رفع دعوى قضائية ضد العديد من شركات الذكاء الاصطناعي من قبل المؤلفين والفنانين وشركات الإعلام، بدعوى أنهم استخدموا بشكل غير قانوني أعمالًا محمية بحقوق الطبع والنشر لتدريب نماذج الذكاء الاصطناعي الخاصة بهم. حتى الآن، استهدفت معظم الدعاوى القضائية مشاريع الذكاء الاصطناعي مفتوحة المصدر أو المشاريع التي تكشف عن معلومات مفصلة حول نماذجها. (في نهاية المطاف، من الصعب مقاضاة شركة لاستهلاك أعمالك الفنية إذا كنت لا تعرف أي عمل فني تم استهلاكه). يشعر محامو شركات الذكاء الاصطناعي بالقلق من أنه كلما تحدثوا أكثر عن كيفية بناء نماذجهم، كلما زاد انفتاحهم . يصل إلى الدعاوى القضائية باهظة الثمن والمزعجة نفسها.

READ  لم يعد الكمبيوتر المحمول Dell XPS، كما نعرفه ونحبه، موجودًا

الاستجابة المشتركة الثانية هي المنافسة. تعتقد معظم شركات الذكاء الاصطناعي أن نماذجها تعمل لأن لديها نوعًا من الخلطة السرية – مجموعة بيانات عالية الجودة لا تمتلكها الشركات الأخرى، وتقنية ضبط دقيقة تنتج نتائج أفضل، وبعض التحسين الذي يمنحها ميزة. إذا أجبرت شركات الذكاء الاصطناعي على إطلاق هذه الوصفات، فهم يجادلون، فهم يجادلون، فإنك تتنازل عن الحكمة التي اكتسبتها بشق الأنفس لمنافسيهم الذين يمكنهم تقليدها بسهولة.

الإجابة الثالثة التي أسمعها كثيرًا هي الأمن. يعتقد بعض خبراء الذكاء الاصطناعي أنه إذا كشفت شركات الذكاء الاصطناعي عن مزيد من المعلومات حول نماذجها، فسوف يتسارع التقدم السريع في الذكاء الاصطناعي، لأن كل شركة ستشاهد ما يفعله جميع منافسيها وستحاول على الفور التفوق عليهم من خلال بناء شيء أفضل وأكبر وأسرع. نموذج. ويقول هؤلاء الأشخاص إن ذلك من شأنه أن يمنح المجتمع وقتًا أقل لتنظيم الذكاء الاصطناعي وإبطائه، وقد يعرضنا جميعًا للخطر إذا أصبح الذكاء الاصطناعي قادرًا بسرعة كبيرة جدًا.

الباحثون في جامعة ستانفورد لا يصدقون هذه التفسيرات. ويعتقدون أنه يجب الضغط على شركات الذكاء الاصطناعي لنشر أكبر قدر ممكن من المعلومات حول النماذج القوية، حيث يحتاج المستخدمون والباحثون والمنظمون إلى معرفة كيفية عمل هذه النماذج، وما هي حدودها ومدى خطورتها.

وقال ريشي بوماساني، أحد الباحثين: “مع تزايد تأثير هذه التكنولوجيا، تتناقص الشفافية”.

أنا موافق. إن نماذج الثقة أقوى من أن تكون مبهمة للغاية، وكلما زادت معرفتنا بهذه الأنظمة، كلما تمكنا من فهم التهديدات التي تشكلها، والفوائد التي يمكن أن توفرها، أو كيف يمكن السيطرة عليها.

إذا كان المسؤولون التنفيذيون في مجال الذكاء الاصطناعي يشعرون بالقلق إزاء الدعاوى القضائية، فيتعين عليهم أن يناضلوا من أجل الحصول على إعفاء الاستخدام العادل الذي يحمي القدرة على استخدام المعلومات المحمية بحقوق الطبع والنشر لتدريب نماذجهم بدلا من إخفاء الأدلة. وإذا كانوا قلقين بشأن الكشف عن الأسرار التجارية للمنافسين، فيمكنهم الكشف عن أنواع أخرى من المعلومات أو حماية أفكارهم من خلال براءات الاختراع. إذا كانوا قلقين بشأن بدء سباق تسلح للذكاء الاصطناعي… حسنًا، ألسنا في سباق بالفعل؟

READ  يضيف التحديث الأخير للخيوط علامة تبويب "متابعة" ، لكنه لا يفعل ما تريد

لا يمكننا القيام بثورة الذكاء الاصطناعي في الظلام. نحن بحاجة إلى النظر داخل الصناديق السوداء للذكاء الاصطناعي لنرى ما إذا كنا سنسمح له بتغيير حياتنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *