الأب الروحي للذكاء الاصطناعي جيفري هينتون يحذر من المزالق وهو يغادر جوجل

عنوان مقطع الفيديو،

شاهد: يخبر جيفري هينتون ، “الأب الروحي” للذكاء الاصطناعي ، هيئة الإذاعة البريطانية (بي بي سي) عن مخاطر الذكاء الاصطناعي عندما يغادر جوجل

استقال رجل يُنظر إليه على نطاق واسع على أنه والد الذكاء الاصطناعي (AI) من وظيفته بعد تحذيره من المخاطر التي تشكلها التطورات في هذا المجال.

أعلن جيفري هينتون ، 75 عامًا ، استقالته من Google في بيان لصحيفة نيويورك تايمز ، قائلاً إنه نادم الآن على عمله.

وقال لبي بي سي إن بعض مخاطر روبوتات الدردشة للذكاء الاصطناعي “مخيفة للغاية”.

“في الوقت الحالي ، هم ليسوا أذكى منا ، بقدر ما أستطيع أن أقول. لكنني أعتقد أنهم قد يكونون قريبين.”

قال الدكتور هينتون لبي بي سي: “أنا في الخامسة والسبعين من عمري ، لذا حان وقت التقاعد” ، معترفًا بأن عمره لعب دورًا في قراره ترك شركة التكنولوجيا العملاقة.

مهدت أبحاث الدكتور هينتون الرائدة حول التعلم العميق والشبكات العصبية الطريق لأنظمة الذكاء الاصطناعي الحالية مثل ChatGPT.

لكن عالم النفس المعرفي وعالم الكمبيوتر البريطاني الكندي قال لبي بي سي إن روبوتات المحادثة قد تتفوق قريبًا على المعلومات التي يحملها الدماغ البشري.

“ما نراه الآن هو أن GPT-4 يتفوق على مستوى الفطرة السليمة لدى الشخص ويتفوق عليه كثيرًا. من حيث التفكير ، ليس هذا جيدًا ، ولكنه بالفعل كذلك. التفكير البسيط.

“وبالنظر إلى معدل التقدم ، نتوقع أن تتحسن الأمور بسرعة كبيرة. لذلك يجب أن نشعر بالقلق حيال ذلك.”

في مقال نشرته صحيفة نيويورك تايمز ، أشارت الدكتورة هينتون إلى “جهات فاعلة سيئة” تحاول استخدام الذكاء الاصطناعي في “الأعمال السيئة”.

وعندما سألته بي بي سي عن مزيد من التفاصيل ، أجاب: “إنه نوع من أسوأ السيناريوهات ، نوع من سيناريو الكابوس.

“على سبيل المثال ، يمكنك تخيل بعض الجهات الفاعلة السيئة [Russian President Vladimir] قرر بوتين منح الروبوتات القدرة على إنشاء أهداف فرعية خاصة بهم “.

وحذر العالم من أن هذا يمكن أن يؤدي في النهاية إلى إنشاء “أهداف فرعية مثل” أريد المزيد من القوة “.

وأضاف: “لقد توصلت إلى استنتاج مفاده أن المعلومات الاستخباراتية التي نطورها مختلفة تمامًا عن المعلومات الاستخباراتية التي لدينا.

“نحن أنظمة بيولوجية وهذه أنظمة رقمية. والفرق الكبير هو أنه مع الأنظمة الرقمية ، توجد نسخ متعددة من نفس الوزن ونفس نموذج العالم.

“ويمكن لجميع هذه النسخ المتماثلة التعلم بشكل فردي ، ولكن مشاركة معارفهم على الفور. لذلك يبدو الأمر كما لو أن لديك 10000 شخص ، وكلما تعلم المرء شيئًا ما ، يعرفه الجميع تلقائيًا. ويمكن لبرامج الدردشة هذه أن تتعلم أكثر من أي شخص واحد.”

لم يكن يريد أن ينتقد Google وأصر على أن عملاق التكنولوجيا قد تصرف “بمسؤولية كبيرة”.

“لدي بالفعل بعض الأشياء الجيدة لأقولها عن Google. ستكون أكثر مصداقية إذا لم أعمل في Google.”

قال جيف دين ، كبير العلماء في Google ، في بيان: “نحن ملتزمون بنهج مسؤول تجاه الذكاء الاصطناعي. نواصل تعلم كيفية فهم المخاطر الناشئة بينما نبتكر بجرأة.”

عنوان مقطع الفيديو،

انظر: ما هو الذكاء الاصطناعي؟

READ  تعتذر Google عن إرسال السائقين على الطرق الالتفافية بين لوس أنجلوس وفيغاس

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *