استمع وتعلم: تعالج أنظمة الذكاء الاصطناعي إشارات الكلام مثل أدمغة البشر

ملخص: يمكن لأنظمة الذكاء الاصطناعي (AI) معالجة إشارات مشابهة لكيفية تفسير الدماغ للكلام ، مما يساعد في شرح كيفية عمل أنظمة الذكاء الاصطناعي. قام العلماء بقياس موجات دماغ المشاركين باستخدام أقطاب كهربائية على رؤوسهم أثناء استماعهم لحرف واحد وقارنوا نشاط الدماغ هذا بنشاط نظام ذكاء اصطناعي مدرب لتعلم اللغة الإنجليزية ، ووجدوا أنماطًا متشابهة بشكل ملحوظ ، مما قد يساعد في تطوير أنظمة قوية بشكل متزايد. .

مفتاح الحقائق:

  1. في دراسة نُشرت مؤخرًا في مجلة Scientific Reports ، وجد الباحثون أن الإشارات التي تم إنشاؤها بواسطة نظام ذكاء اصطناعي مدرب لتعلم اللغة الإنجليزية كانت مشابهة بشكل ملحوظ لموجات الدماغ التي تم قياسها عندما سمع المشاركون الحرف الواحد “pa”.
  2. استخدم الفريق نظامًا من الأقطاب الكهربائية الموضوعة على رؤوس المشاركين لقياس موجات الدماغ أثناء الاستماع إلى الصوت ، ثم قارنوا نشاط الدماغ بالإشارات التي يولدها نظام الذكاء الاصطناعي.
  3. أصبح فهم كيف ولماذا توفر أنظمة الذكاء الاصطناعي المعلومات التي تقدمها أمرًا ضروريًا لأنها أصبحت متأصلة في الحياة اليومية في مجالات تتراوح من الرعاية الصحية إلى التعليم.
  4. ستساعد دراسة الموجات في شكلها الأولي الباحثين على فهم وتحسين كيفية تعلم هذه الأنظمة وتعكس الإدراك البشري.

مصدر: جامعة كاليفورنيا في بيركلي

أظهر بحث جديد من جامعة كاليفورنيا ، بيركلي أن أنظمة الذكاء الاصطناعي (AI) يمكنها معالجة إشارات مشابهة لكيفية تفسير الدماغ للكلام ، والتي يقول العلماء إنها يمكن أن تساعد في تفسير الصندوق الأسود لكيفية عمل أنظمة الذكاء الاصطناعي. .

باستخدام نظام من الأقطاب الكهربائية الموضوعة على رؤوس المشاركين ، قام العلماء في مختبر بيركلي للحساب والكلام بقياس موجات الدماغ بينما سمع المشاركون حرفًا واحدًا – “pa”. قارنوا نشاط الدماغ بالإشارات التي تم إنشاؤها بواسطة نظام ذكاء اصطناعي مدرب لتعلم اللغة الإنجليزية.

قال كاسبار بيغاس ، الأستاذ المساعد في علم اللغة في جامعة كاليفورنيا في بيركلي والمؤلف الرئيسي للدراسة ، التي نُشرت مؤخرًا في المجلة: “الأنماط متشابهة بشكل لافت للنظر”. التقارير العلمية. “يخبرك أن نفس الأشياء مشفرة ، والمعالجة متشابهة.”

READ  لماذا يرسل الناس ملاحظات صوتية؟ يقول الجيل Z إن الصوت شخصي أكثر من النص

يوضح الرسم البياني للمقارنة جنبًا إلى جنب للإشارتين هذا التشابه.

وأضاف بيغاس: “لا توجد تغييرات في البيانات”. “إنه خام”.

تطورت أنظمة الذكاء الاصطناعي بسرعة في الآونة الأخيرة. منذ أن أصبحت ChatGPT عالمية العام الماضي ، من المتوقع أن تحدث هذه الأدوات ثورة في قطاعات المجتمع وتحدث ثورة في كيفية عمل ملايين الأشخاص. ولكن على الرغم من هذه التطورات المثيرة للإعجاب ، فإن العلماء لديهم فهم محدود لكيفية عمل الأجهزة التي قاموا بإنشائها بالضبط بين المدخلات والمخرجات.

يحتوي ChatGPT على سؤال وجواب معياري لقياس ذكاء وبراعة نظام الذكاء الاصطناعي. لكن ما يحدث بين هذه الخطوات هو صندوق أسود. إن معرفة كيف ولماذا تقدم هذه الأنظمة المعلومات التي تقدمها – وكيف يتعلمون – يصبح أمرًا ضروريًا في مجالات تتراوح من الرعاية الصحية إلى التعليم حيث تصبح متأصلة في الحياة اليومية.

باجوس ومؤلفوه المشاركون ، آلان تشو من جامعة جونز هوبكنز ود. كريستينا تشاو من بين فريق العلماء الذين يعملون على فتح الصندوق.

للقيام بذلك ، لجأ بيجوس إلى تدريبه في اللغويات.

قال بيجوس إنه عندما نسمع الكلمات المنطوقة ، يدخل الصوت إلى آذاننا ويتحول إلى إشارات كهربائية. تنتقل هذه الإشارات عبر جذع الدماغ وتخرج إلى الأجزاء الخارجية من دماغنا.

باستخدام تجارب القطب الكهربائي ، تتبع الباحثون هذا المسار من خلال 3000 تكرار لنفس الصوت ووجدوا أن موجات الدماغ للكلام تتبع عن كثب الأصوات الفعلية للغة.

تمكن الباحثون من تفسير نفس تسجيل الصوت “pa” باستخدام شبكة عصبية غير خاضعة للإشراف – نظام ذكاء اصطناعي – مثل الصوت. باستخدام تقنية تم تطويرها في مختبر بيركلي للحساب والكلام ، قاموا بقياس الموجات المتماسكة وتوثيقها عند حدوثها.

تمكن الباحثون من تفسير نفس تسجيل الصوت “pa” باستخدام شبكة عصبية غير خاضعة للإشراف – نظام ذكاء اصطناعي – مثل الصوت. الائتمان: أخبار العلوم العصبية

تطلب البحث السابق خطوات إضافية لمقارنة الموجات من الأدمغة والآلات. قال بيجوس إن دراسة الموجات في شكلها الأولي ستساعد الباحثين على فهم وتحسين كيفية تعلم هذه الأنظمة وتقليد الإدراك البشري بشكل متزايد.

قال بيجوس “أنا مهتم جدًا كعالم في تفسير هذه النماذج”. “إنهم أقوياء للغاية. الكل يتحدث عنهم. والجميع يستخدمهم. ولكن لم يتم عمل الكثير في محاولة فهمهم.

READ  شحنات iPhone من Apple تنخفض بنسبة 10% مع صعود منافسي Android

يعتقد Begus أن ما يحدث بين المدخلات والمخرجات لا يجب أن يكون صندوقًا أسود. يعد فهم كيفية مقارنة هذه الإشارات مع نشاط الدماغ البشري معيارًا رئيسيًا في السباق لبناء أنظمة قوية بشكل متزايد. معرفة ما يحدث تحت الغطاء.

على سبيل المثال ، يمكن أن يساعد فهمها في وضع الضمانات في نماذج الذكاء الاصطناعي القوية بشكل متزايد. يمكن أن يحسن أيضًا فهمنا لكيفية دمج الأخطاء والتحيزات في عمليات التعلم.

قال بيجوس إنه وزملاؤه يتعاونون مع باحثين آخرين باستخدام تقنيات تصوير الدماغ لقياس كيفية مقارنة هذه الإشارات. إنهم يدرسون كيف يتم فك رموز اللغات الأخرى ، مثل الماندرين ، بشكل مختلف في الدماغ وما قد يشير ذلك حول الإدراك.

يتم تدريب العديد من النماذج على الإشارات المرئية مثل الألوان أو النص المكتوب – وكلاهما له آلاف الاختلافات على المستوى الحبيبي. ومع ذلك ، قال بيغوس إن اللغة تفتح الباب لمزيد من التفاهم الملموس.

على سبيل المثال ، تحتوي اللغة الإنجليزية على بضع عشرات من الأصوات فقط.

قال بيغوس: “إذا كنت تريد أن تفهم هذه النماذج ، عليك أن تبدأ بأشياء بسيطة. والكلام أسهل في الفهم. أعتقد حقًا أن الكلام يمكن أن يساعدنا في فهم كيفية تعلم هذه النماذج.”

في العلوم المعرفية ، يتمثل أحد الأهداف الأساسية في إنشاء نماذج رياضية تشبه البشر قدر الإمكان. أوجه التشابه الموثقة حديثًا في موجات الدماغ وموجات الذكاء الاصطناعي هي مقياس لمدى قرب الباحثين من تحقيق هذا الهدف.

قال بيجوس: “أنا لا أقول إننا يجب أن نجعل الناس يشبهونهم”. “أنا لا أقول إننا لسنا كذلك. ولكن من المهم أن نفهم كيف تتشابه أو تختلف البنى المختلفة عن البشر.

حول هذا البحث عن أخبار الذكاء الاصطناعي

مؤلف: مثل جايسون
مصدر: جامعة كاليفورنيا في بيركلي
اتصال: جايسون بول – جامعة كاليفورنيا في بيركلي
صورة: الفيلم يعود الفضل فيه إلى Neuronews

READ  يفتقد Starfield النجوم الكاملة عند تشغيله على وحدات معالجة الرسومات AMD Radeon

البحث الأصلي: الوصول المفتوح.
الطبقات التلافيفية وترميز جذع الدماغ للكلام بناءً على الخبرة اللغويةكاسبر بيجوس وآخرون. التقارير العلمية


ملخص

الطبقات التلافيفية وترميز جذع الدماغ للكلام بناءً على الخبرة اللغوية

شهدت مقارنة الشبكات العصبية الاصطناعية بمخرجات تقنيات التصوير العصبي مؤخرًا تطورات كبيرة في الرؤية (الكمبيوتر) ونماذج اللغة القائمة على النص. نقترح هنا إطارًا لمقارنة الحسابات العصبية البيولوجية والاصطناعية لتمثيلات اللغة المنطوقة ونطرح العديد من التحديات الجديدة لهذا النموذج.

تعتمد التقنية المقترحة على مبدأ مشابه لمبدأ تخطيط كهربية الدماغ (EEG): حساب متوسط ​​النشاط العصبي (الاصطناعي أو البيولوجي) عبر الخلايا العصبية في المجال الزمني ، ويسمح بمقارنة تشفير أي خصائص صوتية في الدماغ. شبكة عصبية اصطناعية.

يتيح لنا نهجنا مقارنة الاستجابات للخصائص الصوتية في الدماغ بشكل مباشر ولا تتطلب الشبكات العصبية العميقة تحويلات خطية بين الإشارات. نجادل في أن استجابة جذع الدماغ (cABR) والاستجابة في الطبقات التلافيفية الوسيطة لنفس الحافز متشابهة جدًا دون تطبيق أي تحويلات ، ونقوم بتحديد هذه الملاحظة.

لا تكشف التقنية المقترحة عن أوجه التشابه فحسب ، بل تسمح لنا أيضًا بتحليل تشفير الخصائص الصوتية الحقيقية في الإشارتين: نقارن (1) ذروة الكمون في cABR مقارنة بالمنبهات في جذع الدماغ و (2) الطبقات الالتفافية الإنسي. ذات الصلة بالمدخلات / المخرجات في الشبكات التلافيفية العميقة.

نقوم أيضًا بفحص ومقارنة تأثير التعرض للغة السابقة على ذروة الكمون في CAPR والطبقات التلافيفية الوسيطة. تظهر أوجه تشابه كبيرة في تشفير ذروة الكمون بين الدماغ البشري والشبكات التلافيفية الوسيطة بناءً على نتائج ثماني شبكات مدربة (بما في ذلك تجربة النسخ المتماثل).

يمكن استخدام التقنية المقترحة لمقارنة الترميز بين الدماغ البشري والطبقات التلافيفية الوسيطة لأي خاصية صوتية وتقنيات تصوير الأعصاب الأخرى.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *