گھر آڈیو مصنوعی بار بار چلنے والے اعصابی نیٹ ورکس کی تربیت کرنے میں اکثر سخت کیوں رہتے ہیں؟

مصنوعی بار بار چلنے والے اعصابی نیٹ ورکس کی تربیت کرنے میں اکثر سخت کیوں رہتے ہیں؟

Anonim

سوال:

مصنوعی بار بار چلنے والے اعصابی نیٹ ورکس کی تربیت کرنے میں اکثر سخت کیوں رہتے ہیں؟

A:

مصنوعی بار بار اعصابی نیٹ ورک کی تربیت کرنے میں دشواری کا ان کی پیچیدگی سے واسطہ پڑتا ہے۔

بار بار اعصابی نیٹ ورک کی تربیت کرنا کیوں مشکل ہے اس کی وضاحت کرنے کا ایک آسان ترین طریقہ یہ ہے کہ وہ فیڈفورڈ اعصابی نیٹ ورک نہیں ہیں۔

فیڈفورڈ اعصابی نیٹ ورک میں ، سگنل صرف ایک ہی راستہ پر منتقل ہوتے ہیں۔ سگنل ایک ان پٹ پرت سے مختلف پوشیدہ پرتوں ، اور آگے ، نظام کی آؤٹ پٹ پرت میں منتقل ہوتا ہے۔

اس کے برعکس ، اکثر اعصابی نیٹ ورک اور دیگر مختلف قسم کے اعصابی نیٹ ورک میں سگنل کی زیادہ پیچیدہ حرکت ہوتی ہے۔ "فیڈ بیک" نیٹ ورک کی حیثیت سے منسلک ، بار بار چلنے والے اعصابی نیٹ ورکس میں سگنل ہوسکتا ہے جس میں آگے اور پیچھے دونوں کا سفر ہوتا ہے ، اور اس میں نیٹ ورک میں مختلف "لوپ" شامل ہوسکتے ہیں جہاں نمبروں یا قدروں کو نیٹ ورک میں کھلایا جاتا ہے۔ ماہرین اس کو بار بار اعصابی نیٹ ورک کے اس پہلو سے وابستہ کرتے ہیں جو ان کی یادوں سے وابستہ ہوتا ہے۔

اس کے علاوہ ، ایک اور طرح کی پیچیدگی ہے جو بار بار اعصابی نیٹ ورک کو متاثر کرتی ہے۔ اس کی ایک عمدہ مثال قدرتی زبان پروسیسنگ کے میدان میں ہے۔

نفیس قدرتی زبان کی پروسیسنگ میں ، عصبی نیٹ ورک کو چیزوں کو یاد رکھنے کے قابل ہونے کی ضرورت ہے۔ اسے سیاق و سباق میں ان پٹ لینے کی بھی ضرورت ہے۔ فرض کریں کہ کوئی پروگرام ہے جو دوسرے لفظوں کے جملے میں کسی لفظ کا تجزیہ یا پیش گوئی کرنا چاہتا ہے۔ مثال کے طور پر ، نظام کی تشخیص کے ل five پانچ الفاظ کی ایک مقررہ لمبائی ہوسکتی ہے۔ اس کا مطلب یہ ہے کہ اعصابی نیٹ ورک کو ان الفاظ میں سے ہر ایک کے لئے ان پٹ ہونا ضروری ہے ، اس کے ساتھ ان الفاظ کے تناظر میں "یاد رکھنے" یا تربیت دینے کی صلاحیت بھی ہے۔ ان اور اسی طرح کی دیگر وجوہات کی بناء پر ، بار بار چلنے والے اعصابی نیٹ ورکس میں عام طور پر یہ بہت کم پوشیدہ لوپ ہوتے ہیں اور نظام میں فیڈ بیک۔

ماہرین نے افسوس کا اظہار کیا کہ ان پیچیدگیاں سے نیٹ ورکس کی تربیت مشکل ہو جاتی ہے۔ اس کی وضاحت کرنے کا ایک سب سے عام طریقہ یہ ہے کہ پھٹنے اور تدریجی مسئلے کو ختم کرنا۔ بنیادی طور پر ، نیٹ ورک کا وزن یا تو پھیل جائے گا یا بڑی تعداد میں گزرے ہوئے اقدار کو مٹا دے گا۔

عصبی نیٹ ورک کے علمبردار جیف ہنٹن نے ویب پر اس رجحان کی وضاحت کرتے ہوئے کہا ہے کہ پسماندہ خطی گزرنے سے چھوٹے وزن تیزی سے سکڑ جاتے ہیں اور بڑے وزن پھٹ جاتے ہیں۔

وہ جاری رکھتا ہے ، یہ لمبے لمبے لمبے لمبے لمبے لمبے لمحے ، اور جس میں اشارے بڑھتے یا خراب ہوتے چلے جاتے ہیں ، کے ساتھ یہ خراب ہوتا جاتا ہے۔ وزن کی ابتدا میں مدد مل سکتی ہے ، لیکن یہ چیلنج بار بار اعصابی نیٹ ورک ماڈل میں شامل ہیں۔ یہ مسئلہ ہمیشہ ان کے مخصوص ڈیزائن اور تعمیر سے منسلک ہوتا رہتا ہے۔ بنیادی طور پر ، کچھ پیچیدہ قسم کے اعصابی نیٹ ورک واقعی آسانی سے ان کا انتظام کرنے کی ہماری صلاحیت سے انکار کرتے ہیں۔ ہم عملی طور پر لامحدود پیچیدگی پیدا کرسکتے ہیں ، لیکن ہم اکثر دیکھتے ہیں کہ پیش گوئی اور توسیع پذیر چیلنجز بڑھتے ہیں۔

مصنوعی بار بار چلنے والے اعصابی نیٹ ورکس کی تربیت کرنے میں اکثر سخت کیوں رہتے ہیں؟