Cookie Policy Terms and Conditions شبكات عصبونية اصطناعية - ويكيبيديا، الموسوعة الحرة

شبكات عصبونية اصطناعية

من ويكيبيديا، الموسوعة الحرة

الشبكة العصبونية شبكة مترابطة من عقد تعمل بأسلوب مشابع لعصبونات الدماغ البشري
الشبكة العصبونية شبكة مترابطة من عقد تعمل بأسلوب مشابع لعصبونات الدماغ البشري

الشبكات العصبونية الاصطناعية (artificial neural network ANN) أو ما يدعى أيضا بالشبكات العصبونية المحاكية simulated neural network أو SNN : مجموعة مترابطة من عصبونات افتراضية تنشئها برامج حاسوبية لتشابه عمل العصبون البيولوجي أو بنى الكترونية (شيبات الكترونية مصممة لمحاكاة عمل العصبونات ) تستخدم النموذج الرياضي لمعالجة المعلومات بناء على الطريقة الاتصالية في الحوسبة. تتألف الشبكات العصبونية بشكل عام عناصر معالجة بسيطة تقوم بعمل بسيط لكن السلوك الكلي للشبكة يتحدد من خلال الاتصالات بين مختلف هذه العناصر التي تدعى هنا بالعصبونات و مؤشرات هذه العناصر element parameters . الإيحاء الأول بفكرة الشبكات العصبونية أتى من آلية عمل العصبونات الدماغية التي يمكن تشبيهها بشبكات بيولوجية كهربائية لمعالجة المعلومات الواردة إلى الدماغ . في هذه الشبكات اقترح دونالد هب أن المشبك العصبي يلعب دورا أساسيا في توجيه عملية المعالجة و هذا ما دفع للتفكير في فكرة الإتصالية والشبكات العصبونية الاصطناعية . تتالف الشبكات العصبونية الاصطناعية من عقد أو ما قد ذكرنا مسبقا انه عصبونات neurons أو وحدات معالجة processing elements ، متصلة معا لتشكل شبكة من العقد ، و كل اتصال بين هذه العقد يملك مجموعة من القيم تدعى الأوزان تسهم في تحديد القيم الناتجة عن كل عنصر معالجة بناء على القيم الداخلة لهذا العنصر .

فهرس

[تحرير] مقدمة

يكمن أحد أسباب تفوق الدماغ البشري في قدرته على معالجة المعطيات في شكل هيكلي بمعني ان كل جزء من المخ له وظيفه و يشرف علي عمله جزء اخر يدير عمله و يستطيع ان يغير عمل الاجزاء ويسمي ذلك Plasticity كما ان كل جزء من المخ يعمل بصفه منفصله عن الاخر كما لو كان جهاز كمبيوتر به عدد كبير جدا من المعالجات(Processors) ، أجهزة الحاسوب اليوم تقوم بمحاكاة هذه العملية في ما يسمى حوسبة متوازية، Parallel Computing، و بالرغم من السرعة العالية الناتجة عن هذه التقنية إلا أنها تفتقر إلى القدرة على الإستقلال بحل المشكلة، وذلك لان الحاسب الالكتروني يقوم بارسال بيانات كثيرة جدا في صورة رقمية بينه كل من اجزائه اما المخ فيقوم بعمل ذلك في صورة رقميه في بعض الاماكن وفي اماكن اخري في صورة انالوج كما ان الكمبيوتر يرسل عدد كبير من البيانات المتكرره ولكن المخ لايرسل بيانات متكرره و مثال علي ذلك الكاميرا فهي ترسل حالة كل نقطه تصورها واذا لم تتغير الحاله ترسلها كما هي ايضا اما العقل فيرسل التغيير فقط وذلك علي شكل Spikes او اشارات عصبية.

دونالد هيب،Hebb في كتابه منظمة السلوك 1949م، أشار إلى أنّ المشابك العصبية الروابط (العصبونات) بين الخلايا العصبية تقوى كلما تم إستعمالها أكثر بمعني ان اذا يوجد عدد من الخلايا بجانب بعض ولكن اثنين منهم يقومان بنقل بينات بصورة كثيفه فتقوي الوصله بينهما و تصبح عملية معالجتها للعمليات أسرع مع تكرار إثارتها بنفس المعطيات. كانت هذه بداية التفكير لما يسمى بالمعالجات العصبية أو الشبكات العصبية و التي كانت مطروحة في وقتها على صورة خلايا و ليس شبكات مترابطة. في الخمسينات من القرن العشرين قامت شركة أي بي إم بأول محاولة لمحاكاة الخلية العصبية، و نجح ذلك بعد عدة محاولات فاشلة.و لكن كان علم الكمبيوتر في ذلك الوقت يتجه ناحية الحساب المتسلسل مما أدى إلى إهمال موضوع الخلايا العصبية و وضعه في الأدراج.

في نهاية الخمسينيات، بدأ فرانك روزنبلات بالعمل على ما يدعى اليوم بالبيرسيبترون، Perceptron، حيث كان قادرا على فصل النقاط القابلة للفصل خطيّا دون النقاط غير القابلة للفصل خطيا . و هذا ما اعتبر عيبا ضخما في البيرسبترون . في عام 1959م قام برنارد فيدرو و ماركيان هووف ببناء نموذجي عنصر تكيفي خطي آدالاين ADAptive LINear Element و مجموعة عناصر تكيفية خطية مادالاين Many ADALINE. كان هذا هو أول ظهور للشبكات العصبية بشكلها الحالي. كانت تستخدم كفلاتر أو مرشحات قابلة للتكيف (Adaptive Filter) لإلغاء الصدى من خطوط الهاتف. و ما تزال تستعمل تجاريا حتى هذا الوقت.

[تحرير] وصف عام لآلية عمل العصبون الاصطناعي

نموذج لعصبون اصطناعي.
نموذج لعصبون اصطناعي.

بشكل عام يمكننا ان نقول أن كل شبكة عصبية ترتب بشكل طبقات من الخلايا الاصطناعية : طبقة داخلية و طبقة خارجية و طبقات بينهم او مخفية تتواجد بين طبقتي الدخل و طبقة الخارج . كل خلية في احدى هذه الطبقات يتصل بكافة العصبونات الموجودة في الطبقة التي تليه و كافة العصبونات في الطبقة التي تسبقه.

حينما فكروا في البداية وجدوا ان الخلايا العصبية تقوم بعملية جمع لاشارات بمعني انه يوجد وصلتين لخلية عصبية مثلا وكل وصلة عليها إشارة تكون النتيجه هي محصلة الاشارات بالجمع العادي و من ثم وجدوا ان كل عصبون يستطيع ان يقوم بعمل تكبير او تصغير فتم اضافة عاملة اسمه (Weighting Factor) بمعني انه اذا كان هناك خلية مثلا ولها مدخلان فيتم ضرب الاشارة الاولي في المعالم الخاص بالعصبون هذا وكذا للمدخل الثاني و من ثم يتم جمعهم و علي ذلك تم بناء النظام الهندسي للخلايا الصناعية مع الاخذ في الاعتبار انه ليس صحيح 100% بالنسبة للخلايا العصبية البيولوجية كما سيوضح لاحقا.


[تحرير] طريقة معالجة المعلومات

كل اتصال بين عصبون و آخر يتميز بارتباطه بقيمة تدعى الوزن (Weighting) و هي تشكل مدى أهمية الارتباط بين هذين العنصرين ، يقوم العصبون بضرب كل قيمة دخل واردة من عصبونات الطبقة السابقة بأوزان الاتصالات مع هذه العصبونات ، من ثم جمع نواتج الضرب جميعا ، ثم إخضاع النتيجة لتابع تحويل يختلف حسب نوع العصبون ، ناتج تابع التحويل يعتبر خرج العصبون الذي ينقل إلى عصبونات الطبقة اللاحقة .


[تحرير] أختلاف مع الخلايا العصبية البيولوجية

الخلايا العصبية البيولوجيه هي اعقد كثيرا فيوجد مثلا ثلاثة انواع للخلايا اما خلايا متواجدة داخل مكان واحد (Local Network Cell) وفي الغالب تكون مستقبلة excitatory او محدثه inhibitory للاشارة Spike او خلايا (long Range connection) وهي خلايا تربط بين اماكن مختلفه من المخ وفي الغالب تكون مستقبلة او خلايا حساب المجموع.

يوجد شئ اسمه Dendrite او العصبون وهذا في النموذج الهندسي عبارة عن سلكة ليس لها تاثير علي الاشارة الداخله للخلية اما في الحقيقة فان ذلك الجزء تعتبر مجموعة من الدوائر الالكترونية القادرة علي احداث الاشارة ذاتيا و هي تعامل معاملة المكثفات و الملفات Active Component كما انه وجد ان هذة العصبونات لها تأثير علي بعض فمثلا اذا تواجدت العصبونات بجانب بعض فتجمع الاشارة بجمع غير خطي nonlinear اما اذا كان العصبونات بعيدة عن بعض فتجمع جمع خطي عادي.

الخلايا العصبية البيولوجية قادرة علي تغيير معاملات العصبونات Plasticity وهذا معناه انها قادرة علي تغيير تشكيلها لمناسبة اقصي مجهود مطلوب باقل الوصلات. وتقوم بعملية التغيير هذة بطريقتين اما طريقة اسمها Long Term Plasticity وهذا معناه تغيير معاملات العصبونات و ذلك ايضا معناه تغيير وظيفة الخلايا الصناعية و هذا معروف فمثلا خلايا النظر في الكفيف تغير وظيفتها بعد زمن معين من عدم العمل الي وظيفة خلايا سمعية وذلك يتم عن طريق تغيير المعاملات و الطريقة الاخري هي Short Term Plasticity و هذا معناه ان الخلايا العصبية قادرة علي تغيير حجم الاشارة الخارجه منها حسب الوقت و الظروف بمعني انه في بعض الاحيان يكون الخارج منها مكبر بصورة كبيرة وبعض الاحيان الاخري يكون الخارج مصغر و لازال الاسباب غير معروفه حتي الان.

[تحرير] البنية

تعتبر الشبكات العصبونية الاصطناعية ، أو اختصارا الشبكات العصبونية ، مجموعة متوازية من وحدات المعالجة الصغيرة و البسيطة التي تدعى بالعقد أو العصبونات ، في حين تكتسب الاتصالات البينية بين مختلف هذه الوحدات أهمية خاصة و تقوم بدور كبير في خلق ذكاء الشبكة . لكن على العموم ، و رغم أن الفكرة أساسا مستوحاة من آلية عمل العصبونات الدماغية فلا يجب أن نخلط كثيرا أو نشابه بين الدماغ و الشبكات العصبونية فالشبكات العصبونية أصغر و أبسط من العصبونات البيولوجية و قد تكون مجرد وحدات افتراضية تنشأها برامج الحاسب ، كما إن آلية عمل العصبونات الاصطناعية تقتبس بعض ميزات العصبون البيولوجي و لا تشابهه تماما ، بالمقابل أضيفت العديد من الميزات و تقنيات المعالجة إلى العصبونات الاصطناعية بناء على أفكار رياضية أو هندسية ، و هذه الإضافات أو أساليب العمل الجديدة ( بعضها مقتبس من الإحصاء أو من نظرية المعلومات ) لا ترتبط بالعصبونات البيولوجية أبدا . بالمقابل تبدي الشبكات العصبونية ميزة مهمة كان الدماغ يتفرد بها إلا و هي التعلم و هذا ما يمنح هذه الشبكات أهمية خاصة في الذكاء الصنعي .

اقرأ أيضا : عصبون اصطناعي, بيرسيبترون

[تحرير] نماذج الشبكات العصبونية

تم استيحاء آلية عمل العصبون الاصطناعي من عصبونات الدماغ : ففي العصبونات الحيوية ، يمكن ان ننسب لكل مشبك اتصال قادم incoming synapse (أي مشابك التفرعات العصبية dendrite ) قيمة تدعى وزن المشبك weight تساعد هذه القيمة في نمذجة المشبك (عن طريق تحديد قيمته و أهميته) فالوزن يحدد قوة هذا المشبك و أثره في العصبون . يضرب وزن كل مشبك بالدخل القادم ، و من ثم تجمع نواتج الضرب لكل المشابك القادمة . عادة ما تكون العصبونات البيولوجية تابعة لقاعدة قيمة العتبة 'threshold value' فإذا كان المجموع الموزون weighted Sum لقيم الدخل أكبر من قيمة معينة تدعى العتبة threshold ، يضطرم العصبون او لنقل انه يتفعّل مرسلا إشارة كهربائية تدعى كمون الفعل على طول المحور العصبي axon و من ثم تصل هذه الإشارة عن طريق تفرعات المحور إلى كل المشابك الخارجة outgoing synapses التي تتصل بعصبونات اخرى في الدماغ

الشبكات العصبونية النموذجية تحاول ان تقلد هذا السلوك ، فكل عقدة عصبونية تتلقى مجموعة من المدخلات عن طريق اتصالاتها بالعصبونات القبلية و كل عقدة لها تابع تفعيل activation function أو تابع تحويل transfer function ، يحدد للعقدة متى و كيف تعمل أي لحظة و قيمة الخرج التي يجب أن تعطيها تماما كما العصبون البيولوجي .

أبسط توابع التحويل هو تابع قيمة العتبة الذي يعمل العصبون على أساسه : معطيا قيمة 1 إذا كان المجموع الموزون لقيم الداخلي أكبر من قيمة معينة تدعى العتبة و 0 إذا كان المجموع الموزون اقل من العتبة . لكن توابع التحويل يمكن لها ان تأخذ أشكالا اخرى أكثر تعقيدا أهمها تابع السيغمويد (التابع الأسي ), و لا تخلو شبكة من بعض عقد عصبية تملك تابع تحويل أسي ، بشكل عام معظم توابع التحويل تحول قيمة المجموع الموزون لقيم الدخل إلى قيمة وحيدة محصورة في المجال [0-1] .

واحدة من أهم أنواع الشبكات العصبونية : الشبكة العصبونية أمامية التغذية و هي مجموعة عقد عصبونية مرتبة بشكل طبقات . ترتبط هذه العصبونات مع بعضها عادة بحيث يرتبط كل عصبون في طبقة ما بجميع العصبونات في الطبقة التالية (لا ترتبط عصبونات نفس الطبقة مع بعضها) .

الشكل النموذجي لهذه الشبكات هو ثلاث طبقات عصبونية على الأقل تدعى (طبقة دخل input layer ، طبقة مخفية hidden layer ، طبقة خرج output layer ) طبقة الدخل لا تقوم بأي عملية معالجة فهي ببساطة مكان تغذية الشبكة بشعاع البيانات ، تقوم طبقة الدخل بعد ذلك بتغذية (نقل المعلومات) الطبقة المخفية و من ثم تقوم الطبقة المخفية بتغذية طبقة الخرج . المعالجة الفعلية للبيانات Data تتم في الطبقة المخفية و طبقة الخرج أساسا .

عندما يكون هناك عدد كاف من العصبونات في كل طبقة ، تكون الشبكة قادرة على التدرب training للقيام بأشياء مفيدة بالاستعانة بخوارزميات التدريب training algorithm ، تعتبر الشبكات أمامية التغذية مهمة جدا خاصة في استخدامات التصنيف الذكي و التمييز الذكي لبيانات غير مألوفة مسبقا .

[تحرير] حسابات الشبكات العصبونية

تابع السيغمويد هو الأكثر شيوعا كتابع تحويل للعصبونات لأنه يؤمن اللاخطية في حسابات الشبكة العصبونية عن طريق تحويل قيمة تفعيل النيورون ضمن المجال [0,1]. إضافة لذلك فهو يؤمن ميزة اضافية تتلخص في بساطة تابعه المشتق ، المطلوب في خوارزمية الانتشار الخلفي back-propagatation للأخطاء و هي احدى خوارزميات التعليم المراقب المستخدمة في الشبكات أمامية التغذية .

[تحرير] الإستعمالات

  • الذكاء الإصطناعي
  • تقريب الدوال
  • التعرف على الأشخاص
  • التعرف على المواقف
  • التعرف على الصوت أو الصورة إلخ
  • التعرف على الخطوط و الكتابة باليد
  • التحكم
  • محاكاة الأنظمة
  • النمذجة
  • الفلترة

[تحرير] الأسس البيولوجية

تعتمد الشبكات العصبية على تقليد عمل أعصاب الدماغ.

[تحرير] أنواع الشبكات العصبونية

شبكات عصبونية أمامية التغذية خلفية النقل Backpropagation Feedforward Neuralnetworks .

[تحرير] تعليم الشبكات العصبونية

الشباكات العصبونية لا تبرمج بل إنها تقوم بالتعلم.

[تحرير] الآفاق

  • إن محاولة بناء شبكات عصبونية عن طريق البرمجة( أي أن الشبكة العصبونية هي عبارة عن برنامج كمبيوتر ) تضع حدا لعدد النورونات التي نريد إستعمالها لحل مشكلة معينة فاليوم يمكن بهذه الطريقة استعمال بضعة مئات من العصبونات فحسب و ذلك لصعوبة تعليم الشبكات العصبونية.
  • أما الشبكات العصبونية المبنية على أسس عتادية ( أي أن الشبكة النورونية هي عبارة عن عن وصلات كهربائية أو شيب) فإن عدد العصبونات المستعملة يصل إلى 30.000 وللمقارنة فإن الحلزون يمتلك 20.000 خلية مخية أو ما يسمى عصبونا .
  • كما أنه قد نجح بعض العلماء في تصنيع بعض الخلايا المخية إنطلاقا من بعض خلايا دماغ الفئران ثم استعمال هذه العصبونات البيولوجية في تسيير برنامج لمحاكات الطيران و هذه خطوة قد تتيح استعمال العصبونات البيولوجية لحل المسائل

[تحرير] مواضيع متعلقة

[تحرير] مراجع

  • مقدمة في الشبكات العصبية الاصطناعية - ويكيبوكس - قسم الذكاء الصناعي.

[تحرير] وصلات خارجية

اقرأ نصا ذا علاقة بشبكات عصبونية اصطناعية، في ويكي الكتب.
هذه بذرة مقالة عن موضوع علمي تحتاج للنمو والتحسين؛ فساهم في إثرائها بالمشاركة في تحريرها.
Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu