Skip to content

Latest commit

 

History

History
38 lines (35 loc) · 6.83 KB

Part7.md

File metadata and controls

38 lines (35 loc) · 6.83 KB

#الجزء_السابع :

السلام عليكم، ايلا لاحظتو في الأجزاء اللي فاتو عمرني دويت ليكم على deep learning. تعمدت أنني مانطرقش ليه باش مانشتتش الإنتباه ديالكم حيت فيه الشرح بزاااف.

و أنا كنوجد فهاد الجزء كنلقى بالصدفة واحد دري كتب واحد المنشور على deep learning و فعلا نقص علي الخدمة و فطريقة توصيل الفكرة. أوك باش مانطول عليكم نخليكم مع المنشور تاعو :

" السلام و عليكم خوتي المغاربة المهتمين بالجديد و كل ما هو متعلق بالبرمجة... فهاد البوسط الخفيف هانهضر ليكوم شوية على machine learning و بشكل خاص هانهضر على واحد نوع من التعلم لي سميتو deep learning او التعليم العميق، لي كايتعتبر من اهم انواع التعلم الالي.. لمهم باش تفهم deep learning خاصك بعدا تفهم الشبكات العصبونية الاصطناعية لي هي استنساخ مباشر للشبكات العصبونية البشرية لي معقدة لواحد الدرجة لا تتصور و هي المسؤولة عن تحليل المعلومات و الاستنتاج و اتخاذ القرارات و التمييز... لمهم باش نرجعو الموضوع ديالنا الشبكة العصبونية رياضيا هي عبارة عن بنية كاتكون من input و output و بيناتهوم واحد الحويجات سميتهوم الطبقات المخفية او hidden layers لي خاصنا نفهمو هو ان هاد الطبقات كاتشكل من nodes او عقد بحيث كل وحدة فيهوم مرتبطة بواحد الرابط سميتو weigh او الوزن مع كل عقدة من الطبقة السابقة بالاضافة الى انه كايخزن فالقلب ديالو واحد العدد هانشوفوه كيفاش كايتحسب،لمهم هاد الوحدة الصغيرة(نسميوها aj) لي كاندويو عليها كادير هاد العملية البسيطة :

If( f((somme(a(i)*w(i,j) )+b(j)>0)) then aj=1 else aj=0

حيث f هي واحد الدالة كاتسمى activation function و هادوك,ai هو المحتوى ديال العقدة رقم i من الطبقة السابقة و wi هو الوزن لي كايوصف العلاقة بين العقدة aj و العقدة ai من الطبقة السابقة...بطريقة اخرى كل مافي الامر ان هذه العملية ماتشبه لعملية تمرير التيار من عدمه في الدماغ البشري...هادا هو المفهوم لاش بناو العلم كامل ... المهم دابا هاد العملية كادوز من طبقة لطبقة حتى كانوصلو ل output و كايكون عدنا واحد.النتيجية (مثلا الى كان عدنا 9 ديال العقد ف ouput و 1080 عقدة ف input نقدرو نقولو بلي هاد البنية ديالنا دارت باش نديرو classification للاعداد من 0-9 يعني كاندخلو للنظام واحد التصوير فالشكل ديال بيكسلز و داكشي كاينشر من بعد فالطبقات ديال الشبكة و كاتخرج لينا واحد النتيجة فالخرجة(يعني واحد العقدة لي تقريبا العدد لي داخلها هو 1 و العقد لخرين تقريبا 0 ، فهاد الحالة كانقولو ان النظام كايتوقع بلي ان هاد التصويرة غالبا كاتمثل الرقم كدا و كدا على سبيل المثال) مممممم هنايا كلشي خاصو يحط واحد التساؤل بسيط : واش ديما النظام لي بنيناه هايتوقع لينا داكشي صحيح من الدقا اللولة ؟ الاجابة الطبيعية هي لا ! حيت دوك الاوزان را كانعطيوهوم للنظام فاللول بطريقة عشوائية .. عاد من بعد هانديرو ليهوم التصحيح، هنا هاندخلو لمفهوم التعلم ، الفكرة و مافيها هي خاصنا اسيدي نتيرينيو بالبنية لي صايبنا اعتمادا على واحد الكمية كبيرة من البيانات (الصورديال الارقام في الحالة ديالنا البسيطة) الهدف ديال عملية ساهل :ايجاد احسن تشكيلة ههه ظيال الاوزان w1,w2,w3,....,b0,b1,b2,... بحيث كل فاش ندخلو ليه شي تصويرة د شي رقم فالخرجة خاصو يجيبها لينا لاصقة!! مزيان اسيدي حتا لدابا اوا كيفاش اسيدي هانفهمو لهاد النظام اثناء عملية التعلم ان التوقع لي دار صحيح و لا غالط ... سؤال جيد.. الاجابة سهلة هانعرفوا ليه واحد الدالة (الخسارة ههه)cost function لي التعبير الرياضي ديالها معقد شوية Cost(w1,...wn)=somme(|f(x)-(x)|/N

يعني هو المتوسط ديال الخطا لي كايقترفو النظام فكل تصويرة كاندخلو ليه،(عدد المحاولات هوN) |f(x)-a(x)|

هاد القيمة لي كانشوفو هو الغرق بين vector لي خاصو يخرج ليناه لي هو ax و داكشي لي كاتخرج لينا الشبكة فاش كاندخلو ليها التصويرة x ,كيما كاتعرفو هاد الدالة الدور ديالنها هو نديرو ليها minimisation ما امكن باش الهامش الخطا يولي صغير لواحد الدرجة كبيرة هنا كانقولو بلي الشبكة تعلمات مزيااان ،و باش نديرو لهاد الدالة minimsation كانخدمو واحد الالغوريتم واعر سميتو gradient descendent لي كايبقى تقريبي .. (من بعدنشرحو بالتفصيل).. يتبع...

Ps: نسيت مانعرف ليكوم دوك القيم b0,b1,b2 ... لي هما ببساطة كايتسماو biais و كايوصفو لينا فوقاش بغينا العقدة دوز لينا التيار و فوقاش مادوزوش ،حاولو تفهموها بحال tension de seuil شكرا "

صاحب المنشور : ايمن الديعي ❤️

إسماعيل فداوي ❤️