تخفیف نوروزی پی استور

کد تخفیف: PR1404

شامل تمامی آثار
روز
ساعت
دقیقه
ثانیه

با خرید اشتراک ویژه ، با هزینه بسیار کمتر به فایل های پاورپوینت دسترسی داشته باشید!

آموزش شبکه عصبی با الگوریتم گرگ خاکستری GWO در متلب

هزینه سفارش:

تخفیف ویژه 60 درصدی

قیمت اصلی: ۲۵۶,۰۰۰ تومان بود.قیمت فعلی: ۱۰۲,۴۰۰ تومان.

روز
ساعت
دقیقه
ثانیه
دریافت کد تخفیف با گردونه شانس %
تعداد فراگیر
364 نفر
امتیاز کاربران
امتیاز 5.00 از 5

برای افزایش دقت یادگیری در شبکه های عصبی می‌توان این شبکه را با الگوریتم های فرا ابتکاری یا تکاملی ترکیب کرد یعنی برای وزن دهی لایه‌های مختلف موجود که ارتباط آن‌ها با یال‌هایی است می‌توان مقادیر وزن‌ها ها یا یال‌ها را با الگوریتم های فرا ابتکاری تعیین کرد. یکی از این الگوریتم‌ها، الگوریتم گرگ خاکستری GWO می‌باشد. که در این بخش سورس کد آماده آن در متلب برای یک دیتاست ساده (دیتاست سرطان سینه) نوشته شده است.

در این بخش سورس کد آموزش شبکه عصبی با الگوریتم گرگ خاکستری GWO در متلب قرار داده شده است. شبکه‌های عصبی Artificial neural network از تعداد زیادی عنصر پردازشی فوق‌العاده به‌هم‌پیوسته به نام نرون تشکیل‌شده که برای حل یک مسئله با یکدیگر به‌صورت هماهنگ عمل می‌کند. شبکه عصبی یک الگوریتم نیست بلکه یک چارچوب برای بسیاری از الگوریتم‌های مختلف از جمله یادگیری ماشین برای همکاری و پردازش اطلاعات پیچیده است.

برای افزایش دقت یادگیری در شبکه‌های عصبی می‌توان این شبکه را با الگوریتم های فرا ابتکاری یا تکاملی ترکیب کرد یعنی برای وزن دهی لایه‌های مختلف موجود که ارتباط آن‌ها با یال‌هایی است می‌توان مقادیر وزن‌ها ها یا یال‌ها را با الگوریتم‌های فرا ابتکاری تعیین کرد. یکی از این الگوریتم‌ها، الگوریتم گرگ خاکستری GWO می‌باشد که در این بخش سورس کد آماده آن در متلب برای یک دیتاست ساده (دیتاست سرطان سینه) نوشته شده است.

شبکه عصبی مصنوعی

شبکه‌های عصبی ANN از تعداد زیادی عنصر پردازشی فوق‌العاده به‌هم‌پیوسته به نام نرون تشکیل‌شده که برای حل یک مسئله با یکدیگر به‌صورت هماهنگ عمل می‌کند. دسته‌بندی شبکه‌های عصبی شبکه‌ای از لایه‌هاست، معمولاً لایه‌ای که اطلاعات ورودی به آن‌ها داده می‌شود تحت عنوان لایه‌ی ورودی و لایه‌ای که داده‌های خروجی از آن دریافت می‌شود تحت عنوان لایه‌ی خروجی نامیده می‌شود و به لایه‌های دیگر بین این دولایه (در صورت وجود) لایه‌های پنهان گفته می‌شود.

شبکه‌های عصبی

جهت حرکت‌ها سیگنال‌ها همواره از سمت لایه‌ی ورودی به‌سوی لایه‌ی خروجی است برای دسته‌بندی یک نمونه تستی، وزن کلمه‌ها برای واحدهای ورودی تعیین می‌شود و فعال کردن این واحدها از طریق لایه‌های مختلف روبه‌جلو در شبکه انجام می‌شود و مقدار واحد خروجی به‌عنوان یک نتیجه در تصمیم‌گیری دسته‌ها تعیین می‌شود.

شبکه های عصبی مصنوعی، سیستم‌های محاسباتی هستند که توسط شبکه‌های عصبی زیستی الهام گرفته شده‌اند که مغز حیوانات را تشکیل می‌دهند. منظور از یادگیری در شبکه‌های عصبی، تنظیم وزن‌ها و بایاس‌‎های شبکه می‌باشد. بر این اساس الگوریتم های متفاوتی بیان شده، که معمول‌ترین آن‌ها یادگیری هب، دلتا، یادگیری رقابتی و … می‌باشد.

الگوریتم گرگ خاکستری

الگوریتم گرگ خاکستری Grey Wolf Optimizer یا به اختصار GWO توسط سید علی میرجلیلی (Seyedali Mirjalili) در سال ۲۰۱۴ در مقاله Grey Wolf Optimizer در ژورنال Advances in Engineering Software پایگاه علمی Elsevier ارائه شده است. این الگوریتم فراکتشافی یا الگوریتم بهینه سازی بر اساس رفتار و شیوه شکار گرگ‌های خاکستری است. این الگوریتم مبتنی بر جمعیت بوده، فرآیند ساده‌ای دارد و به سادگی قابلیت تعمیم به مسائل با ابعاد بزرگ را دارد.

الگوریتم گرگ خاکستری GWO از ساختار سلسله مراتبی hieratical و رفتار اجتماعی گرگ‌های خاکستری در هنگام شکار کردن الهام گرفته است. این الگوریتم مبتنی بر جمعیت بوده، فرآیند ساده‌ای دارد و به سادگی قابلیت تعمیم به مسائل با ابعاد بزرگ را دارد. گرگ‌های خاکستری به عنوان شکارچیان راس یا apex در نظر گرفته می‌شوند، که در بالای هرم زنجیره غذایی هستند.

گرگ‌های خاکستری ترجیح می‌دهند در یک گروه (دسته) زندگی کنند، هر گروه به طور متوسط ۵-۱۲ عضو دارد. همه اعضای این گروه دارای سلسله مراتب تسلط اجتماعی بسیار دقیق هستند و وظایف خاصی دارند. در هر گله از گرگ‌ها برای شکار کردن ۴ درجه وجود دارد.

  • گرگ‌های رهبر گروه alpha نامیده می‌شوند که می‌توانند مذکر یا مونث باشند. این گرگ‌ها بر گله تسلط دارند.
  • گرگ‌های beta: کمک به گرگ‌های alpha در فرآیند تصمیم گیری بوده و همچنین مستعد انتخاب شدن به جای آن‌ها هستند.
  • گرگ‌های delta: پایین‌تر از گرگ‌های beta و شامل گرگ‌های پیر، شکارچی‌ها و گرگ‌های مراقبت کننده از نوزادان.
  • گرگ‌های omega: پایین‌ترین مرتبه در هرم سلسله مراتب که کم‌ترین حق را نسبت به بقیه اعضای گروه دارند. بعد از همه غذا می‌خورند و در فرآیند تصمیم گیری مشارکتی ندارند.

برای مشاهده توضیحات بیشتر در این زمینه مقاله‌ای تحت عنوان الگوریتم گرگ خاکستری GWO در این سایت قرار داده شده است که می‌توانید مطالعه کنید.

آموزش شبکه عصبی با الگوریتم گرگ خاکستری GWO در متلب

همانطور که قبلاً هم اشاره شد برای تعیین وزن یال‌ها و بایاس‌ها در شبکه‌های عصبی می‌توان از الگوریتم های فرا ابتکاری استفاده کرد. از این رو در این سورس کد تعیین وزن بایاس‌ها و یال‌ها با استفاده از الگوریتم گرگ خاکستری انجام پذیرفته است. برای تعیین میزان عملکرد برنامه ذکر شده از دیتاست سرطان سینه استفاده شده است که در ادامه این دیتاست تشریح شده است.

دیتاست مورد استفاده در سورس کد آموزش شبکه عصبی با الگوریتم گرگ خاکستری

به‌عنوان یک نمونه دیتاست مورداستفاده مجموعه داده بیماران سرطان سینه موجود در مخزن داده‌ی یادگیری ماشین دانشگاه ارواین، ایالت کالیفرنیا آمریکا (University of California at Irvine) است مثال زده می‌شود.

در این دیتاست ویژگی‌ها شامل ریسک فاکتورهای ضخامت انبوه، یکنواختی اندازه سلول، یکنواختی شکل سلول، چسبندگی لبه‌ها، حجم سلول بافت اپیتلیال، هسته‌های عریان، کروماتین بلاند، هسته عادی و تقسیم هسته سلول به دو قسمت می‌باشد که در ایالت ویسکانسین ایالات‌متحده جمع‌آوری‌شده است. جدول زیر نشان‌دهنده این مجموعه از داده است.

ردیفنام ویژگیمحدوه
۱code numberid number
۲Clump Thickness۱ – ۱۰
۳Uniformity of Cell Size۱ – ۱۰
۴Uniformity of Cell Shape۱ – ۱۰
۵Marginal Adhesion۱ – ۱۰
۶Single Epithelial Cell Size۱ – ۱۰
۷Bare Nuclei۱ – ۱۰
۸Bland Chromatin۱ – ۱۰
۹Normal Nucleoli۱ – ۱۰
۱۰Mitoses۱ – ۱۰
۱۱Class۲ for benign, 4 for malignant

قسمت هایی از سورس کد آموزش شبکه عصبی با الگوریتم گرگ خاکستری در متلب

%% Start of Program
clc
clear
close all
warning off;
N=40;
max_it=100;
Vmax=0.5;
Vmin=-0.5;
%% Input Output Data
load IOdata
Data = IOdata;
X = Data(:,1:end-1);
Y = Data(:,end);
XN = X;
YN = Y;
%% Normalization
%
MinX = min(X); MaxX = max(max(abs(X)));
MinY = min(Y); MaxY = max(max(Y));
% %
XN=XN/MaxX;
YN=floor(YN/MaxY);
%% Test and Train Data
NumOfInputs = size(X,2);
NumOfOutputs = size(Y,2);
NumOfData = size(X,1);
NumOfHiddens=2*NumOfInputs+1;
TrPercent = 70;
DataNum = size(X,1);
TrNum = round(TrPercent * DataNum/100);
R = randperm(DataNum);
TrInx = R(1:TrNum);
TsInx = R(TrNum+1:end);
Xtr = XN(TrInx,:);
Ytr = YN(TrInx,:);
Xts = XN(TsInx,:);
Yts = YN(TsInx,:);
%% Network Training
[NetworkP ,BestCostP, BestChartP] = TrainUsingGWO_Fcn(Xtr,Ytr,N,max_it,NumOfInputs,NumOfHiddens ,NumOfOutputs, Vmax, Vmin);

تصاویر خروجی در آموزش شبکه عصبی با الگوریتم گرگ خاکستری

سورس کد آموزش شبکه عصبی با الگوریتم گرگ خاکستری GWO در متلب
ماتریس اغتشاش یا ماتریس Confusion شبکه عصبی با الگوریتم گرگ خاکستری GWO
سورس کد آموزش شبکه عصبی با الگوریتم گرگ خاکستری GWO در متلب
نمودار همگرایی آموزش شبکه عصبی با الگوریتم گرگ خاکستری GWO بر اساس مینیمم کردن MSE
سورس کد آموزش شبکه عصبی با الگوریتم گرگ خاکستری GWO در متلب
نمودار ROC شبکه عصبی با الگوریتم گرگ خاکستری GWO

درباره آموزش شبکه عصبی با الگوریتم گرگ

سورس کد آموزش شبکه عصبی با الگوریتم گرگ خاکستری GWO در متلب عنوان اثری است که در این پست به آن پرداخته شده است. این اثر در نرم افزار متلب نوشته شده و برای تعیین مقادیر وزنی یال‌ها و بایاس‌ها شبکه عصبی با الگوریتم GWO می‌باشد. این سورس کد بصورت کامل توسط گروه پشتیبانی پی استور تست و اجرا شده و دارای نشان تضمین کیفیت پی استور می‌باشد. برای دانلود اثر آن را خریداری کنید.

مشاهده بیشتر

ویدئوی معرفی اثر

ویدئوی نحوه اجرا


برنامه‌نویس:  تیم برنامه‌نویسی پی‌استور

متشکل از اساتید و فارغ التحصیلان رشته‌های فنی - مهندسی

تیم برنامه نویسی پی استور یکی از اولین گروه‌های تشکیل شده در مجموعه آموزشی پی استور می‌باشد. این تیم از اساتید مجرب و فارغ التحصیلان رشته‌های فنی و مهندسی تشکیل شده که در زمینه‌های مختلف برنامه‌نویسی و تهیه سورس کد فعال هستند.

مشخصات تکمیلی سورس کد

نام اثر: آموزش شبکه عصبی با الگوریتم گرگ خاکستری GWO در متلب
نوع اثر: سورس کد
برنامه‌نویس: تیم برنامه‌نویسی پی‌استور
زبان برنامه نویسی: متلب
ویژگی: قابل دانلود و ویرایش

راهنمای خرید و ثبت سفارش

تصویر مراحل خرید از پی استور

اگر در مورد این اثر یا نحوه تهیه آن سوالی دارید؟
  • با شماره تلفن واحد مخاطبین 44225175 (پیش شماره 041) تماس بگیرید. – تمام ساعات اداری
  • با ما مکاتبه ایمیلی داشته باشید (این لینک). – تمام ساعات

توجه: کیفیت این محصول توسط پی استور تضمین شده و در صورت عدم رضایت از محصول، به انتخاب شما:

تصویر و لوگوی گارانتی

نظرات

2 نظر|5.00 (میانگین امتیاز کاربران)

  1. آواتار اکبر

    اکبر

    خیلی خوب بود. همون چیزی بود که لازم داشتم.

  2. آواتار مدیریت و پشتیبانی

    مدیریت و پشتیبانی

    نظرات خود را با ما در میان بگذارید.

دیدگاه خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

شناسه اثر: 9007 دسته‌بندی موضوعی: , برچسب ,

هزینه سفارش:

تخفیف ویژه 60 درصدی

قیمت اصلی: ۲۵۶,۰۰۰ تومان بود.قیمت فعلی: ۱۰۲,۴۰۰ تومان.

دریافت کد تخفیف %