توضیحات محصول دانلود پاورپوینت تحلیل و بررسی شیوه تشخیص و متمایز کردن الگوهای پیچیده در دادهها (کد14210)
دانلود پاورپوینت تحلیل و بررسی شیوه تشخیص و متمایز کردن الگوهای پیچیده در دادهها
\nماشین بردار پشتیبان
\n\n عنوان های پاورپوینت :
\n\nتحلیل و بررسی شیوه تشخیص و متمایز کردن الگوهای پیچیده در دادهها
\nماشین بردار پشتیبان
\nمقدمه
\nایده اصلی
\nتعریف
\nمسئله جداسازی خطی: Linear Discrimination
\nIntuitions
\nA “Good” Separator
\nNoise in the Observations
\nRuling Out Some Separators
\nLots of Noise
\nMaximizing the Margin
\nضرب داخلی
\nخط یا ابر صفحه جدا کننده
\nایده SVM برای جدا سازی دسته ها
\nحداکثر حاشیه
\nچرا حداکثر حاشیه؟
\nبردار پشتیبان
\nتعمیم و SVM
\nحل مسئله برای حالت دو بعدی
\nLinear SVM Mathematically
\nحل مسئله برای حالت دو بعدی
\nتعیین حاشیه بین خطوط جدا کننده
\nمحاسبه پهنای حاشیه
\nمحدودیت
\nجمع بندی حل مسئله
\nQuadratic Programming
\nRecap of Constrained Optimization
\nراه حل معادله
\nThe Dual Problem
\nراه حل معادله
\nدسته بندی داده های جدید
\nویژگی های راه حل
\nThe Quadratic Programming Problem
\nداده هائی که بصورت خطی جدا پذیر نیستند
\nافزودن متغیر های slack
\nSoft Margin Hyperplane
\nThe Optimization Problem
\nمسئله جداسازی غیر خطی : یادگیری در فضای ویژگی
\nتبدل داده به فضای ویژگی
\nمشکلات فضای ویژگی
\nنگاشت غیر مستقیم به فضای ویژگی
\nکرنل
\nکرنل های نمونه:
\nمثال: کرنل چند جمله ای
\nModification Due to Kernel Function
\nModularity
\nساخت کرنل ها
\nExample
\nمثالی از کاربرد
\nانتخاب تابع کرنل
\nSVM applications
\nنقاط قوت و ضعف SVM
\nنتیجه گیری
\nسایر جنبه های SVM
\nMulti-class Classification
\nنرم افزار
\nمراجع
\n \n\n
\n\nقسمت ها و تکه های اتفاقی از فایل\n\n \n\nتعیین حاشیه بین خطوط جدا کننده\n\n{Plus-plane = { x : w . x + b = +1\n\n{Minus-plane = { x : w . x + b = -1\n\nClassify as..\n\n-1 if w . x + b <= -1\n\n+1 if w . x + b >= 1\n\nمحاسبه پهنای حاشیه\n\nصفحه مثبت و منفی را بصورت زیر در نظر میگیریم:\n\n{Plus-plane = { x : w . x + b = +1\n\n{Minus-plane = { x : w . x + b = -1\n\nبردار w بر صفحه مثبت ومنفی عمود خواهد بود.\n\nفرض کنید X- نقطه ای در صفحه منفی بوده و X+ نزدیکترین نقطه در صفحه مثبت به X- باشد.\n\nمحاسبه پهنای حاشیه\n\nخطی که X- رابه X+ وصل میکند بر هر دو صفحه عمود خواهد بود. لذا فاصله بین دو صفحه مضربی ازW خواهد بود.\n\nدر اینصورت خواهیم داشت:\n\nx+= x-+ λ w for some value of λ.\n\nمحاسبه پهنای حاشیه\n\nمیدانیم که:\n\nw . x+ + b = +1\n\nw . x- + b = -1\n\nX+= x-+ λ w\n\n| x+- x-| = M\n\nلذا میتوان M را برحسب Wو b محاسبه کرد.\n\nمحاسبه پهنای حاشیه\n\nw . x+ + b = +1\n\nw . x- + b = -1\n\nX+= x-+ λ w\n\n| x+- x-| = M\n\nمحاسبه پهنای حاشیه\n\nمحدودیت\n\nاگر برای مثال دو بعدی فوق مقدار دسته ها را با 1 و 1- مشخص کنیم داریم:\n\n<w,xi> + b ≥ 1 for y=1\n\n<w,xi> + b £ -1 for y= -1\n\nکه میتوان آنرابصورت زیر نوشت\n\nyi (<w,xi> + b) ≥ 1 for all i\n\nجمع بندی حل مسئله\n\nدر SVM بدنبال حل همزمان معادلات زیر هستیم:\n\nبا داشتن مثالهای آموزشی (xi, yi) که i=1,2,…N; yi{+1,-1}\n\nMinimise ||w||2\n\nSubject to : yi (<w,xi> + b) ≥ 1 for all i\n\nNote that ||w||2 = wTw\n\nاین یک مسئله quadratic programming با محدودیت هائی بصورت نامعادلات خطی است. روشهای شناخته شده ای برای چنین مسئله هائی بوجود آمده اند.\n\nQuadratic Programming\n\nRecap of Constrained Optimization\n\nSuppose we want to: minimize f(x) subject to g(x) = 0\n\nA necessary condition for x0 to be a solution:\n\na: the Lagrange multiplier\n\nFor multiple constraints gi(x) = 0, i=1, …, m, we need a Lagrange multiplier ai for each of the constraints\n\nRecap of Constrained Optimization\n\nThe case for inequality constraint gi(x) £ 0 is similar, except that the Lagrange multiplier ai should be positive\n\nIf x0 is a solution to the constrained optimization problem\n\nThere must exist ai ≥ 0 for i=1, …, m such that x0 satisfy\n\nThe function is also known as the Lagrangrian; we want to set its gradient to 0\n\nراه حل معادله\n\nراه حل معادله\n\nThe Dual Problem\n\nIf we substitute to Lagrangian , we have\n\nNote that\n\nThis is a function of ai only\n\nراه حل معادله\n\nدسته بندی داده های جدید\n\nویژگی های راه حل\n\nThe solution of the SVM, i.e. of the quadratic programming problem with linear inequality constraints has the nice property that the data enters only in the form of dot products!\n\nDot product (notation & memory refreshing): given x=(x1,x2,…xn) and y=(y1,y2,…yn), then the dot product of x and y is xy=(x1y1, x2y2,…, xnyn).\n\nThis is nice because it allows us to make SVMs non-linear without complicating the algorithm\n\nThe Quadratic Programming Problem\n\nMany approaches have been proposed\n\nLoqo, cplex, etc.\n\nMost are “interior-point” methods\n\nStart with an initial solution that can violate the constraints\n\nImprove this solution by optimizing the objective function and/or reducing the amount of constraint violation\n\nFor SVM, sequential minimal optimization (SMO) seems to be the most popular\n\nA QP with two variables is trivial to solve\n\nEach iteration of SMO picks a pair of (ai,aj) and solve the QP with these two variables; repeat until convergence\n\nIn practice, we can just regard the QP solver as a “black-box” without bothering how it works\n\nداده هائی که بصورت خطی جدا پذیر نیستند\n\nیک فرض بسیار قوی در SVM این بود که داده ها بصورت خطی جداپذیر باشند. در حالیکه در عمل در بسیاری مواقع این فرض صحیح نیست.\n\nافزودن متغیر های slack\n\nیک راه حل این است که اندکی کوتاه آمده و مقداری خطا در دسته بندی را بپذیریم!\n\nاین کار با معرفی متغیر xi انجام میشود که نشانگر تعداد نمونه هائی است که توسط تابع wTx+b غلط ارزیابی میشوند.\n\nافزودن متغیر های slack\n\nبا معرفی متغیرxi, i=1, 2, …, N, محدودیت های قبلی ساده تر شده و رابطه\n\nyi (<w,xi> + b) ≥1\n\nبصورت زیر تغییر میکند:\n\nyi (<w,xi> + b) ≥1- xi , xi ≥ 0\n\nدر حالت ایده آل همه این متغیر ها باید صفر باشند.\n\nدر اینصورت مسئله بهینه سازی تبدیل میشود به یافتن w به نحوی که معادله زیر مینیمم شود:\n\nکه در آن C > 0 میباشد. جمله اضافه شدن سعی دارد تا حد امکان همه متغیرهای slack را کوچک نماید.\n\nرابطه دوگان در حالت جدید بصورت زیر خواهد بود.\n\nمقدار مناسب C بر اساس داده های مسئله انتخاب میشود.\n\nSoft Margin Hyperplane\n\nIf we minimize wi xi, xi can be computed by\n\nxi are “slack variables” in optimization\n\nNote that xi=0 if there is no error for xi\n\nxi is an upper bound of the number of errors\n\nWe want to minimize\n\nC : tradeoff parameter between error and margin\n\nThe optimization problem becomes\n\nThe Optimization Problem\n\nThe dual of this new constrained optimization problem is\n\nw is recovered as\n\nThis is very similar to the optimization problem in the linear separable case, except that there is an upper bound C on ai now\n\nOnce again, a QP solver can be used to find ai\n\nمسئله جداسازی غیر خطی : یادگیری در فضای ویژگی\n\nمیتوان با نگاشت داده به یک فضای ویژگی آنها را بصورت خطی جداپذیر نمود:\n\nتبدل داده به فضای ویژگی\n\nانجام محاسبات در فضای ویژگی میتواند پرهزینه باشد برای اینکه ابعاد بیشتری دارد.\n\nدر حالت کلی ابعاد این فضا بی نهایت است.\n\nبرای غلبه بر این مشکل از kernel trick استفاده میشود.\n\nمشکلات فضای ویژگی\n\nکار کردن با فضای ویژگی با ابعاد بالا مشکل است\n\nعلاوه بر مسئله بالا رفتن هزینه محاسباتی ممکن است مشکل تعمیم نیز بواسطه curse of dimensionality بوجود آید.\n\nنگاشت غیر مستقیم به فضای ویژگی\n\nWe will introduce Kernels:\n\nSolve the computational problem of working with many dimensions\n\nCan make it possible to use infinite dimensions\n\nefficiently in time / space\n\nOther advantages, both practical and conceptual\n\nکرنل\n\n(Transform x (x\n\n(The linear algorithm depends only on xxi, hence transformed algorithm depends only on (x)(xi\n\n(Use kernel function K(xi,xj) such that K(xi,xj)= (x)(xi)\n\nکرنل های نمونه:\n\nمثال: کرنل چند جمله ای\n\nModification Due to Kernel Function\n\nChange all inner products to kernel functions\n\nFor training,\n\nModification Due to Kernel Function\n\nFor testing, the new data z is classified as class 1 if f³0, and as class 2 if f <0\n\nModularity\n\nAny kernel-based learning algorithm composed of two modules:\n\nA general purpose learning machine\n\nA problem specific kernel function\n\nAny K-B algorithm can be fitted with any kernel\n\nKernels themselves can be constructed in a modular way\n\n(Great for software engineering (and for analysis\n\nساخت کرنل ها\n\nمجموعه قوانین زیر در مورد کرنل ها صادق است:\n\nIf K, K’ are kernels, then:\n\nK+K’ is a kernel\n\ncK is a kernel, if c>0\n\naK+bK’ is a kernel, for a,b >0\n\nEtc etc etc……\n\nبه این ترتیب میتوان کرنل های پیچیده را از روی کرنل های ساده تر ساخت.\n\nExample\n\nSuppose we have 5 1D data points\n\nx1=1, x2=2, x3=4, x4=5, x5=6, with 1, 2, 6 as class 1 and 4, 5 as class 2 y1=1, y2=1, y3=-1, y4=-1, y5=1\n\nWe use the polynomial kernel of degree 2\n\nK(x,y) = (xy+1)2\n\nC is set to 100\n\nWe first find ai (i=1, …, 5) by\n\nExample\n\nBy using a QP solver, we get\n\na1=0, a2=2.5, a3=0, a4=7.333, a5=4.833\n\nNote that the constraints are indeed satisfied\n\n{The support vectors are {x2=2, x4=5, x5=6\n\nThe discriminant function is\n\nb is recovered by solving f(2)=1 or by f(5)=-1 or by f(6)=1, as x2 and x5 lie on the line and x4 lies on the line\n\nAll three give b=9\n\nمثالی از کاربرد\n\nتشخیص حروف دست نویس\n\nدر اداره پست آمریکا با استفاده از این روش توانسته اند به خطائی در حدود 4% برسند.\n\nانتخاب تابع کرنل\n\nجدی ترین مسئله در روش SVM انتخاب تابع کرنل است.\n\nروشها و اصول متعددی برای این کار معرفی شده اسـت:\n\ndiffusion kernel, Fisher kernel, string kernel, …\n\nو تحقیقاتی نیز برای بدست آوردن ماتریس کرنل از روی داده های موجود در حال انجام است.\n\nدر عمل\n\nIn practice, a low degree polynomial kernel or RBF kernel with a reasonable width is a good initial try\n\nNote that SVM with RBF kernel is closely related to RBF neural networks, with the centers of the radial basis functions automatically chosen for SVM\n\nSVM applications\n\nSVMs were originally proposed by Boser, Guyon and Vapnik in 1992 and gained increasing popularity in late 1990s.\n\nSVMs are currently among the best performers for a number of classification tasks ranging from text to genomic data.\n\nSVMs can be applied to complex data types beyond feature vectors (e.g. graphs, sequences, relational data) by designing kernel functions for such data.\n\nSVM techniques have been extended to a number of tasks such as regression [Vapnik et al. ’97], principal component analysis [Schölkopf et al. ’99], etc.\n\nMost popular optimization algorithms for SVMs use decomposition to hill-climb over a subset of αi’s at a time, e.g. SMO [Platt ’99] and [Joachims ’99]\n\nTuning SVMs remains a black art: selecting a specific kernel and parameters is usually done in a try-and-see manner.\n\nنقاط قوت و ضعف SVM\n\nStrengths\n\nTraining is relatively easy\n\nGood generalization in theory and practice\n\nWork well with few training instances\n\nFind globally best model, No local optimal, unlike in neural networks\n\nIt scales relatively well to high dimensional data\n\nTradeoff between classifier complexity and error can be controlled explicitly\n\nNon-traditional data like strings and trees can be used as input to SVM, instead of feature vectors\n\nWeaknesses\n\nNeed to choose a “good” kernel function.\n\nنتیجه گیری\n\nSVMs find optimal linear separator\n\nThey pick the hyperplane that maximises the margin\n\nThe optimal hyperplane turns out to be a linear combination of support vectors\n\nThe kernel trick makes SVMs non-linear learning algorithms\n\nTransform nonlinear problems to higher dimensional space using kernel functions; then there is more chance that in the transformed space the classes will be linearly separable.\n\nسایر جنبه های SVM\n\nHow to use SVM for multi-class classification?\n\nOne can change the QP formulation to become multi-class\n\nMore often, multiple binary classifiers are combined\n\nOne can train multiple one-versus-all classifiers, or combine multiple pairwise classifiers “intelligently”\n\nHow to interpret the SVM discriminant function value as probability?\n\nBy performing logistic regression on the SVM output of a set of data (validation set) that is not used for training\n\nSome SVM software (like libsvm) have these features built-in\n\nMulti-class Classification\n\nSVM is basically a two-class classifier\n\nOne can change the QP formulation to allow multi-class classification\n\nMore commonly, the data set is divided into two parts “intelligently” in different ways and a separate SVM is trained for each way of division\n\nMulti-class classification is done by combining the output of all the SVM classifiers\n\nMajority rule\n\nError correcting code\n\nDirected acyclic graph\n\nنرم افزار\n\nلیستی از نرم افزار های مختلف را میتوانید در آدرس زیر بیابید:\n\nhttps://www.kernel-machines.org/software.html\n\nبرخی نرم افزارها نظیر LIBSVM میتوانند بصورت چند دسته ای کار کنند.\n\nنرم افزار SVMLight در مراجع مختلفی بکار رفته است.\n\nچندین toolbox در Matlab برای SVM معرفی شده اند.\n\n \n\n30 تا 70 درصد پروژه | پاورپوینت | سمینار | طرح های کارآفرینی و توجیهی | پایان-نامه | پی دی اف مقاله ( کتاب ) | نقشه | پلان طراحی | های آماده به صورت رایگان میباشد ( word | pdf | docx | doc )