نادی

برنامه نویس و تحلیل گر داده علاقه مند به موتور های جستجوی مفهومی

Sep 232013
 

۹۲/۰۷/۰۱
داده کاوی
دکتر محمد پور

مجموعه شمارا – گسسته
صفت های پیوسته :
مثل وزن ، قد

– در خصوصیت داده ها به سه مساله باید اشاره کنیم
۱- تعدد بعد داده ها Dimensionality
۲- پراکندگی داده ها Sparsity
۳- دقت Reslution
کیفیت داده ها خیلی مهم است

Unomarly Detection
missing Value

missing At Random (میانگین داده را جایگزین کنیم – بد ترین را ه ممکن هست – یا اینکه داده را حذف کنیم )
بهترین روش از روش EM -Algorithm باید استفاده کرد

(—————————–
کتاب روش شناسی آماری ( دکتر صالحی )
ترجمه پژوهشکده آمار

۱- خطاهای نمونه گیری
۲- خطاهای غیر نمونه گیری

شناسایی خواندن فرمها با روش ICR
Intelligent Charachter Recognition
نسل قدیمی آن OCR بود

————————)
Duplicate Data
به علت خرابی صدا کلاس ناتمام ماند

Sep 222013
 

۹۲/۰۶/۳۱
تدریس یار داده کاوی – استاد حائری

لینک spss modeler

http://soft98.ir/software/engineering/14714-IBM-SPSS-Modeler.html
آشنایی با محیط کلمنتیاین

A : صفحه جریان
B : صفحه جریان / خروجی / مدل ها
C : برای کریسپ و کلاس ها
D : کلید های میانبر

 spss-snapshot
نقطه شروع داده کاوی : منبع داده هاست
از notepad , sas , spss, Database می توانیم بخوانیم

برای وارد کردن اطلاعات در صفحه استریم :
می توانیم دوبار کلیک کنیم
یا اینکه node را به صفحه استریم Drag کنیم

برای لود کردن داده ها node ها را باید بیاریم

فرمت داده های spss با پسوند .sav هست

 

spss-snapshot2

 

Continue reading »

Sep 162013
 

۹۲/۰۶/۲۵
خوشه بندی Clustering

n تا رکورد داریم ، می خواهیم آنها را به k قسمت تقسیم کنیم

هدف اصلی کلاسترینگ ، گروه بندی اطلاعات

روشهای semi supervised

Complex Network
شبکه های اجتماعی
اجتماعات پنهان
شبکه های تکنولوژیک – مثل شبکه برق یک منطقه -یا شبکه فرودگاه های یک کشور

recommender system

text mining

term Document Matrix
High dimential Data با روش های خوشه بندی کوچک می کنیم

مثال ساده برای مفاهیم :
یک سری حیوان داریم می خواهیم به یک سری خوشه بندی همگن تقسیم کنیم

پستانداران ، پرندگان ، خزندگان ، ماهیان ، دوزیست

معیار ها مهم هستند
محیطی که حیوانات زندگی می کنند ( دریا ، خشکی )
یا نحوه تولید مثل

اگر معیار ها را عوض کنیم دسته بندی ها متفاوت می شود
خوشه بندی … نیست ؟

Supervised classification نیست
Simple Segmentation نیست
Results of query نیست
Graph Partitioning نیست
————————————-

fraud detection کشف تقلب در بانک ها

Domain expert ها بایستی نتایج اطلاعات را تایید کنند

دسته بندی را دو بخش می کنیم
۱- روشهای افرازی Partitional Clustering
۲- روشهای سلسله مراتبی Hirerachical Clustering
——————————————–

fuzzyClustering

دسته بندی در بانک ممکن است یک سری از اطلاعات بدرد نخور باشد
که ممکن است آنها را حذف کنیم
روشهای خوشه بندی :

Newarest Neigbor
Density-Based
Conceptual Clusters

یک سری نکات :
انواع Features
مراحل خوشه بندی
۱- feature selection
۲- proximity measure
۳- معیار
۴- الگوریتم
۵- اعتبار سنجی نتایج ( روشهای ارزیابی یا domain expert )
۶- تفسیر

 

Sep 162013
 

http://www.mediafire.com/?m0kglj6vz0bl6ym

pass: datamining_dr_mohammadpor

 


کتاب داده کاوی

Introduction to Data Mining

Introduction to Data Mining

Pang-Ning Tan, Michigan State University

Michael Steinbach, University of Minnesota

Vipin Kumar, University of Minnesota

ISBN-10: 0321321367

• ISBN-13: ۹۷۸۰۳۲۱۳۲۱۳۶۷  ©۲۰۰۶

• Addison-Wesley • Cloth, 769 pp

pencilji.com/download/37729661.pdf

 

Sep 142013
 

حمل و نقل هوشمند – جلسه دوم تدریس یار ۹۲/۰۶/۲۳

هدف ما تحقیق و ارائه ایده های جدید هست
هوشمند بودن حمل و نقل مبنی بر از بین برداشتن هوش انسانی نیست
افراد

در امریکا هر وسیله نقلیه شخصی ۲۳هزار مایل طی می کند.

کشورهایی که حمل و نقل پیشرفته ای دارد
رضایت حمل و نقل عمومی
امنیت

۱۰ میلیون امریکایی از حمل و نقل عمومی استفاده می کنند
۱۶۰ هزار سیگنال ترافیکی وجود دارد

حدود ۴۰میلیارد دلار هزینه شلوغی ترافیک هست

یکی از کارهایی که از ITS انتظار داریم کم کردن هزینه های ترافیک
هست

در تهران سیستم BRT و اتوبوس های محلی ، مترو و تاکسی و خودروی
شخصی را داریم

بین شهری : هوایی ، دریایی ، ریلی ، اتوبوس

راهکار های ارائه شده :
امنیت و کارایی
هدف اضافه کردن سیستم جدیدی نیست
در its اطلاعات زیادی را جابجا میکنیم و یک سیستم حجیم اطلاعات را
مدیریت می کنیم

چند نمونه از تکنولوژی های its :
در حوزه حمل و نقل درون شهری : Traffic and Transit management
ITS به کمک مدیران سیستم می آید
این موضوع در سیستم حمل و نقل درون شهری اضافه کردن سیستم
جدید به ندرت اتفاق می افتد

its های کانادا و امریکا user need ها را خیلی کار کرده اند

خبرگان سیستم با آشنایی با سیستم های موجود می توانند نیاز های
سیستم را تشخیص دهند و الزامات مربوطه را بگویند

در نهایت به چه زیر سیستم هایی نیاز داریم و چگونه زیر ساخت ها را
پیاده سازی کنیم

یکی از زیر سیستم ها ATMS هست Advanced Traffic Management
System
سیستم signal های ترافیکی مثل چراغ های راهنما یا مدیریت ramp
هست

GPS : برای Track کردن کامیون ها ، اتوبوس ها استفاده می شود

در سیستم مترو هم انجام می شود مکان قطار را مشخص می کند

در ITS از اطلاعات آب و هوایی هم استفاده می کنیم مثل بارانی و برفی
بودن مه داشتن هوا

سیستم حمل و نقل تجاری را چک می کند ، وسایل را چک می کند
در مسیر راه احتیاج نیست که بار چک شود و از توقف بازدید های بی مورد
جلوگیری خواهد شد.

real time Traveler Information اطلاع رسانی همزمان به مسافران

مثال : برای مسافران منتظر اتوبوس در تابلو نمایش داده می شود که
اتوبوس چه زمانی میرسد

VMS : اطلاعات ترفیکی که روی صفحه در حین سفر نمایش داده می
شود.

اطلاعات ترافیکی از طریق اینترنت

در میدان هفت تیر یک VMS را گذاشتند که بزرگراه ها را نشان میدهد که
ترافیک دارد یا نه

در سایت مرکز کنترل به صورت اینترنتی نمایش داده می شود
به صورت رنگ نقشه راه های داخل شهر را نمایش می دهد

اهمیت ITS :
امنیت ، قابلیت دسترسی و کیفیت حمل و نقل

با افزایش جمعیت و ازدحام امکان زیر ساخت جدید وجود ندارد!!!
اولین راهکار : اضافه کردن تکنولوژی های جدید به سیستم های حمل و
نقل موجود

ارائه یک سیستم حمل و نقل بهم پیوسته

در مناطق شهری فضایی برای ساخت بزرگراه جدید وجود ندارد
باید اطلاعات به روز او امکانات الکترونیکی ارائه دهیم
در اندازه های کوچکتر پیاده سازی کنیم

اطلاعات باید به صورت پیوسته و به روز باشد.

یک نمودار از سال ۱۹۸۵ تا ۲۰۰۰ لیست کرده
۱۹۸۸ : mibility
its امریکا در سال ۱۹۹۱ istea مطرح شد
۱۹۹۴ : برنامه نویسی دموی مدلها
AHS :
inter modal

در مستندات این هفته تحقیق در Commercial Vehicle Electronic
Clearance چه خدماتی را ارائه می دهد

برای مقدمات زیر سیستم های دیگر هم تحقیق کنید.

 

در هر محور یک document ارائه دهید

Sep 072013
 

حمل و نقل هوشمند
و زیر سیستم های حمل و نقل هوشمند

نحوه ارزیابی :
تحقیق گروهی : ۶ نمره

تحقیق گروهی شامل ۴ محور است:
محور ۱ : تکنولوژی های اساسی its با تاکید بر شبکه های بزرگ مقیاس
محور ۲ : معماری
محور ۳ : برنامه و بودجه
محور ۴ : آینده پژوهی

Sep 072013
 

۹۲/۰۶/۱۶
تصمیم گیری با معیار های چندگانه:
دکتر خرم
بهینه سازی چند هدفه
در صورتی که معیار معینی را در نظر می گیریم

کتاب : Multi Criteria Optimization
مفهوم فضای تصمیم ( متغیر) و فضای معیار( هدف) و نماد های مختلف بهینگی را ارائه می دهیم
قرار است یک اتومبیل جدید بخریم که ۴ تا مدل مورد نظر است
تصمیم گیری براساس ۱- قیمت ۲- قدرت موتور ۳- مصرف بنزین

۴ تا گزینه داریم و ۳ تا معیار

در یک جدول معیار ها در ستون و گزینه ها را در سطر ها قرار می دهیم

مثال دوم : ساخت سد ( طراحی های مختلف )
توایعی از متغیر های تصمیم

۵ فصل
تمرین های آخر فصل اجباری هست

میانترم ۴۰%

تدریس یار خانم خالدیان : حل تمرین

مثال های گسسته و پیوسته داریم
سیمپلکس ۲ هدفه با چند هدفه با هم فرق می کنند

مسایلی که با سیمپلکس ۲ هدفه حل می کنیم نمیتوانیم از آن در چند هدفه استفاده کنیم

فضای تصمیم و فضای هدف به صورت هندسی تعریف می کنیم

در بهینه سازی معمولی می توانیم هدف مطلق را تعیین کنیم
ولی در اینجا نمی توانیم به صورت مطلق بگوییم کدام بهتر است.

partial order
totally order

فضای شدنی ( مجموعه ماشین هاست )
فضای تصمیم : هر مجموعه ای که x زیر مجموعه آن باشد فضای تصمیم می گوییم

 

 لینک کتاب :

www.math.hcmus.edu.vn/~nvthuy/om/Multicriteria%20Optimization.pdf

Jul 232013
 
 با عرض سلام خدمت دانشجویان گرامی​
.لطفا پروژه های درس بهینه سازی را همراه با گزارش مختصری از مساله انتخابی، روش یا روش های حل مساله، پارامترهای انتخابی و … تا قبل از ۱۵ مرداد ایمیل نمایید.
روز دوشنبه ۲۱ مرداد ماه نیز تحویل حضوری پروژه ها خواهد بود
تحویل بدون گزارش و یا گزارش بدون تحویل نمره ای نخواهد داشت
موفق باشید بابایی
Jul 172013
 
دوستان گرامی
خانم مهندس مولائی فرمودند که تحویل پروژه از ساعت ۹:۳۰  روز یک شنبه ۳۰ تیر شروع می شود . و به  ترتیب حروف الفبا دانشجویان گرامی می توانند حداکثر تا یک ربع پروژه خود را ارائه کنند .
ضمنا خواستند که همه دانشجویان از ساعت ۱۰ حضور داشته باشند .
فکر کنم منظورشان این است که تحویل پروژه در حضور همه باشد .
لطفا به دوستانتان اطلاع رسانی کنید .
ممنون
” به نقل از مهندس سامان افتخاری “
—————————
 آخرین اطلاعیه  :
با سلام
دوستان خانم مهندس مولائی تماس گرفتند
ساعت  تحویل پروژه روز یک شنبه  و دوشنبه ساعت چهار و نیم عصر تا ساعت ۹ می باشد .
حتما به دوستان خود بگوئید
Jul 092013
 

Example: Robust Fitting

  1. Create a baseline sinusoidal signal:
    xdata = (0:0.1:2*pi)'; 
    y0 = sin(xdata);
  2. Add noise to the signal with non-constant variance:
    % Response-dependent Gaussian noise
    gnoise = y0.*randn(size(y0));
    
    % Salt-and-pepper noise
    spnoise = zeros(size(y0)); 
    p = randperm(length(y0));
    sppoints = p(1:round(length(p)/5));
    spnoise(sppoints) = 5*sign(y0(sppoints));
    
    ydata = y0 + gnoise + spnoise;
  3. Fit the noisy data with a baseline sinusoidal model:
    f = fittype('a*sin(b*x)'); 
    fit1 = fit(xdata,ydata,f,'StartPoint',[1 1]);
  4. Identify “outliers” as points at a distance greater than 1.5 standard deviations from the baseline model, and refit the data with the outliers excluded:
    fdata = feval(fit1,xdata); 
    I = abs(fdata - ydata) > 1.5*std(ydata); 
    outliers = excludedata(xdata,ydata,'indices',I);
    
    fit2 = fit(xdata,ydata,f,'StartPoint',[1 1],'Exclude',outliers);
  5. Compare the effect of excluding the outliers with the effect of giving them lower bisquare weight in a robust fit:
    fit3 = fit(xdata,ydata,f,'StartPoint',[1 1],'Robust','on');
  6. Plot the data, the outliers, and the results of the fits:
    plot(fit1,'r-',xdata,ydata,'k.',outliers,'m*') 
    hold on
    plot(fit2,'c--')
    plot(fit3,'b:')
    xlim([0 2*pi])

    fitplots

  7. Plot the residuals for the two fits considering outliers:
    figure 
    plot(fit2,xdata,ydata,'co','residuals') 
    hold on
    plot(fit3,xdata,ydata,'bx','residuals')resplot
Jul 092013
 

http://www.stanford.edu/~boyd/papers/admm/lasso/lasso_example.html

http://www-stat.stanford.edu/~susan/courses/b494/index/node35.html

http://www-stat.stanford.edu/~susan/courses/s227/node5.html

http://www-stat.stanford.edu/~susan/courses/b494/index/node29.html

lasso

Regularized least-squares regression using lasso or elastic net algorithms

Syntax

B = lasso(X,Y)

[B,FitInfo] = lasso(X,Y)

[B,FitInfo] = lasso(X,Y,Name,Value)

Description

B = lasso(X,Y) returns fitted least-squares regression coefficients for a set of regularization coefficients Lambda.

[B,FitInfo] = lasso(X,Y) returns a structure containing information about the fits.

[B,FitInfo] = lasso(X,Y,Name,Value) fits regularized regressions with additional options specified by one or more Name,Value pair arguments.

Input Arguments

X Numeric matrix with n rows and p columns. Each row represents one observation, and each column represents one predictor (variable).
Y Numeric vector of length n, where n is the number of rows of X. Y(i) is the response to row i of X.

Name-Value Pair Arguments

Specify optional comma-separated pairs of Name,Value arguments. Name is the argument name and Value is the corresponding value. Name must appear inside single quotes (' '). You can specify several name and value pair arguments in any order as Name1,Value1,...,NameN,ValueN.

'Alpha' Scalar value from 0 to 1 (excluding 0) representing the weight of lasso (L1) versus ridge (L2) optimization. Alpha = ۱ represents lasso regression, Alpha close to 0 approaches ridge regression, and other values represent elastic net optimization. See Definitions.Default: 1
'CV' Method lasso uses to estimate mean squared error:

  • K, a positive integer — lasso uses K-fold cross validation.
  • cvp, a cvpartition object — lasso uses the cross-validation method expressed in cvp. You cannot use a 'leaveout' partition with lasso.
  • 'resubstitution'lasso uses X and Y to fit the model and to estimate the mean squared error, without cross validation.

Default: 'resubstitution'

'DFmax' Maximum number of nonzero coefficients in the model. lasso returns results only for Lambda values that satisfy this criterion.Default: Inf
'Lambda' Vector of nonnegative Lambda values. See Definitions.

  • If you do not supply Lambda, lasso calculates the largest value of Lambda that gives a nonnull model. In this case, LambdaRatio gives the ratio of the smallest to the largest value of the sequence, and NumLambda gives the length of the vector.
  • If you supply Lambda, lasso ignores LambdaRatio and NumLambda.

Default: Geometric sequence of NumLambda values, the largest just sufficient to produce B = ۰

'LambdaRatio' Positive scalar, the ratio of the smallest to the largest Lambda value when you do not set Lambda.If you set LambdaRatio = ۰, lasso generates a default sequence of Lambda values, and replaces the smallest one with 0.Default: 1e-4
'MCReps' Positive integer, the number of Monte Carlo repetitions for cross validation.

  • If CV is 'resubstitution' or a cvpartition of type 'resubstitution', MCReps must be 1.
  • If CV is a cvpartition of type 'holdout', MCReps must be greater than 1.

Default: 1

'NumLambda' Positive integer, the number of Lambda values lasso uses when you do not set Lambda. lasso can return fewer than NumLambda fits if the if the residual error of the fits drops below a threshold fraction of the variance of Y.Default: 100
'Options' Structure that specifies whether to cross validate in parallel, and specifies the random stream or streams. Create the Options structure with statset. Option fields:

  • UseParallel — Set to true to compute in parallel. Default is false.
  • UseSubstreams — Set to true to compute in parallel in a reproducible fashion. To compute reproducibly, set Streams to a type allowing substreams: 'mlfg6331_64' or 'mrg32k3a'. Default is false.
  • Streams — A RandStream object or cell array consisting of one such object. If you do not specify Streams, lasso uses the default stream.
'PredictorNames' Cell array of strings representing names of the predictor variables, in the order in which they appear in X.Default: {}
'RelTol' Convergence threshold for the coordinate descent algorithm (see Friedman, Tibshirani, and Hastie [3]). The algorithm terminates when successive estimates of the coefficient vector differ in the L2 norm by a relative amount less than RelTol.Default: 1e-4
'Standardize' Boolean value specifying whether lasso scales X before fitting the models.Default: true
'Weights' Observation weights, a nonnegative vector of length n, where n is the number of rows of X. lasso scales Weights to sum to 1.Default: 1/n * ones(n,1)

Output Arguments

B Fitted coefficients, a p-by-L matrix, where p is the number of predictors (columns) in X, and L is the number of Lambda values.
FitInfo Structure containing information about the model fits.

Field in FitInfo Description
Intercept Intercept term β۰ for each linear model, a 1-by-L vector
Lambda Lambda parameters in ascending order, a 1-by-L vector
Alpha Value of Alpha parameter, a scalar
DF Number of nonzero coefficients in B for each value of Lambda, a 1-by-L vector
MSE Mean squared error (MSE), a 1-by-L vector

 

If you set the CV name-value pair to cross validate, the FitInfo structure contains additional fields.

Field in FitInfo Description
SE The standard error of MSE for each Lambda, as calculated during cross validation, a 1-by-L vector
LambdaMinMSE The Lambda value with minimum MSE, a scalar
Lambda1SE The largest Lambda such that MSE is within one standard error of the minimum, a scalar
IndexMinMSE The index of Lambda with value LambdaMinMSE, a scalar
Index1SE The index of Lambda with value Lambda1SE, a scalar

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%

% File: Lasso.m

% Author: Jinzhu Jia

%

% One simple (Gradiant Descent) implementation of the Lasso

% The objective function is:

% ۱/۲*sum((Y – X * beta -beta0).^2) + lambda * sum(abs(beta))

% Comparison with CVX code is done

% Reference: To be uploaded

%

% Version 4.23.2010

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

function [beta0,beta] = Lasso(X,Y,lambda)

n = size(X,1);

p = size(X,2);

if(size(Y,1) ~= n)

fprintf( ‘Error: dim of X and dim of Y are not match!!\n’)

quit cancel

end

beta0 = 0;

beta= zeros(p,1);

crit = 1;

step = 0;

while(crit > 1E-5)

step = step + 1;

obj_ini = 1/2*sum((Y – X * beta -beta0).^2) + lambda * sum(abs(beta));

beta0 = mean(Y – X*beta);

for(j = 1:p)

a = sum(X(:,j).^2);

b = sum((Y – X*beta).* X(:,j)) + beta(j) * a;

if lambda >= abs(b)

beta(j) = 0;

else

if b>0

beta(j) = (b – lambda) / a;

else

beta(j) = (b+lambda) /a;

end

end

end

obj_now = 1/2*sum((Y – X * beta -beta0).^2) + lambda * sum(abs(beta));

crit = abs(obj_now – obj_ini) / abs(obj_ini);

end

————————————————————————-

%% Lasso regularization example

% Copyright (c) 2011, The MathWorks, Inc.

%% Introduction to using LASSO

using the lasso functionality introduced
% in R2011b. It is motivated by

% This demo explains how to star

tan example in Tibshiranis original paper

% on the lasso.

via the lasso.
% J. Royal. Statist. Soc B., Vol. 58, No. 1, pages 267-288)

% Tibshirani, R. (1996). Regression shrinkage and selection
 .

% The data set that were working with in this demo is a wide

ferent
% variables and only 20 observations. 5 out of the 8 variables h

% dataset with correlated variables. This data set includes 8 di
fave
% coefficients of zero. These variables have zero impact on the model. The

up workspace and set random seed

clear all
clc

% Set the random num

% other three variables have non negative values and impact the model

%% Clean
 ber stream
rng(1981);

%% Creating data set with specific characteristics

% Create eight X variables

with one another
% The covariance matrix is spec

% The mean of each variable will be equal to zero
mu = [0 0 0 0 0 0 0 0];

% The variable are correlate
dified as
i = 1:8;
matrix = abs(bsxfun(@minus,i',i));
covariance = repmat(.5,8,8).^matrix;

, covariance, 20);

% Create a hyperplane that describes Y = f(X)
Beta = [3; 1

% Use these parameters to generate a set of multivariate normal random numbers
X = mvnrnd(m
u.5; 0; 0; 2; 0; 0; 0];
ds = dataset(Beta);

% Add in a noise vector
Y = X * Beta + 3 * randn(20,1);

%% Use linear regression to fit the model 

b = regress(Y,X);

s, ‘PlotType’,

ds.Linear = b;

%% Use a lasso to fit the model

[B Stats] = lasso(X,Y, 'CV', 5);

disp(B)
disp(Stats)

%% Create a plot showing MSE versus lamba

lassoPlot(B, Sta
t 'CV')

%% Identify a reasonable set of lasso coefficients

% View the regression coefficients associated with Index1SE

ds.Lasso = B(:,Stats.Index1SE);
disp(ds)

(۱۰۰,۱);
Coeff_Num = zeros(100,1);
Betas = zeros(8,100);
cv

%%  Create a plot showing coefficient values versus L1 norm

lassoPlot(B, Stats)

%%  Run a Simulation

% Preallocate some variables
MSE = zeros(100,1);
mse = zero
s_Reg_MSE = zeros(1,100);

for i = 1 : 100

    X = mvnrnd(mu, covariance, 20);
    Y = X * Beta + randn(20,1);

    [B Stats] = lasso(X,Y, 'CV', 5);

E(i) = Stats.MSE(:, Shrink);

regf = @(XTRAIN, ytrain, XTEST)(XTEST*

    Shrink = Stats.Index1SE -  ceil((Stats.Index1SE - Stats.IndexMinMSE)/2);
    Betas(:,i) = B(:,Shrink) > 0;
    Coeff_Num(i) = sum(B(:,Shrink) > 0);
    M
Sregress(ytrain,XTRAIN));
    cv_Reg_MSE(i) = crossval('mse',X,Y,'predfun',regf, 'kfold', 5);

end

Number_Lasso_Coefficients = mean(Coeff_Num);
disp(Number_Lasso_Coefficients)

MSE_Ratio = median(cv_Reg_MSE)/median(MSE);

disp(MSE_Ratio)

Jul 082013
 

توضیح رگرسیون ریج :
مقیاسی که میخواهیم مینیمم کنیم مجموع مربعات خطا است
به شرطی که مجموع مربعات ضرایب از یک مقداری کوچکتر باشد

معادل این است که این کمیت را می نیمم کنیم
لاندا همان ضریب لاگرانژ است

load hald

       k = 0:.01:1;

       b = ridge(heat, ingredients, k);

       plot(k, b’);

       xlabel(‘Ridge parameter’); ylabel(‘Standardized coef.’);

       title(‘Ridge Trace for Hald Data’)

       legend(‘x1′,’x2′,’x3′,’x4’);

ridge-regression-1

clear all;

close all;

x=randn(2,100);

x(2,:)=-5*x(1,:)+4+2*randn(1,100);

x=x’;

Y=x(:,2);

X=[x(:,1)];

%[b,bint,R,Rint,stats]=regress(Y,X);

k=0;

for lambda=0:.1:10

    k=k+1;

    b=ridge(Y,X,lambda,0);

    Yhat=X*b(2:end)+b(1);

    R=Y-Yhat;

    % plot(x(:,1),Y,’*g’)

    % hold on

    % plot(x(:,1),R,’+r’)

    sse(k)=R’*R;

end

Jul 082013
 

Ridge regression

Syntax

b = ridge(y,X,k)
b = ridge(y,X,k,scaled)

Description

b = ridge(y,X,k) returns a vector b of coefficient estimates for a multilinear ridge regression of the responses in y on the predictors in XX is an n-by-p matrix of p predictors at each of n observations. y is an n-by-1 vector of observed responses. k is a vector of ridge parameters. If k has m elements, b is p-by-m. By default, b is computed after centering and scaling the predictors to have mean 0 and standard deviation 1. The model does not include a constant term, and X should not contain a column of 1s.

b = ridge(y,X,k,scaled) uses the {0,1}-valued flag scaled to determine if the coefficient estimates in b are restored to the scale of the original data. ridge(y,X,k,0) performs this additional transformation. In this case, b contains p+1 coefficients for each value of k, with the first row corresponding to a constant term in the model. ridge(y,X,k,1) is the same as ridge(y,X,k). In this case, b contains p coefficients, without a coefficient for a constant term.

The relationship between b0 = ridge(y,X,k,0) and b1 = ridge(y,X,k,1) is given by

       m = mean(X);
       s = std(X,0,1)';
       b1_scaled = b1./s;
       b0 = [mean(y)-m*temp; b1_scaled]

This can be seen by replacing the xi (i = ۱, …, n) in the multilinear model y = b00 + b10x1 + … + bn0xn with the z-scores zi = (xi – μi)/σ, and replacing y with y – μy.

In general, b1 is more useful for producing plots in which the coefficients are to be displayed on the same scale, such as a ridge trace (a plot of the regression coefficients as a function of the ridge parameter). b0 is more useful for making predictions.

Coefficient estimates for multiple linear regression models rely on the independence of the model terms. When terms are correlated and the columns of the design matrix X have an approximate linear dependence, the matrix (XTX)–۱ becomes close to singular. As a result, the least squares estimate

becomes highly sensitive to random errors in the observed response y, producing a large variance. This situation of multicollinearity can arise, for example, when data are collected without an experimental design.

Ridge regression addresses the problem by estimating regression coefficients using

where k is the ridge parameter and I is the identity matrix. Small positive values of k improve the conditioning of the problem and reduce the variance of the estimates. While biased, the reduced variance of ridge estimates often result in a smaller mean square error when compared to least-squares estimates.

Example

Load the data in acetylene.mat, with observations of the predictor variables x1x2x3, and the response variable y:

load acetylene

Plot the predictor variables against each other:

subplot(1,3,1)
plot(x1,x2,'.')
xlabel('x1'); ylabel('x2'); grid on; axis square

subplot(1,3,2)
plot(x1,x3,'.')
xlabel('x1'); ylabel('x3'); grid on; axis square

subplot(1,3,3)
plot(x2,x3,'.')
xlabel('x2'); ylabel('x3'); grid on; axis square

Note the correlation between x1 and the other two predictor variables.

Use ridge and x2fx to compute coefficient estimates for a multilinear model with interaction terms, for a range of ridge parameters:

X = [x1 x2 x3];
D = x2fx(X,'interaction');
D(:,1) = []; % No constant term
k = 0:1e-5:5e-3;
b = ridge(y,D,k);

Plot the ridge trace:

figure
plot(k,b,'LineWidth',2)
ylim([-100 100])
grid on 
xlabel('Ridge Parameter') 
ylabel('Standardized Coefficient') 
title('{\bf Ridge Trace}') 
legend('constant','x1','x2','x3','x1x2','x1x3','x2x3')

The estimates stabilize to the right of the plot. Note that the coefficient of the x2x3 interaction term changes sign at a value of the ridge parameter ≈ ۵ × ۱۰–۴.

Jul 072013
 

## Practical session: Linear regression

## Jean-Philippe.Vert@mines.org

##

## In this practical session to test several linear regression methods on the prostate cancer dataset

##

####################################

## Prepare data

####################################

# Download prostate data

con = url (“http://www-stat.stanford.edu/~tibs/ElemStatLearn/datasets/prostate.data”)

prost=read.csv(con,row.names=1,sep=”\t”)

# Alternatively, load the file and read from local file as follows

# prost=read.csv(‘prostate.data.txt’,row.names=1,sep=”\t”)

# Scale data and prepare train/test split

prost.std <- data.frame(cbind(scale(prost[,1:8]),prost$lpsa))

names(prost.std)[9] <- ‘lpsa’

data.train <- prost.std[prost$train,]

data.test <- prost.std[!prost$train,]

y.test <- data.test$lpsa

n.train <- nrow(data.train)

####################################

## Ordinary least squares

####################################

m.ols <- lm(lpsa ~ . , data=data.train)

summary(m.ols)

y.pred.ols <- predict(m.ols,data.test)

summary((y.pred.ols – y.test)^2)

# the importance of a feature depends on other features. Compare the following. Explain (visualize).

summary(lm(lpsa~svi,data=datatrain))

summary(lm(lpsa~svi+lcavol,data=datatrain))

####################################

## Best subset selection

####################################

library(leaps)

l <- leaps(data.train[,1:8],data.train[,9],method=’r2′)

plot(l$size,l$r2)

l <- leaps(data.train[,1:8],data.train[,9],method=’Cp’)

plot(l$size,l$Cp)

# Select best model according to Cp

bestfeat <- l$which[which.min(l$Cp),]

# Train and test the model on the best subset

m.bestsubset <- lm(lpsa ~ .,data=data.train[,bestfeat])

summary(m.bestsubset)

y.pred.bestsubset <- predict(m.bestsubset,data.test[,bestfeat])

summary((y.pred.bestsubset – y.test)^2)

####################################

## Greedy subset selection

####################################

library(MASS)

# Forward selection

m.init <- lm(lpsa ~ 1 , data=data.train)

m.forward <- stepAIC(m.init, scope=list(upper=~lcavol+lweight+age+lbph+svi+lcp+gleason+pgg45,lower=~1) , direction=”forward”)

y.pred.forward <- predict(m.forward,data.test)

summary((y.pred.forward – y.test)^2)

# Backward selection

m.init <- lm(lpsa ~ . , data=data.train)

m.backward <- stepAIC(m.init , direction=”backward”)

y.pred.backward <- predict(m.backward,data.test)

summary((y.pred.backward – y.test)^2)

# Hybrid selection

m.init <- lm(lpsa ~ 1 , data=data.train)

m.hybrid <- stepAIC(m.init, scope=list(upper=~lcavol+lweight+age+lbph+svi+lcp+gleason+pgg45,lower=~1) , direction=”both”)

y.pred.hybrid <- predict(m.hybrid,data.test)

summary((y.pred.hybrid – y.test)^2)

####################################

## Ridge regression

####################################

library(MASS)

m.ridge <- lm.ridge(lpsa ~ .,data=data.train, lambda = seq(0,20,0.1))

plot(m.ridge)

# select parameter by minimum GCV

plot(m.ridge$GCV)

# Predict is not implemented so we need to do it ourselves

y.pred.ridge = scale(data.test[,1:8],center = F, scale = m.ridge$scales)%*% m.ridge$coef[,which.min(m.ridge$GCV)] + m.ridge$ym

summary((y.pred.ridge – y.test)^2)

####################################

## Lasso

####################################

library(lars)

m.lasso <- lars(as.matrix(data.train[,1:8]),data.train$lpsa)

plot(m.lasso)

# Cross-validation

r <- cv.lars(as.matrix(data.train[,1:8]),data.train$lpsa)

bestfraction <- r$fraction[which.min(r$cv)]

##### Note 5/8/11: in the new lars package 0.9-8, the field r$fraction seems to have been replaced by r$index. The previous line should therefore be replaced by:

# bestfraction <- r$index[which.min(r$cv)]

# Observe coefficients

coef.lasso <- predict(m.lasso,as.matrix(data.test[,1:8]),s=bestfraction,type=”coefficient”,mode=”fraction”)

coef.lasso

# Prediction

y.pred.lasso <- predict(m.lasso,as.matrix(data.test[,1:8]),s=bestfraction,type=”fit”,mode=”fraction”)$fit

summary((y.pred.lasso – y.test)^2)

####################################

## PCR

####################################

library(pls)

m.pcr <- pcr(lpsa ~ .,data=data.train , validation=”CV”)

# select number of components (by CV)

ncomp <- which.min(m.pcr$validation$adj)

# predict

y.pred.pcr <- predict(m.pcr,data.test , ncomp=ncomp)

summary((y.pred.pcr – y.test)^2)

####################################

## PLS

####################################

library(pls)

m.pls <- plsr(lpsa ~ .,data=data.train , validation=”CV”)

# select number of components (by CV)

ncomp <- which.min(m.pls$validation$adj)

# predict

y.pred.pcr <- predict(m.pls,data.test , ncomp=ncomp)

summary((y.pred.pcr – y.test)^2)




%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%

% File: Lasso.m

% Author: Jinzhu Jia

%

% One simple (Gradiant Descent) implementation of the Lasso

% The objective function is:

% ۱/۲*sum((Y – X * beta -beta0).^2) + lambda * sum(abs(beta))

% Comparison with CVX code is done

% Reference: To be uploaded

%

% Version 4.23.2010

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

function [beta0,beta] = Lasso(X,Y,lambda)

n = size(X,1);

p = size(X,2);

if(size(Y,1) ~= n)

fprintf( ‘Error: dim of X and dim of Y are not match!!\n’)

quit cancel

end

beta0 = 0;

beta= zeros(p,1);

crit = 1;

step = 0;

while(crit > 1E-5)

step = step + 1;

obj_ini = 1/2*sum((Y – X * beta -beta0).^2) + lambda * sum(abs(beta));

beta0 = mean(Y – X*beta);

for(j = 1:p)

a = sum(X(:,j).^2);

b = sum((Y – X*beta).* X(:,j)) + beta(j) * a;

if lambda >= abs(b)

beta(j) = 0;

else

if b>0

beta(j) = (b – lambda) / a;

else

beta(j) = (b+lambda) /a;

end

end

end

obj_now = 1/2*sum((Y – X * beta -beta0).^2) + lambda * sum(abs(beta));

crit = abs(obj_now – obj_ini) / abs(obj_ini);

end

مثال خروجی :

example-regress-matlab

Jul 072013
 

رگرسیون چند متغیره، یکی از متدهای آماری مقدماتی جهت پیش بینی روند متغییری وابسته به دو یا چند متغیر مستقل است.

از این روش میتوان برای تصمیم گیری در مورد خرید های پروژه استفاده های زیادی کرد. به عنوان مثال میتوان عادلانه بودن قیمت پیشنهادی برای یکی از ماشین آلات دست دوم را مورد بررسی قرار داد.

به این صورت که قیمت را در دوره های گذشته برای ماشین های مشابه با متغیرهای متفاوت، ( مثلاً مدت کارکرد و مدل ماشین ) مورد بررسی قرار داده و تابع قیمت را بر اساس فاکتورهای مدت کارکرد و مدل تخمین زد.

میزان انحراف قیمت پیشنهادی از قیمت تخمین زده شده توسط تکنیک رگرسیون خطی چند متغیره میتواند شاخص مناسبی در تصمیم گیری جهت خرید باشد.

 

رگرسیون درmatlab به صورت های زیر تعریف شده است.

 

xreglinear/regression

 REGRESSION returns the regression matrix for the model m

 [r,ok]=regression(m)

function [r,ok]=regression(m)

%REGRESSION returns the regression matrix for the model m

%

% [r,ok]=regression(m)

 %  Copyright 2000-2007 The MathWorks, Inc. and Ford Global Technologies, Inc.

%   $Revision: 1.2.2.3 $  $Date: 2007/06/18 22:38:40 $

if ~isfield(m.Store,’Q’)

   error(‘mbc:xreglinear:InvalidState’,…

       ‘Use InitStore first to initialize data in model’);

end

 r=m.Store.X;

if ~isempty(r)

   r=r(:,terms2(m));

end

if nargout>1

   % rank check on regression matrix

   ok=~(rank(r)

end

 localsurface/regression

  r=REGRESSION(m) returns the regression matrix for the model m

function [r,ok]=regression(m)

% r=REGRESSION(m) returns the regression matrix for the model m

 %  Copyright 2000-2004 The MathWorks, Inc. and Ford Global Technologies, Inc.

  %   $Revision: 1.2.2.2 $  $Date: 2004/02/09 07:42:28 $

 [r,ok]=regression(m.userdefined);

 لازم به ذکر است که تابع رگرسیون به صورت doubleکار میکند وبصورت زیر فراخوانی میشود.

R =regression(m)

اما ما میتوانیم تابع مورد نظرمان را با انتخاب گزینه ی file>>new>>…..و هر یک از گزینه های new، تعریف کنیم.

 برای استفاده از تابع Ridge :

X = [x1 x2 x3];

D = x2fx(X,’interaction’);

D(:,1) = []; % No constant term

k = 0:1e-5:5e-3;

b = ridge(y,D,k);

Plot the ridge trace:

figure

plot(k,b,’LineWidth’,2)

ylim([-100 100])

grid on

xlabel(‘Ridge Parameter’)

ylabel(‘Standardized Coefficient’)

title(‘{\bf Ridge Trace}’)

legend(‘x1′,’x2′,’x3′,’x1x2′,’x1x3′,’x2x3’)

matlab-ridge

———————————————-

مثالی از رگرسیون ریج

Example of a matlab ridge regression function:

 

function bks=ridge(Z,Y,kvalues)

% Ridge Function of Z (centered, explanatory)

% Y is the response,

es where to compute
[n,p]=size(Z);
ZpY=Z’

% kvalues are the val

u*Y;

ZpZ=Z’*Z;

m=length(kvalues);

bks=ones(p,m);

for k =1:m

.۵)
kvalues =
Columns 1 through 7

bks(:,k)=(ZpZ+diag(kvalues(k)))\ZpY;

end

values=(0:.05

>> 
k

: ۰ ۰٫۰۵۰۰ ۰٫۱۰۰۰ ۰٫۱۵۰۰ ۰٫۲۰۰۰ ۰٫۲۵۰۰ ۰٫۳۰۰۰

  Columns 8 through 11

۱٫۵۵۱۱ ۱٫۵۱۷۶ ۱٫۴۸۸۲ ۱٫۴۶۲۲

    ۰٫۳۵۰۰    ۰٫۴۰۰۰    ۰٫۴۵۰۰    ۰٫۵۰۰۰
>> ridge(Z,Y,(0:.05:.5))
ans =
  Columns 1 through 7 

    ۱٫۴۳۹۰    ۱٫۴۱۸۳    ۱٫۳۹۹۶
    ۰٫۵۱۰۲    ۰٫۴۷۷۵    ۰٫۴۴۸۸    ۰٫۴۲۳۴    ۰٫۴۰۰۹    ۰٫۳۸۰۶    ۰٫۳۶۲۴

-۰٫۲۲۹۲ -۰٫۲۵۱۴ -۰٫۲۷۱۳ -۰٫۲۸۹۲
Columns 8 through 11
۱٫

    ۰٫۱۰۱۹    ۰٫۰۶۷۸    ۰٫۰۳۷۸    ۰٫۰۱۱۳   -۰٫۰۱۲۲   -۰٫۰۳۳۴   -۰٫۰۵۲۴
   -۰٫۱۴۴۱   -۰٫۱۷۶۲   -۰٫۲۰۴۳
 ۳۸۲۷    ۱٫۳۶۷۳    ۱٫۳۵۳۲    ۱٫۳۴۰۳
    ۰٫۳۴۵۹    ۰٫۳۳۰۹    ۰٫۳۱۷۲    ۰٫۳۰۴۶
   -۰٫۰۶۹۶   -۰٫۰۸۵۳   -۰٫۰۹۹۷   -۰٫۱۱۲۸
   -۰٫۳۰۵۴   -۰٫۳۲۰۱   -۰٫۳۳۳۶   -۰٫۳۴۶۰

۲٫۶۹۷۳
>> k=(4*5.9829)/2.6973

%Formula gives for choice of k:
>> norm(Yhat-Yc)^2
ans =
   ۴۷٫۸۶۳۶
>> 47.8636/(13-5)
ans =
    ۵٫۹۸۲۹   % estimates the variance sigma^2
>> bk0'*bk0
ans =
  
 k =

.۸۷۲۴ % This is a suggested value for k

    
۸

Jul 032013
 

نکاتی درباره کار با نرم افزار متلب

روش اول تعریف کردن بردارها

» v=[1 2 3]

v =

۱ ۲ ۳

» w=[‘abcd’ ‘1234’]

w =

abcd1234

  • برای تعریف بردارهای عددی حتما” باید از کروشه استفاده کرد ولی استفاده از آنها برای متغیرهای حرفی الزامی نیست.

  •  حالت خاصی از بردار عبارتست از بردار تهی که به صورت [ ] تعریف می گردد.

 

روش دوم تعریف کردن بردارها

» x = 0:4

 x=

۰ ۱ ۲ ۳ ۴

» x = (0:0.2:1)

x =

۰  ۰٫۲  ۰٫۴  ۰٫۶  ۰٫۸  ۱

matlab-function

عملیات ماتریسی روی آرایه ها

در MATLAB می توان دو نوع عملیات روی آرایه‌ها انجام داد که به آنها عملیات ماتریسی و عملیات عضو به عضو می گویند.

عملیات ماتریسی شامل محاسبه ترانهاده، ضرب ماتریسی، جمع و تفریق آرایه های هم اندازه و غیره می شود.

» m=[1 2 3

۴ ۵ ۶];

» ۲*m

ans =

۲ ۴ ۶

۸ ۱۰ ۱۴

یا

» m+1

ans =

۲ ۳ ۴

۵ ۶ ۸

» r=rand(2,4)

r =

۰٫۹۵۰۱ ۰٫۶۰۶۸ ۰٫۸۹۱۳ ۰٫۴۵۶۵

۰٫۲۳۱۱ ۰٫۴۸۶۰ ۰٫۷۶۲۱ ۰٫۰۱۸۵

» r’

ans =

۰٫۹۵۰۱ ۰٫۲۳۱۱

۰٫۶۰۶۸ ۰٫۴۸۶۰

۰٫۸۹۱۳ ۰٫۷۶۲۱

۰٫۴۵۶۵ ۰٫۰۱۸۵

» r=rand(2,4);

» v=[1:4];

» r*v’

ans =

۶٫۶۶۳۶

۳٫۵۶۳۴

چندجمله‌ای‌ها

یک چند جمله‌ای در MATLAB به صورت یک بردار سطری که مولفه های آن ضرایب چندجمله ای به ترتیب نزولی هستند معرفی می شود.

این نرم افزار قابلیت محاسبه‌ی ریشه های یک چند جمله ای، محاسبه مقدار یک چند جمله ای، ضرب و تقسیم چند جمله ایها، مشتق چند جمله ای و نیز منحنی رگرسیون چند جمله ای را محاسبه نماید.

تعریف چندجمله‌ای‌ها:

مثال: برای تعریف چندجمله ای

p(x) = x٣ -٢x +5

» p=[1 0 -2 5];

ریشه های یک چند جمله ای:

ریشه های یک چند جمله ای را می توانید به صورت زیر بدست آورد:

» r=roots(p)

r =

-۲٫۰۹۴۶

۱٫۰۴۷۳ + ۱٫۱۳۵۹i

۱٫۰۴۷۳ – ۱٫۱۳۵۹i

تابع polyval  مقدار چند جمله ای را در هر نقطه محاسبه می‌نماید. برای مثال مقدار ( ۵p( به طریق زیر محاسبه می گردد:

 » polyval(p,5)

ans =

۱۲۰

ضرب و تقسیم چند جمله ایها

برای ضرب و تقسیم چند جمله ایها می توانید توابع conv و deconv را بکار ببرید.

» a=[1 1 1]; b=[1 -1];

» c=conv(a,b)

c =

۱ ۰ ۰ -۱

مشتق چند جمله ای

مشتق چند جمله ای را می توانید با بکار بردن تابع polyder محاسبه کرد:

» c=polyder(a)

c =

۲  ۱

رگرسیون منحنی چند جمله ای

تابعpolyfit ضرایب بهترین چند جمله ای را پیدا می کند که از میان مجموعه نقاط داده شده عبور می نماید.

» x=[1 2 3 4 5];

» y=[5.5 43.1 128 290.7 498.4];

» p=polyfit(x,y,3)

p =

-۰٫۱۹۱۷ ۳۱٫۵۸۲۱ -۶۰٫۳۲۶۲ ۳۵٫۳۴۰۰

عدد ۳ در تابع نشانگر درجه منحنی رگرسیون است.

رسم نمودار

 » x=linspace(0,2); y=x.*exp(-x);

» plot(x,y)

» grid

» xlabel(‘x’)

» ylabel(‘y’)

» title(‘y=x.e^{-x}’)

» text(1,.2,’centre’)

 matlab Chart

دستورهای زیادی در MATLAB برای ترسیم نمودارهای سه بعدی وجود دارند. یک منحنی سه بعدی را می توانید به کمک دستور  Plot3رسم کنید:

» t=0:.01:6*pi;

» plot3(cos(t),sin(t),t)

» xlabel(‘cos(t)’)

» ylabel(‘sin(t)’)

» zlabel(‘t’)

matlab-chart2

 

(m-files) برنامه نویسی

m-file ها می توانند به دو شکل برنامه اصلی و تابع باشند. برنامه اصلی عبارتست از مجموعه ای از دستورها که می توان آنها را بطور جداگانه در محیط کارMATLAB اجرا نمود. هنگامی که نام برنامه اصلی را در محیط کار MATLAB بنویسیم این دستورها به ترتیب اجرا می گردند. به عنوان مثال برای محاسبه حجم گاز کامل، در دماهای مختلف و فشار معلوم، دستورات زیر را در ویرایشگر MATLAB نوشته و سپس تحت عنوان pvt.m ذخیره می‌کنیم:

% A sample scritp file: pvt.m

disp(‘ Calculating the volume of an ideal gas.’)

R = 8314; % Gas constant (J/kmol.K)

t = …

input(‘ Vector of temperature (K) = ‘);

p = input(‘ Pressure (bar) = ‘)*1e5;

v = R*t/p; % Ideal gas law

% Plotting the results

plot(t,v)

xlabel(‘T (K)’)

ylabel(‘V (m^3/kmol)’)

title(‘Ideal gas volume vs temperature’)

علامت % و آنچه بدنبال آن در همان سطر می آید به هنگام اجرای برنامه نادیده گرفته می شود.
علامت … بیانگر آن است که دستور مورد نظر در این سطر تمام نشده و در سطر بعدی ادامه می یابد.

پس از ایجاد پرونده pvt.m برای اجرای آن کافی است که نام آن را در محیط کار MATLAB نوشته ونتایج را مشاهده می‌نماییم (نمودار رسم نشده است):

» pvt

Calculating the volume of an ideal gas.

Vector of temperature (K) = 100:25:300

Pressure (bar) = 10

علاوه بر توابعی که همراه MATLAB هستند، می توان توابعی را که محاسبات مورد نیاز است را انجام بدهد ایجاد کرد. یک تابع یک یا چند داده را در ورودی دریافت می کند و پس از انجام محاسبات لازم نتایج را در قالب یک یا چند متغیر خروجی برمی گرداند.
نکته مهم در مورد تابع های تعریف شده این است که می‌توان آنها را بعد از تعریف توسط help نرم افزار بازخوانی کرد.
گردآوری : معین صالح
دستور خواندن فایل اکسل :
climate = xlsread(‘c:\file1.xls’)
برای فراخوانی یک شیت اکسل :
data = xlsread(‘c:\file1.xls’, ‘sheet1’)
برای گرفتن چند داده مورد نظر:
firstrow = xlsread(‘c:\file1.xls’, ‘sheet1’, ‘A2:B2’)
Jun 262013
 

بخشی از یرگه سوالات امتحان پایان ترم خانم دکتر امین غفاری

( تقریبا هیچ تناسبی با درس ها و تمرین های داده شده نداشت )

و اکثریت مطلق دوستان، ناراضی از جلسه امتحان بودندesl-emtehan

May 252013
 

یادگیری :
یک سری دیتا داریم و می خئاهیم یک سری اطلاعات از آن استخراج کنیم
مثل رگرسیون که میتواند چند متغیره باشد

مقادیر ثابت نامعلوم که قصد برآور آنرا داریم

تابعی داریم که بر اساس آن برآورد را انجام میدهیم
تابع هدف ، امید ریاضی یک تابع دیگری است
q=
هدف پیدا کردن مقدار ماکزیمم یا مینی مم تابع g(c) هست

 

May 212013
 

فضای برداری : مجموعه نا تهی است که نسبت به جمع و ضرب
اسکالر بسته است

هر عدد آلفا یی از C یا R انتخاب کنیم

فضای برداری یا خطی
پس فضای n یک فضای برداری می سازد

عملگر مشتق در فضای برداری یک عملگر خطی است
———————————–
ترکیب خطی :
یک ترکیب خطی از بردار ها انتخاب می کنیم ci*fi

استقلال خطی :
اگر هر ترکیب خطی ازشون بسازیم که حاصلش صفر نشود

f1 تا fn پایه ای برای V هستند.

فضای چند جمله ای هم یک فضای برداری است

————————————————

مفهوم متر
در فضایی که داریم یک معیار اندازه گیری به اسم متر تعریف می کنیم
X*X که یک تابع نا منفی است

فضای متری : مثل متر اقلیدسی (فاصله دو نقطه در فضای دو بعدی )

در عدد حقیقی
مفهوم کامل بودن یک فضا :
یک دنباله را میگوییم کوشی است اگر از یک جایی به بعد خیلی نزدیک
به هم شود

یک فضا را می گوییم کامل است اگر حد کوشی داخلش باشد

مفهوم d = distance که متر هست تعریف کردیم

مفهمو نرم : در فضای برداری
نورم یک تبدیل است در فضای برداری که به اعداد حقیقی نسبت داده
می شود.
نورم مفهوم اندازه داره
فاصله بین دو چیز است
قدر مطلق الفا

—————————————————–
فضای باناخ

فضای باناخ : یک نوع خاصی از فضاهای برداری
فضایی است که نورم دارد و نسبت به این نورم کامل است
—————————————————–

مفهوم Dot Product
ضرب داخلی یک نگاشت است
که خطی هست

فضای هیلبرت یک فضای باناخ است ولی ضرب داخلی

یک ماتریس را می توان به دید

ترانهاده ماتریس
ماتریس متعامد (تک تک سطر هاش دو به دو نسبت به هم عمودمد )
اگر ضرب داخلی دو بردار صفر شود آنگاه آن دو بردار نسبت به هم عمودند

یک مجموعه مستقل خطی می سازند
کل تعداد سطر ها
رتبه ماتریس با درجه ماتریس برابر است
Full Rank است
——————————————————–
مفاهیم جبر خطی بسیار پر کاربرد هست
ماتریس معین مثبت ، مقادیر ویژه اش حتما مثبت است

تعریف نورم القایی
اگر ماتریس مربعی باشد …
[U Lambda O]=svd(M)
Lambda in Matlab, is a m*n matrix whose first n rows and all columns, construct a diagonal matrix having lambdas an the diagonal.

 

با کلیک روی آگهی زیر مبلغ 400 ریال به حساب من واریز می گردد

با کلیک روی آگهی زیر مبلغ 1000 ریال به حساب من واریز می گردد