منتدى علوم المنصورة
Least squares method ( طريقه المربعات الصغري ) Ezlb9t10


منتدى علوم المنصورة
Least squares method ( طريقه المربعات الصغري ) Ezlb9t10

منتدى علوم المنصورة
هل تريد التفاعل مع هذه المساهمة؟ كل ما عليك هو إنشاء حساب جديد ببضع خطوات أو تسجيل الدخول للمتابعة.

منتدى علوم المنصورةدخول

اهلا بك يا زائر لديك 16777214 مساهمة


descriptionLeast squares method ( طريقه المربعات الصغري ) EmptyLeast squares method ( طريقه المربعات الصغري )

more_horiz
Problem statement


The objective consists of adjusting the parameters of a model function so as to best fit a data set. A simple data set consists of n points (data pairs) [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة], i = 1, ..., n, where [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة] is an independent variable and [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة] is a dependent variable whose value is found by observation. The model function has the form [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة], where the m adjustable parameters are held in the vector [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]. We wish to find those parameter values for which the model "best" fits the data. The least squares method defines "best" as when the sum, S, of squared residuals


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
is a minimum. A residual is defined as the difference between the values of the dependent variable and the predicted values from the estimated model,


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
An example of a model is that of the straight line. Denoting the intercept as β0 and the slope as β1, the model function is given by


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
See the example of linear least squares for a fully worked out example of this model.
A data point may consist of more than one independent variable. For an example, when fitting a plane to a set of height measurements, the plane is a function of two independent variables, x and z, say. In the most general case there may be one or more independent variables and one or more dependent variables at each data point.
[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذا الرابط]

Solving the least squares problem

Least squares problems fall into two categories, linear and non-linear. The linear least squares problem has a closed form solution, but the non-linear problem does not and is usually solved by iterative refinement; at each iteration the system is approximated by a linear one, so the core calculation is similar in both cases.
The minimum of the sum of squares is found by setting the gradient to zero. Since the model contains m parameters there are m gradient equations.


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
and since [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة] the gradient equations become


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
The gradient equations apply to all least squares problems. Each particular problem requires particular expressions for the model and its partial derivatives.
[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذا الرابط]

Linear least squares

Main article: Linear least squares
A regression model is a linear one when the model comprises a linear combination of the parameters, i.e.


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
where the coefficients, φj, are functions of xi.
Letting


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
we can then see that in that case the least square estimate (or estimator, if we are in the context of a random sample), [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة] is given by


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]

For a derivation of this estimate see Linear least squares.
[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذا الرابط]

Non-linear least squares
Main article: Non-linear least squares
There is no closed-form solution to a non-linear least squares problem. Instead, numerical algorithms are used to find the value of the parameters β which minimize the objective. Most algorithms involve choosing initial values for the parameters. Then, the parameters are refined iteratively, that is, the values are obtained by successive approximation.


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
k is an iteration number and the vector of increments, [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة] is known as the shift vector. In some commonly used algorithms, at each iteration the model may be linearized by approximation to a first-order Taylor series expansion about [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
The Jacobian, J, is a function of constants, the independent variable and the parameters, so it changes from one iteration to the next. The residuals are given by


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
and the gradient equations become


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
which, on rearrangement, become m simultaneous linear equations, the normal equations.


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]

The normal equations are written in matrix notation as


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
These are the defining equations of the Gauss–Newton algorithm.
[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذا الرابط]

descriptionLeast squares method ( طريقه المربعات الصغري ) Emptyرد: Least squares method ( طريقه المربعات الصغري )

more_horiz
Differences between linear and non-linear least squares





  • The model function, f, in LLSQ (linear least squares) is a linear combination of parameters of the form [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة] The model may represent a straight line, a parabola or any other polynomial-type function. In NLLSQ (non-linear least squares) the parameters appear as functions, such as β2,eβx and so forth. If the derivatives [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة] are either constant or depend only on the values of the independent variable, the model is linear in the parameters. Otherwise the model is non-linear.
  • Many solution algorithms for NLLSQ require initial values for the parameters, LLSQ does not.
  • Many solution algorithms for NLLSQ require that the Jacobian be calculated. Analytical expressions for the partial derivatives can be complicated. If analytical expressions are impossible to obtain the partial derivatives must be calculated by numerical approximation.
  • In NLLSQ non-convergence (failure of the algorithm to find a minimum) is a common phenomenon whereas the LLSQ is globally concave so non-convergence is not an issue.
  • NLLSQ is usually an iterative process. The iterative process has to be terminated when a convergence criterion is satisfied. LLSQ solutions can be computed using direct methods, although problems with large numbers of parameters are typically solved with iterative methods, such as the Gauss–Seidel method.
  • In LLSQ the solution is unique, but in NLLSQ there may be multiple minima in the sum of squares.
  • Under the condition that the errors are uncorrelated with the predictor variables, LLSQ yields unbiased estimates, but even under that condition NLLSQ estimates are generally biased.
These differences must be considered whenever the solution to a non-linear least squares problem is being sought.
[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذا الرابط]

Least squares, regression analysis and statistics


The methods of least squares and regression analysis are conceptually different. However, the method of least squares is often used to generate estimators and other statistics in regression analysis.
Consider a simple example drawn from physics. A spring should obey Hooke's law which states that the extension of a spring is proportional to the force, F, applied to it.


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
constitutes the model, where F is the independent variable. To estimate the force constant, k, a series of n measurements with different forces will produce a set of data, [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة], where yi is a measured spring extension. Each experimental observation will contain some error. If we denote this error [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة], we may specify an empirical model for our observations,


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
There are many methods we might use to estimate the unknown parameter k. Noting that the n equations for the m observations in our data comprise an overdetermined system with one unknown and n equations, we may choose to estimate k using least squares. The sum of squares to be minimized is


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
The least squares estimate of the force constant, k, is given by


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
Here it is assumed that application of the force causes the spring to expand and, having derived the force constant by least squares fitting, the extension can be predicted from Hooke's law.
In regression analysis the researcher specifies an empirical model. For example, a very common model is the straight line model which is used to test if there is a linear relationship between dependent and independent variable. If a linear relationship is found to exist, the variables are said to be correlated. However, correlation does not prove causation, as both variables may be correlated with other, hidden, variables, or the dependent variable may "reverse" cause the independent variables, or the variables may be otherwise spuriously correlated. For example, suppose there is a correlation between deaths by drowning and the volume of ice cream sales at a particular beach. Yet, both the number of people going swimming and the volume of ice cream sales increase as the weather gets hotter, and presumably the number of deaths by drowning is correlated with the number of people going swimming. Perhaps an increase in swimmers causes both the other variables to increase.
In order to make statistical tests on the results it is necessary to make assumptions about the nature of the experimental errors. A common (but not necessary) assumption is that the errors belong to a Normal distribution. The central limit theorem supports the idea that this is a good assumption in many cases.




  • The Gauss–Markov theorem. In a linear model in which the errors have expectation zero conditional on the independent variables, are uncorrelated and have equal variances, the best linear unbiased estimator of any linear combination of the observations, is its least-squares estimator. "Best" means that the least squares estimators of the parameters have minimum variance. The assumption of equal variance is valid when the errors all belong to the same distribution.
  • In a linear model, if the errors belong to a Normal distribution the least squares estimators are also the maximum likelihood estimators.
However, if the errors are not normally distributed, a central limit theorem often nonetheless implies that the parameter estimates will be approximately normally distributed so long as the sample is reasonably large. For this reason, given the important property that the error is mean independent of the independent variables, the distribution of the error term is not an important issue in regression analysis. Specifically, it is not typically important whether the error term follows a normal distribution.
In a least squares calculation with unit weights, or in linear regression, the variance on the jth parameter, denoted [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة], is usually estimated with


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
Confidence limits can be found if the probability distribution of the parameters is known, or an asymptotic approximation is made, or assumed. Likewise statistical tests on the residuals can be made if the probability distribution of the residuals is known or assumed. The probability distribution of any linear combination of the dependent variables can be derived if the probability distribution of experimental errors is known or assumed. Inference is particularly straightforward if the errors are assumed to follow a normal distribution, which implies that the parameter estimates and residuals will also be normally distributed conditional on the values of the independent variables.
[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذا الرابط]

Weighted least squares




See also: Weighted mean
The expressions given above are based on the implicit assumption that the errors are uncorrelated with each other and with the independent variables and have equal variance. The Gauss–Markov theorem shows that, when this is so, [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة] is a best linear unbiased estimator (BLUE). If, however, the measurements are uncorrelated but have different uncertainties, a modified approach might be adopted. Aitken showed that when a weighted sum of squared residuals is minimized, [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة] is BLUE if each weight is equal to the reciprocal of the variance of the measurement.


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
The gradient equations for this sum of squares are


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
which, in a linear least squares system give the modified normal equations


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
or


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
When the observational errors are uncorrelated the weight matrix, W, is diagonal. If the errors are correlated, the resulting estimator is BLUE if the weight matrix is equal to the inverse of the variance-covariance matrix of the observations.
When the errors are uncorrelated, it is convenient to simplify the calculations to factor the weight matrix as [ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]. The normal equations can then be written as


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
where


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
For non-linear least squares systems a similar argument shows that the normal equations should be modified as follows.


[ندعوك للتسجيل في المنتدى أو التعريف بنفسك لمعاينة هذه الصورة]
Note that for empirical tests, the appropriate W is not known for sure and must be estimated. For this Feasible Generalized Least Squares (FGLS) techniques may be used.

descriptionLeast squares method ( طريقه المربعات الصغري ) Emptyرد: Least squares method ( طريقه المربعات الصغري )

more_horiz
طريقة المربعات الصغرى Least Square Method:
الطريقة الأكثر استخدام (سبق ذكرها في الانحدار) بها يتم التقليل من مجموع مربعات الفروق بين القيم الفعلية والقيم المحسوبة حيث القيم الفعلية هي الزمن والقيم المحسوبة قيم المتغير المطلوب له إيجاد اتجاهه العام وسنرمز بالرمز X للقيم الفعلية وبالرمز Ŷ لقيم الاتجاه المحتسبة.
نقاط خط الانحدار تمثل المتوسط الشرطي للمتغير التابع Y لقيمة المتغير المستقل X والفرق (الانحراف) بين قيم المتغير Y عن المتوسطات الشرطية هي الأخطاء العشوائية وتمثل الانحرافات لقيم السلسلة عن خط الاتجاه العام للبيانات باستثناء المتغيرات الموسمية وعند توفيق خط الاتجاه العام بهذه الطريقة سيكون Ŷ ممثلة للقيم الاتجاهية و X تمثل الزمن وسنعتمد الصيغ الرياضية:
(1) Ŷ = a + b X

n∑XY – ∑X ∑Y
(2) b = ـــــــــــــــــــــــــــــــــــــ
n∑X2 – (∑X)2

(3) a = `Y – b`X

يمكن اعتماد مجموع قيم X مساوياً للصفر بتغيير مقياس السلسلة الزمنية بإعطاء قيمة صفر لمركز السلسلة والزمن أعلا المركز مخالف في الإشارة للزمن أسفله وتصبح ا
لصيغ (2) ، (3) أعلاه ( X = 0∑ ) بالصورة الآتية:ـ
(1) Ŷ = a + b( t –`t )

∑XY
(2) b = ــــــــــــــــ
∑X2

∑Y
(3) a = ــــــــــــــ
n
مثال:
لإيجاد معادلة الاتجاه العام للبيانات المبينة في الجدول التالي:



X2X YY
X

السنة X
1404011985
4663321986
9872931987
161002541988
251052151989
361923261990
492804071991
643604581992
513694191993
10040040101994
∑X2 = 385∑XY = 1999`Y = 346 / 10 = 34.6`X = 55/10 = 5.5
باستخدام الصيغ السابقة:

n∑XY – ∑X ∑Y
b = ـــــــــــــــــــــــــــــــــــــ
n∑X2 – (∑X)2

10(1999) – 55×346
b = ــــــــــــــــــــــــــــــــــــــــــ
10(385) – (55)2

19990 – 19030
b = ــــــــــــــــــــــــــــــــــــــــــ
3850 – 3025

960
b = ـــــــــــ
825

b = 1.16
a = `Y – b`X
a = 34.6 – 1.16(5.5)
a = 34.6 – 6.38
a = 28.22
Ŷ = a + b X
Ŷ = 28.22 + 1.16 X
وهذه معادلة الاتجاه العام لقيم الأجور للفترة المبينة بالجدول.

إذا أردنا أن نجعل مجوع X مساوي للصفر نتبع الآتي:
لتكن t رمز للسنة الحقيقية ونضع الرمز X للسنة الجديدة وهنا أما يكون عدد السنين فردي أو زوجي فإن كان فردياً فنأخذ السنة الوسطى t`وتكون: X = t – `t وفي حالة عدد السنين زوجي فنأخذ متوسط السنتين الأولى والأخيرة أو اللتان تقع في الوسط أو أي سنتين على بعدين متساويين من الأولى والأخيرة.
في الجدول السابق (المثال أعلاه) عدد السنين 10 وبالتالي قيمة المتوسط لسنتين = ( 1985 + 1994) ÷ 4 = 1989.5 والواقعة بين 1989 ، 1990 والقيم الجديدة للسنة X من الصيغة X = t –`t كما هو مبين بالجدول التالي:


X2X YY
X

السنة X
20.25– 180401985 – 1989.5 = – 4.51985
12.25– 115.5331986– 1989.5 = – 3.51986
3.25– 72.5291987 – 1989.5 = – 2.51987
2.25– 37.5251988 – 1989.5 = – 1.51988
0.25– 10.5211989 – 1989.5 = – 0.51989
0001989.5 – 1989.5 = 0.01989.5
0.2516321990 – 1989.5 = 0.51990
2.2560401991 – 1989.5 = 1.51991
6.25112.5451992 – 1989.5 = 2.51992
12.25143.5411993 – 1989.5 = 3.51993
20.25180401994 – 1989.5 = 4.51994
∑X2 = 82.5∑XY = 96346∑ X = 0
باستخدام الصيغ السابقة:
∑XY
b = ــــــــــــــــ
∑X2


96
b = ـــــــــــ
82.5

b = 1.16

∑Y
a = ــــــــــــــــ
n

346
a = ـــــــــــــ
10

a = 34.6
معادلة الاتجاه الخطي هي:
Ŷ = 34.6 + 1.16( t – 1989.5 )
معادلة خط الاتجاه العام يمكن استخدامها للتنبؤ بالأجور مثلاً حسب مثالنا هنا لمعرفة المتوقع للأجور سنة 1998 كما يلي:
فالأجور في سنة 1998 مثلاً المتوقع أن تساوي من المعادلة ( بوضع t = 1998 ) :
Ŷ = 34.6 + 1.16( 1998 – 1989.5 )
Ŷ = 34.6 + 1.16(8.5)
Ŷ = 34.6 + 9.86
Ŷ = 44.46
وإذا استخدمنا المعادلة Ŷ = 28.22 + 1.16 X في المثال هنا للحل الأول أعلاه وللتنبؤ للأجور سنة 1998 نجد أنَّ:
سنة 1998 تأخذ الترتيب 14 حسب الجدول أعلاه الذي يبدأ سنة 1985 حيث نستبدل X بالقيمة 14 كما يلي:
Ŷ = 28.22 + 1.16 X
Ŷ = 28.22 + 1.16(14)
Ŷ = 28.22 + 16.24
Ŷ = 44.6

descriptionLeast squares method ( طريقه المربعات الصغري ) Emptyرد: Least squares method ( طريقه المربعات الصغري )

more_horiz
هى دى طريقة المربعات الصغرى للتقدير بنقطة يا قمر؟

descriptionLeast squares method ( طريقه المربعات الصغري ) Emptyرد: Least squares method ( طريقه المربعات الصغري )

more_horiz

السلام عليكم ورحمة الله وبركاته

موضوع اكتر من متميز يا قمر وجزاكى الله الف خير

مسلمة

دى طريقة المربعات الصغرى للانحدار الخطى بين متغيرين

اما المربعات الصغرى فى التقدير بنقطة فأن شاء الله قمر تجبها لنا قريب

descriptionLeast squares method ( طريقه المربعات الصغري ) Emptyرد: Least squares method ( طريقه المربعات الصغري )

more_horiz
ان شاء الله يا اخ مانو قمر تجيب لنا المربعات الصغرى للتقدير بنقطة لأن انت عارف الدكتور محمد طالبها مننا وانا دورت فى النت ومقدرتش اوصل لحاجة والمكتبة مش بقدر اتوصل فيها لحاجة لأنى ببساطة مش ببقى عارفة ابحث فى اى كتاب

descriptionLeast squares method ( طريقه المربعات الصغري ) Emptyرد: Least squares method ( طريقه المربعات الصغري )

more_horiz
ميرسى يا قمر على المجهود الجميل ده وياريت تجبى لنا طريقه المربعات الصغرى فى التقدير بنقطه

descriptionLeast squares method ( طريقه المربعات الصغري ) Emptyرد: Least squares method ( طريقه المربعات الصغري )

more_horiz
اتمني مايكنش غيابي طول في الرد

اولا قبل ما نبدأ ونقول طرق التقدير بنقطه
لازم نعرف خواص المقدر الجيد
وخواص المقدر الجيد هو :
1-عدم التحيز (unbiasdness)
2-الكفائه (efficincy)
3-الإتساق (consistency)
4-الكفايه (sufficiency)

ومن احدي طرق التقدير بنقطه
هي

طريقة الإمكان الأكبر (الأعظم) أو Maximum Likelihood Method

واتكلمنا عنه في مواضيع قبل كده
وهنلاقيه موجود وبأمثله هامه
علي معظم التوزيعات


وكمان عندنا

طريقة العزوم أو Method Of Moments

وبردو هنلاقي فيه مواضيه موجوده وامثله
وهنلاقي له توزيعات كتير وموجوده عندنا
ولو حد محتاج اي توزيع معين مايترددش انه يطلب

ونخلي بالنا من حاجه في طريقه العزوم
وهو
ازاي نعرف الفرق كويس بين عزوم المجتمع وعزوم العينه
لاننا طبعا بنقارن بينهم


وعندنا التقدير بطريقه بييز (Bayesian Method)

فعند وجود بارامتر مجهول ونريد عمل تقدير لهذا البارامتر لأقرب توزيع له
ندرس توزيع المعاينه له ونجري عمليه توقع اخري عند وجود البارامتر
حيث ان التوزيع القبلي هو الذي نتوقع ان البارامتر يتبعه

وللحصول علي التوزيع البعدي للبارامتر نتبع الاتي:

1/بنفرض ان التوزيع القبلي لهذا البارامتر
2/بنحصل علي الداله المشتركه للعينه والمعلم
مع ملاحظه ان البارامتر المراد تقديره يتم تحديد توزيع قبلي له(التنبؤ بتوزيع قبلي له) ويسمي (pirior distribution)
اي قبل سحب العينه ومن ثم يتم ايجاد تقدير لهذا البارامتر من توزيع المعاينه
3/نحصل علي الداله الهامشيه للعينه وذلك لإيجاد التكامل للداله المشتركه للعينه والمعلم
4/يحدد التوزيع البعدي للمعلم (postirior distribution) حيث كلما كان التقدير دقيق كلما كان المقدر جيد


ده طبعا شرح بسيط عنه وازاي نحصل عليه

descriptionLeast squares method ( طريقه المربعات الصغري ) Emptyرد: Least squares method ( طريقه المربعات الصغري )

more_horiz
ووصلنا بقي لطريقه المربعات الصغري
least square method



طبعا نصيحه لو عايزين تبحثوا ع النت او المكتبه
اذكروا فقط طريقه المربعات الصغري
وهتلاقو عنه كل حاجه
المهم نرجع لموضوعنا اللي تعبنا معاه
هههههههه

وهو
طريقه المربعات الصغري
Least Squares Method


طبعا الطريقه الثانيه طريقه واضحه وجميله جدا

بس متهيألي انها مش واضحه ليكو

وكمان انا مش لاقيه للأسف اوضح من هذا في البحث

ولكن عندي استعداد اشرح للي عايز اي حاجه وممكن حد يتفق مع الجميع

ويشوفو محتاجين ايه

وبأذن الله اساعدكوا فيها

ولو حابين ممكن يكون في وقت النشاط الطلابي بس

تعرفوني اللي عايزينه بالظبط

اوكي

وانا موجوده في اي وقت

descriptionLeast squares method ( طريقه المربعات الصغري ) Emptyرد: Least squares method ( طريقه المربعات الصغري )

more_horiz
ألف مليون شكر ليكى يا قمر بجد انتى انسانة خدومة جدا
شكرا ليكى كتير على الشرح انا هرجع تانى ان شاء الله اناقشك فيه علشان افهم (معلش طلباتى كتير) ة
انا فعلا لقيت حاجات كتير جدا لما طلعت المكتبة عن طريقة المربعات الصغرى بس للأسف مفهمتش حاجة
سؤال بقى هو انتى لسه بتدرسى فى الكلية اصلك بتقولى اللى عايز حاجة ممكن اشرحها له فى وقت النشاط الطلابى
اتمنى اتعرف عليكى بجد
سلام عليكوا بقى

descriptionLeast squares method ( طريقه المربعات الصغري ) Emptyرد: Least squares method ( طريقه المربعات الصغري )

more_horiz
ana magster delwa2t Smile
3o2balek

w aked e7na as7ab we low e7tagty 7aga
etloby bas

wala yehemek
ok

we a3taked ento fehemto mabda2yan
3n least square method
we low 7ad me7tag 7aga
feha
y2ool bas Very Happy

atmana leko el-tawfek

descriptionLeast squares method ( طريقه المربعات الصغري ) Emptyرد: Least squares method ( طريقه المربعات الصغري )

more_horiz
عقبالنا يا رب
انتى بقى معيدة عندنا ولا انتى بتحضرى من نفسك؟؟
وانتى بتحضرى في فرع ايه بقى؟؟؟
على العموم الحمد لله انا مبدأيا فهمت الطريقة
والدكتور قال انها مش هتبقى مقررة علينا هوه بس كان عايزنا نبحث وكده
وشكرا ليكى جدا مرة تانية
privacy_tip صلاحيات هذا المنتدى:
لاتستطيع الرد على المواضيع في هذا المنتدى
power_settings_newقم بتسجيل الدخول للرد