მონაცემთა ანალიზი უმცირესი კვადრატების მეთოდით. მინიმალური კვადრატების მეთოდი Excel-ში

მინიმალური კვადრატის მეთოდი

თემის დასკვნით გაკვეთილზე გავეცნობით ყველაზე ცნობილ აპლიკაციას FNP, რომელიც ყველაზე ფართო გამოყენებას პოულობს მეცნიერებისა და პრაქტიკული საქმიანობის სხვადასხვა დარგში. ეს შეიძლება იყოს ფიზიკა, ქიმია, ბიოლოგია, ეკონომიკა, სოციოლოგია, ფსიქოლოგია და ა.შ. ბედის ნებით ხშირად მიწევს ეკონომიკასთან შეხება და ამიტომ დღეს მოგიწყობთ მოგზაურობა საოცარ ქვეყანაში ე.წ. ეკონომეტრია=) ...როგორ არ გინდა?! იქ ძალიან კარგია - თქვენ უბრალოდ უნდა გადაწყვიტოთ! ...მაგრამ ის, რაც თქვენ ალბათ ნამდვილად გსურთ, არის ისწავლოთ პრობლემების გადაჭრა უმცირესი კვადრატების მეთოდი. და განსაკუთრებით გულმოდგინე მკითხველები ისწავლიან მათ ამოხსნას არა მხოლოდ ზუსტად, არამედ ძალიან სწრაფად ;-) მაგრამ ჯერ პრობლემის ზოგადი განცხადება+ თანმხლები მაგალითი:

მოდით შევისწავლოთ ინდიკატორები გარკვეულ საგნობრივ სფეროში, რომლებსაც აქვთ რაოდენობრივი გამოხატულება. ამავდროულად, ყველა საფუძველი არსებობს იმის დასაჯერებლად, რომ ინდიკატორი დამოკიდებულია ინდიკატორზე. ეს ვარაუდი შეიძლება იყოს მეცნიერული ჰიპოთეზა ან საბაზისო საღი აზრის საფუძველზე. თუმცა, მეცნიერებას თავი დავანებოთ და უფრო მადისაღმძვრელი სფეროები გამოვიკვლიოთ - კერძოდ, სასურსათო მაღაზიები. აღვნიშნოთ:

– სასურსათო მაღაზიის საცალო ფართი, კვ.მ.
- სასურსათო მაღაზიის წლიური ბრუნვა, მილიონი რუბლი.

აბსოლუტურად გასაგებია, რომ რაც უფრო დიდია მაღაზიის ფართობი, მით მეტი იქნება მისი ბრუნვა უმეტეს შემთხვევაში.

დავუშვათ, რომ ტამბურით დაკვირვების/ექსპერიმენტების/გამოთვლების/ცეკვის განხორციელების შემდეგ ჩვენს ხელთ გვაქვს რიცხვითი მონაცემები:

სასურსათო მაღაზიებთან, ვფიქრობ, ყველაფერი ნათელია: - ეს არის 1-ლი მაღაზიის ფართობი, - მისი წლიური ბრუნვა, - მე-2 მაღაზიის ფართობი, - მისი წლიური ბრუნვა და ა.შ. სხვათა შორის, საერთოდ არ არის აუცილებელი საიდუმლო მასალებზე წვდომა - სავაჭრო ბრუნვის საკმაოდ ზუსტი შეფასება შეიძლება მიღებულ იქნას მათემატიკური სტატისტიკა. თუმცა, ნუ გავფანტავთ, კომერციული ჯაშუშობის კურსი უკვე ფასიანია =)

ტაბულური მონაცემები ასევე შეიძლება დაიწეროს წერტილების სახით და გამოსახული იყოს ნაცნობი ფორმით დეკარტის სისტემა .

მოდით ვუპასუხოთ მნიშვნელოვან კითხვას: რამდენი ქულაა საჭირო თვისებრივი კვლევისთვის?

რაც უფრო დიდია, მით უკეთესი. მინიმალური მისაღები ნაკრები შედგება 5-6 ქულისგან. გარდა ამისა, როდესაც მონაცემთა რაოდენობა მცირეა, „ანომალიური“ შედეგები არ შეიძლება იყოს შერჩეული. ასე რომ, მაგალითად, პატარა ელიტარულ მაღაზიას შეუძლია მიიღოს უფრო დიდი შეკვეთები, ვიდრე „მისი კოლეგები“, რითაც ამახინჯებს ზოგად შაბლონს, რომელიც უნდა იპოვოთ!



ძალიან მარტივად რომ ვთქვათ, ჩვენ უნდა ავირჩიოთ ფუნქცია, განრიგირომელიც რაც შეიძლება ახლოს გადის წერტილებთან . ეს ფუნქცია ე.წ მიახლოებითი (დაახლოება - დაახლოება)ან თეორიული ფუნქცია . ზოგადად, აქ დაუყოვნებლივ ჩნდება აშკარა "კონკურენტი" - მაღალი ხარისხის პოლინომი, რომლის გრაფიკი გადის ყველა წერტილში. მაგრამ ეს ვარიანტი რთული და ხშირად უბრალოდ არასწორია. (რადგან გრაფიკი მუდამ „ირევა“ და ცუდად ასახავს მთავარ ტენდენციას).

ამრიგად, საძიებო ფუნქცია უნდა იყოს საკმაოდ მარტივი და ამავე დროს ადეკვატურად ასახავდეს დამოკიდებულებას. როგორც თქვენ ალბათ მიხვდებით, ასეთი ფუნქციების პოვნის ერთ-ერთ მეთოდს ე.წ უმცირესი კვადრატების მეთოდი. პირველ რიგში, მოდით შევხედოთ მის არსს ზოგადი თვალსაზრისით. ნება მიეცით ზოგიერთ ფუნქციას მიახლოებითი ექსპერიმენტული მონაცემები ჰქონდეს:


როგორ შევაფასოთ ამ მიახლოების სიზუსტე? ასევე გამოვთვალოთ განსხვავებები (გადახრები) ექსპერიმენტულ და ფუნქციურ მნიშვნელობებს შორის (ჩვენ ვსწავლობთ ნახატს). პირველი აზრი, რაც თავში მოდის, არის იმის შეფასება, თუ რამდენად დიდია თანხა, მაგრამ პრობლემა ის არის, რომ განსხვავებები შეიძლება იყოს უარყოფითი (Მაგალითად, ) და ასეთი შეჯამების შედეგად გადახრები გააუქმებს ერთმანეთს. მაშასადამე, მიახლოების სიზუსტის შესაფასებლად, ის ითხოვს ჯამის აღებას მოდულებიგადახრები:

ან დაინგრა: (თუ ვინმემ არ იცის: არის ჯამის ხატი და - დამხმარე "მრიცხველი" ცვლადი, რომელიც იღებს მნიშვნელობებს 1-დან ) .

სხვადასხვა ფუნქციის მქონე ექსპერიმენტული წერტილების მიახლოებით ჩვენ მივიღებთ განსხვავებულ მნიშვნელობებს და ცხადია, სადაც ეს ჯამი უფრო მცირეა, ეს ფუნქცია უფრო ზუსტია.

ასეთი მეთოდი არსებობს და ე.წ მინიმალური მოდულის მეთოდი. თუმცა, პრაქტიკაში ის ბევრად უფრო ფართოდ გავრცელდა მინიმალური კვადრატის მეთოდი, რომელშიც შესაძლო უარყოფითი მნიშვნელობები აღმოიფხვრება არა მოდულის მიერ, არამედ გადახრების კვადრატში:



, რის შემდეგაც ძალისხმევა მიმართულია ისეთი ფუნქციის არჩევაზე, რომ კვადრატული გადახრების ჯამი რაც შეიძლება პატარა იყო. სინამდვილეში, სწორედ აქედან მოდის მეთოდის სახელი.

და ახლა ჩვენ ვუბრუნდებით კიდევ ერთ მნიშვნელოვან პუნქტს: როგორც ზემოთ აღინიშნა, შერჩეული ფუნქცია საკმაოდ მარტივი უნდა იყოს - მაგრამ ასევე არსებობს მრავალი ასეთი ფუნქცია: ხაზოვანი , ჰიპერბოლური , ექსპონენციალური , ლოგარითმული , კვადრატული და ა.შ. და, რა თქმა უნდა, აქ მსურს დაუყოვნებლივ "შევამცირო საქმიანობის სფერო". ფუნქციების რომელი კლასი უნდა ავირჩიო კვლევისთვის? პრიმიტიული, მაგრამ ეფექტური ტექნიკა:

– უმარტივესი გზაა წერტილების გამოსახვა ნახაზზე და გააანალიზეთ მათი მდებარეობა. თუ ისინი მიდრეკილნი არიან სწორ ხაზში გარბის, მაშინ უნდა მოძებნოთ წრფის განტოლება ოპტიმალური მნიშვნელობებით და. სხვა სიტყვებით რომ ვთქვათ, ამოცანაა იპოვოთ ასეთი კოეფიციენტები ისე, რომ კვადრატული გადახრების ჯამი იყოს ყველაზე მცირე.

თუ წერტილები მდებარეობს, მაგალითად, გასწვრივ ჰიპერბოლა, მაშინ აშკარად ცხადია, რომ წრფივი ფუნქცია ცუდ მიახლოებას მისცემს. ამ შემთხვევაში, ჩვენ ვეძებთ ყველაზე "ხელსაყრელ" კოეფიციენტებს ჰიპერბოლის განტოლებისთვის - ისინი, რომლებიც იძლევა კვადრატების მინიმალურ ჯამს. .

ახლა გაითვალისწინეთ, რომ ორივე შემთხვევაში ჩვენ ვსაუბრობთ ორი ცვლადის ფუნქცია, რომლის არგუმენტებიც არის მოძიებული დამოკიდებულების პარამეტრები:

და არსებითად ჩვენ გვჭირდება სტანდარტული პრობლემის გადაჭრა - პოვნა ორი ცვლადის მინიმალური ფუნქცია.

გავიხსენოთ ჩვენი მაგალითი: დავუშვათ, რომ „მაღაზიის“ წერტილები, როგორც წესი, განლაგებულია სწორ ხაზზე და არსებობს ყველა საფუძველი დასაჯერებლად, რომ ხაზოვანი დამოკიდებულებაბრუნვა საცალო ფართიდან. მოდი ვიპოვოთ ასეთი კოეფიციენტები „a“ და „be“ ისეთი, რომ კვადრატული გადახრების ჯამი იყო ყველაზე პატარა. ყველაფერი ჩვეულებრივად არის - ჯერ ერთი 1 რიგის ნაწილობრივი წარმოებულები. Მიხედვით წრფივი წესითქვენ შეგიძლიათ განასხვავოთ პირდაპირ ჯამის ხატის ქვეშ:

თუ გსურთ გამოიყენოთ ეს ინფორმაცია თხზულების ან ტერმინალური ნაშრომისთვის, ძალიან მადლობელი ვიქნები წყაროების ჩამონათვალში მოცემული ბმულისთვის, თქვენ ნახავთ ასეთ დეტალურ გამოთვლებს რამდენიმე ადგილას:

მოდით შევქმნათ სტანდარტული სისტემა:

ჩვენ ვამცირებთ თითოეულ განტოლებას "ორით" და, გარდა ამისა, "ვარღვევთ" ჯამებს:

შენიშვნა : დამოუკიდებლად გააანალიზეთ, რატომ შეიძლება "a" და "be" ამოღება ჯამის ხატის მიღმა. სხვათა შორის, ფორმალურად ეს შეიძლება გაკეთდეს თანხით

მოდით გადავიწეროთ სისტემა "გამოყენებითი" ფორმით:

რის შემდეგაც იწყება ჩვენი პრობლემის გადაჭრის ალგორითმი:

ვიცით თუ არა წერტილების კოორდინატები? Ჩვენ ვიცით. თანხები შეგვიძლია ვიპოვოთ? ადვილად. მოდით გავაკეთოთ უმარტივესი ორი წრფივი განტოლების სისტემა ორ უცნობში("ა" და "იყოს"). ჩვენ ვხსნით სისტემას, მაგალითად, კრამერის მეთოდი, რის შედეგადაც ვიღებთ სტაციონარულ წერტილს. შემოწმება საკმარისი პირობა ექსტრემისთვის, ჩვენ შეგვიძლია გადავამოწმოთ, რომ ამ ეტაპზე ფუნქცია ზუსტად აღწევს მინიმალური. შემოწმება დამატებით გამოთვლებს მოიცავს და ამიტომ მას კულისებში დავტოვებთ (საჭიროების შემთხვევაში, დაკარგული ჩარჩოს ნახვა შესაძლებელიაᲐქ ) . ჩვენ ვაკეთებთ საბოლოო დასკვნას:

ფუნქცია საუკეთესო გზა (ყოველ შემთხვევაში სხვა წრფივ ფუნქციასთან შედარებით)აახლოებს ექსპერიმენტულ წერტილებს . უხეშად რომ ვთქვათ, მისი გრაფიკი რაც შეიძლება ახლოს გადის ამ წერტილებთან. ტრადიციაში ეკონომეტრიაშედეგად მიახლოებით ფუნქციას ასევე უწოდებენ დაწყვილებული წრფივი რეგრესიის განტოლება .

განხილულ პრობლემას დიდი პრაქტიკული მნიშვნელობა აქვს. ჩვენს მაგალითში, ეკვ. საშუალებას გაძლევთ წინასწარ განსაზღვროთ რა სავაჭრო ბრუნვა ("იგრეკი")მაღაზიას ექნება გაყიდვის ზონის ამა თუ იმ ღირებულებით ("x"-ის ერთი ან მეორე მნიშვნელობა). დიახ, შედეგად მიღებული პროგნოზი იქნება მხოლოდ პროგნოზი, მაგრამ ხშირ შემთხვევაში ის საკმაოდ ზუსტი აღმოჩნდება.

მე გავაანალიზებ მხოლოდ ერთ პრობლემას "რეალური" რიცხვებით, რადგან მასში არანაირი სირთულე არ არის - ყველა გამოთვლა მე -7-მე -8 კლასის სკოლის სასწავლო გეგმის დონეზეა. შემთხვევების 95 პროცენტში თქვენ მოგეთხოვებათ იპოვოთ მხოლოდ წრფივი ფუნქცია, მაგრამ სტატიის ბოლოს მე გაჩვენებთ, რომ ოპტიმალური ჰიპერბოლის, ექსპონენციალური და სხვა ფუნქციების განტოლებების პოვნა აღარ არის რთული.

სინამდვილეში, რჩება მხოლოდ დაპირებული სიკეთეების განაწილება - ასე რომ თქვენ შეგიძლიათ ისწავლოთ ასეთი მაგალითების ამოხსნა არა მხოლოდ ზუსტად, არამედ სწრაფად. ჩვენ ყურადღებით ვსწავლობთ სტანდარტს:

დავალება

ორ ინდიკატორს შორის ურთიერთობის შესწავლის შედეგად მიიღეს რიცხვების შემდეგი წყვილი:

უმცირესი კვადრატების მეთოდის გამოყენებით იპოვეთ წრფივი ფუნქცია, რომელიც საუკეთესოდ უახლოვდება ემპირიულს (გამოცდილი)მონაცემები. გააკეთეთ ნახაზი, რომელზედაც ავაშენებთ ექსპერიმენტულ წერტილებს და მიახლოებითი ფუნქციის გრაფიკს დეკარტის მართკუთხა კოორდინატულ სისტემაში . იპოვეთ კვადრატული გადახრების ჯამი ემპირიულ და თეორიულ სიდიდეებს შორის. გაარკვიეთ, უკეთესი იქნება თუ არა ეს ფუნქცია (უმცირესი კვადრატების მეთოდის თვალსაზრისით)ექსპერიმენტული წერტილების დაახლოება.

გთხოვთ გაითვალისწინოთ, რომ „x“ მნიშვნელობები ბუნებრივია და ამას აქვს დამახასიათებელი მნიშვნელობითი მნიშვნელობა, რაზეც ცოტა მოგვიანებით ვისაუბრებ; მაგრამ ისინი, რა თქმა უნდა, ასევე შეიძლება იყოს წილადი. გარდა ამისა, კონკრეტული ამოცანის შინაარსიდან გამომდინარე, ორივე "X" და "თამაშის" მნიშვნელობები შეიძლება იყოს მთლიანად ან ნაწილობრივ უარყოფითი. ისე, ჩვენ მოგვცეს "უსახო" დავალება და ჩვენ ვიწყებთ მას გამოსავალი:

ჩვენ ვპოულობთ ოპტიმალური ფუნქციის კოეფიციენტებს, როგორც სისტემის ამოხსნას:

უფრო კომპაქტური ჩაწერის მიზნით, „მრიცხველი“ ცვლადი შეიძლება გამოტოვდეს, რადგან უკვე ნათელია, რომ შეჯამება ხორციელდება 1-დან .

უფრო მოსახერხებელია საჭირო თანხების გამოთვლა ცხრილის სახით:


გამოთვლები შეიძლება განხორციელდეს მიკროკალკულატორზე, მაგრამ ბევრად უკეთესია Excel-ის გამოყენება - როგორც უფრო სწრაფად, ასევე შეცდომების გარეშე; უყურეთ მოკლე ვიდეოს:

ამრიგად, ჩვენ ვიღებთ შემდეგს სისტემა:

აქ შეგიძლიათ მეორე განტოლება გაამრავლოთ 3-ზე და გამოვაკლოთ მე-2 1-ლი განტოლებიდან ტერმინით. მაგრამ ეს არის იღბალი - პრაქტიკაში, სისტემები ხშირად არ არის საჩუქარი და ასეთ შემთხვევებში ის დაზოგავს კრამერის მეთოდი:
, რაც ნიშნავს, რომ სისტემას აქვს უნიკალური გადაწყვეტა.

შევამოწმოთ. მე მესმის, რომ არ გინდა, მაგრამ რატომ გამოტოვო შეცდომები, სადაც მათი გამოტოვება შეუძლებელია? მოდით შევცვალოთ ნაპოვნი ამონახსნები სისტემის თითოეული განტოლების მარცხენა მხარეს:

მიღებულია შესაბამისი განტოლებების მარჯვენა მხარეები, რაც ნიშნავს, რომ სისტემა სწორად არის ამოხსნილი.

ამრიგად, სასურველი მიახლოებითი ფუნქცია: – საწყისი ყველა წრფივი ფუნქციაეს არის ის, ვინც ყველაზე კარგად აახლოებს ექსპერიმენტულ მონაცემებს.

განსხვავებით სწორი მაღაზიის ბრუნვის დამოკიდებულება მის ფართობზე, აღმოჩენილი დამოკიდებულება არის საპირისპირო (პრინციპი "რაც მეტი, მით ნაკლები"), და ეს ფაქტი მაშინვე ვლინდება ნეგატივით ფერდობზე. ფუნქცია გვეუბნება, რომ გარკვეული ინდიკატორის 1 ერთეულით გაზრდით, დამოკიდებული ინდიკატორის მნიშვნელობა მცირდება საშუალო 0,65 ერთეულით. როგორც ამბობენ, რაც უფრო მაღალია წიწიბურა, მით უფრო ნაკლებად იყიდება.

მიახლოებითი ფუნქციის გამოსათვლელად, ვიპოვოთ მისი ორი მნიშვნელობა:

და შეასრულეთ ნახაზი:

აგებულ სწორ ხაზს ე.წ ტრენდის ხაზი (კერძოდ, წრფივი ტრენდის ხაზი, ანუ ზოგად შემთხვევაში ტენდენცია სულაც არ არის სწორი ხაზი). ყველას კარგად იცნობს გამოთქმა „ტრენდში ყოფნა“ და ვფიქრობ, რომ ამ ტერმინს დამატებითი კომენტარები არ სჭირდება.

გამოვთვალოთ კვადრატული გადახრების ჯამი ემპირიულ და თეორიულ ღირებულებებს შორის. გეომეტრიულად, ეს არის "ჟოლოს" სეგმენტების სიგრძის კვადრატების ჯამი. (ორი მათგანი იმდენად პატარაა, რომ არც კი ჩანს).

მოდით შევაჯამოთ გამოთვლები ცხრილში:


ისევ და ისევ, ისინი შეიძლება გაკეთდეს ხელით, ყოველი შემთხვევისთვის, მე მივცემ მაგალითს 1-ლი პუნქტისთვის:

მაგრამ ბევრად უფრო ეფექტურია ამის გაკეთება უკვე ცნობილი გზით:

კიდევ ერთხელ ვიმეორებთ: რა მნიშვნელობა აქვს მიღებულ შედეგს?დან ყველა წრფივი ფუნქცია y ფუნქცია მაჩვენებელი ყველაზე პატარაა, ანუ მის ოჯახში ის საუკეთესო მიახლოებაა. და აქ, სხვათა შორის, პრობლემის საბოლოო კითხვა შემთხვევითი არ არის: რა მოხდება, თუ შემოთავაზებული ექსპონენციალური ფუნქცია უკეთესად დააახლოებს ექსპერიმენტულ წერტილებს?

ვიპოვოთ კვადრატული გადახრების შესაბამისი ჯამი - განსასხვავებლად მათ აღვნიშნავ ასო „ეფსილონი“. ტექნიკა ზუსტად იგივეა:

და ისევ, ყოველი შემთხვევისთვის, გამოთვლები 1 წერტილისთვის:

Excel-ში ჩვენ ვიყენებთ სტანდარტულ ფუნქციას ვადა (სინტაქსი შეგიძლიათ იხილოთ Excel Help-ში).

დასკვნა: , რაც ნიშნავს, რომ ექსპონენციალური ფუნქცია აახლოებს ექსპერიმენტულ წერტილებს სწორ ხაზზე უარესად .

მაგრამ აქ უნდა აღინიშნოს, რომ "უარესი" არის ჯერ არ ნიშნავს, რა მოხდა. ახლა მე შევქმენი ამ ექსპონენციალური ფუნქციის გრაფიკი - და ის ასევე გადის წერტილებთან ახლოს - იმდენად, რომ ანალიტიკური კვლევის გარეშე ძნელი სათქმელია, რომელი ფუნქციაა უფრო ზუსტი.

ეს ამთავრებს გამოსავალს და მე ვუბრუნდები არგუმენტის ბუნებრივი მნიშვნელობების საკითხს. სხვადასხვა კვლევებში, როგორც წესი, ეკონომიკურ ან სოციოლოგიურ, ბუნებრივ X-ებს ​​იყენებენ თვეების, წლების ან სხვა თანაბარი დროის ინტერვალების დასათვლელად. განვიხილოთ, მაგალითად, შემდეგი პრობლემა:

შემდეგი მონაცემები ხელმისაწვდომია მაღაზიის საცალო ბრუნვის შესახებ წლის პირველი ნახევრის განმავლობაში:

სწორი ხაზის ანალიტიკური გასწორების გამოყენებით, განსაზღვრეთ ბრუნვის მოცულობა ივლისისთვის.

დიახ, პრობლემა არ არის: ჩვენ დავთვლით თვეებს 1, 2, 3, 4, 5, 6 და ვიყენებთ ჩვეულ ალგორითმს, რის შედეგადაც ვიღებთ განტოლებას - ერთადერთი ის არის, რომ როდესაც საქმე ეხება დროს, ისინი ჩვეულებრივ იყენებენ ასო "ტე" (თუმცა ეს არ არის კრიტიკული). შედეგად მიღებული განტოლება აჩვენებს, რომ წლის პირველ ნახევარში სავაჭრო ბრუნვა გაიზარდა საშუალოდ 27,74 ერთეულით. თვეში. მოდით მივიღოთ ივლისის პროგნოზი (თვე No. 7): დ.ე.

და უამრავი ასეთი ამოცანაა. მსურველებს შეუძლიათ ისარგებლონ დამატებითი სერვისით, კერძოდ ჩემი Excel კალკულატორი (დემო ვერსია), რომელიც წყვეტს გაანალიზებულ პრობლემას თითქმის მყისიერად!ხელმისაწვდომია პროგრამის სამუშაო ვერსია სანაცვლოდან ამისთვის სიმბოლური გადასახადი.

გაკვეთილის ბოლოს მოკლე ინფორმაცია ზოგიერთი სხვა ტიპის დამოკიდებულების პოვნის შესახებ. სინამდვილეში, ბევრი არაფერია სათქმელი, რადგან ფუნდამენტური მიდგომა და გადაწყვეტის ალგორითმი იგივე რჩება.

დავუშვათ, რომ ექსპერიმენტული წერტილების განლაგება ჰიპერბოლას წააგავს. შემდეგ, საუკეთესო ჰიპერბოლის კოეფიციენტების მოსაძებნად, თქვენ უნდა იპოვოთ ფუნქციის მინიმუმი - ნებისმიერს შეუძლია განახორციელოს დეტალური გამოთვლები და მიაღწიოს მსგავს სისტემას:

ფორმალური ტექნიკური თვალსაზრისით, იგი მიიღება "ხაზოვანი" სისტემიდან (მოდით ავღნიშნოთ ვარსკვლავით)"x"-ის შეცვლა . აბა, რაც შეეხება თანხებს? გამოთვალეთ, რის შემდეგაც ოპტიმალური კოეფიციენტები "a" და "be" ახლოს ხელთ.

თუ არსებობს ყველა საფუძველი იმის დასაჯერებლად, რომ პუნქტები განლაგებულია ლოგარითმული მრუდის გასწვრივ, შემდეგ ოპტიმალური მნიშვნელობების საპოვნელად ვიპოვით ფუნქციის მინიმუმს . ფორმალურად, სისტემაში (*) უნდა შეიცვალოს:

Excel-ში გამოთვლების შესრულებისას გამოიყენეთ ფუნქცია LN. ვაღიარებ, რომ არ გამიჭირდებოდა კალკულატორების შექმნა თითოეული განსახილველი შემთხვევისთვის, მაგრამ მაინც უკეთესი იქნება, თუ თქვენ თვითონ „დააპროგრამებდით“ გამოთვლებს. გაკვეთილის ვიდეოები დასახმარებლად.

ექსპონენციური დამოკიდებულებით სიტუაცია ცოტა უფრო რთულია. მატერიის წრფივ შემთხვევამდე დასაყვანად, ვიღებთ ფუნქციის ლოგარითმს და ვიყენებთ ლოგარითმის თვისებები:

ახლა, მიღებული ფუნქციის წრფივ ფუნქციასთან შედარებისას მივდივართ დასკვნამდე, რომ სისტემაში (*) უნდა შეიცვალოს , და –-ით. მოხერხებულობისთვის აღვნიშნოთ:

გთხოვთ გაითვალისწინოთ, რომ სისტემა მოგვარებულია და, შესაბამისად, ფესვების პოვნის შემდეგ, არ უნდა დაგვავიწყდეს თავად კოეფიციენტის პოვნა.

ექსპერიმენტული პუნქტების დასაახლოებლად ოპტიმალური პარაბოლა , უნდა მოიძებნოს სამი ცვლადის მინიმალური ფუნქცია. სტანდარტული მოქმედებების შესრულების შემდეგ, ჩვენ ვიღებთ შემდეგ "მუშაობას" სისტემა:

დიახ, რა თქმა უნდა, აქ მეტი თანხაა, მაგრამ თქვენი საყვარელი აპლიკაციის გამოყენებისას არანაირი სირთულე არ არის. და ბოლოს, მე გეტყვით, თუ როგორ სწრაფად შეასრულოთ შემოწმება Excel-ის გამოყენებით და ააწყოთ სასურველი ტრენდის ხაზი: შექმენით სკატერის ნაკვეთი, შეარჩიეთ რომელიმე წერტილი მაუსით და დააწკაპუნეთ მარჯვენა ღილაკით აირჩიეთ ვარიანტი "ტენდენციის ხაზის დამატება". შემდეგი, აირჩიეთ დიაგრამის ტიპი და ჩანართზე "Პარამეტრები"გაააქტიურეთ ვარიანტი "განტოლების ჩვენება დიაგრამაზე". კარგი

როგორც ყოველთვის, მინდა დავასრულო სტატია ლამაზი ფრაზით და კინაღამ დავწერე "იყავი ტრენდში!" მაგრამ დროზე გადაიფიქრა. და არა იმიტომ, რომ ეს სტერეოტიპულია. არ ვიცი როგორია ეს ვინმესთვის, მაგრამ ნამდვილად არ მინდა გავყოლოდი პოპულარულ ამერიკულ და განსაკუთრებით ევროპულ ტენდენციას =) ამიტომ, თითოეულ თქვენგანს ვუსურვებ საკუთარი ხაზის დაცვას!

http://www.grandars.ru/student/vysshaya-matematika/metod-naimenshih-kvadratov.html

უმცირესი კვადრატების მეთოდი ერთ-ერთი ყველაზე გავრცელებული და ყველაზე განვითარებულია მისი გამო ხაზოვანი ეკონომეტრიული მოდელების პარამეტრების შეფასების მეთოდების სიმარტივე და ეფექტურობა. ამავდროულად, მისი გამოყენებისას სიფრთხილე უნდა იქნას დაცული, რადგან მისი გამოყენებით აშენებული მოდელები შეიძლება არ აკმაყოფილებდეს რიგი მოთხოვნების ხარისხს მათი პარამეტრების შესახებ და, შედეგად, არ ასახავდეს პროცესის განვითარების ნიმუშებს "კარგად". საკმარისი.

განვიხილოთ უფრო დეტალურად წრფივი ეკონომეტრიული მოდელის პარამეტრების შეფასების პროცედურა უმცირესი კვადრატების მეთოდის გამოყენებით. ასეთი მოდელი ზოგადად შეიძლება წარმოდგენილი იყოს განტოლებით (1.2):

y t = a 0 + a 1 x 1t +...+ a n x nt + ε t.

საწყისი მონაცემები a 0, a 1,..., a n პარამეტრების შეფასებისას არის დამოკიდებული ცვლადის მნიშვნელობების ვექტორი. = (y 1 , y 2 , ... , y T)" და დამოუკიდებელი ცვლადების მნიშვნელობების მატრიცა

რომელშიც პირველი სვეტი, რომელიც შედგება ერთებისგან, შეესაბამება მოდელის კოეფიციენტს.

უმცირესი კვადრატების მეთოდმა მიიღო თავისი სახელი ძირითადი პრინციპის საფუძველზე, რომლის საფუძველზე მიღებული პარამეტრების შეფასება უნდა აკმაყოფილებდეს: მოდელის შეცდომის კვადრატების ჯამი მინიმალური უნდა იყოს.

ამოცანების ამოხსნის მაგალითები უმცირესი კვადრატების მეთოდით

მაგალითი 2.1.სავაჭრო საწარმოს აქვს 12 მაღაზიის ქსელი, რომელთა საქმიანობის შესახებ ინფორმაცია მოცემულია ცხრილში. 2.1.

საწარმოს ხელმძღვანელობას სურს იცოდეს, რამდენად არის დამოკიდებული წლიური ბრუნვის ზომა მაღაზიის საცალო სივრცეზე.

ცხრილი 2.1

მაღაზიის ნომერი წლიური ბრუნვა, მილიონი რუბლი. საცალო ფართი, ათასი მ2
19,76 0,24
38,09 0,31
40,95 0,55
41,08 0,48
56,29 0,78
68,51 0,98
75,01 0,94
89,05 1,21
91,13 1,29
91,26 1,12
99,84 1,29
108,55 1,49

ამოხსნა უმცირესი კვადრატების მეთოდით.ავღნიშნოთ მე-თე მაღაზიის წლიური ბრუნვა, მილიონი რუბლი; - მაღაზიის საცალო ფართი, ათასი მ2.

ნახ.2.1. Scatterplot მაგალითისთვის 2.1

ცვლადებს შორის ფუნქციური ურთიერთობის ფორმის დასადგენად და ავაშენებთ სკატერის დიაგრამას (ნახ. 2.1).

სკატერის დიაგრამაზე დაყრდნობით, შეგვიძლია დავასკვნათ, რომ წლიური ბრუნვა დადებითად არის დამოკიდებული საცალო სივრცეზე (ანუ, y გაიზრდება მატებასთან ერთად). ფუნქციური კავშირის ყველაზე შესაფერისი ფორმაა ხაზოვანი.

ინფორმაცია შემდგომი გამოთვლებისთვის მოცემულია ცხრილში. 2.2. უმცირესი კვადრატების მეთოდის გამოყენებით ვაფასებთ ხაზოვანი ერთფაქტორიანი ეკონომეტრიული მოდელის პარამეტრებს

ცხრილი 2.2

y t x 1ტ y t 2 x 1t 2 x 1t y t
19,76 0,24 390,4576 0,0576 4,7424
38,09 0,31 1450,8481 0,0961 11,8079
40,95 0,55 1676,9025 0,3025 22,5225
41,08 0,48 1687,5664 0,2304 19,7184
56,29 0,78 3168,5641 0,6084 43,9062
68,51 0,98 4693,6201 0,9604 67,1398
75,01 0,94 5626,5001 0,8836 70,5094
89,05 1,21 7929,9025 1,4641 107,7505
91,13 1,29 8304,6769 1,6641 117,5577
91,26 1,12 8328,3876 1,2544 102,2112
99,84 1,29 9968,0256 1,6641 128,7936
108,55 1,49 11783,1025 2,2201 161,7395
819,52 10,68 65008,554 11,4058 858,3991
საშუალო 68,29 0,89

ამრიგად,

ამრიგად, საცალო ფართის 1 ათასი მ2-ით გაზრდით, სხვა თანაბარი პირობებით, საშუალო წლიური ბრუნვა იზრდება 67,8871 მილიონი რუბლით.

მაგალითი 2.2.კომპანიის მენეჯმენტმა შენიშნა, რომ წლიური ბრუნვა დამოკიდებულია არა მხოლოდ მაღაზიის გაყიდვების ზონაზე (იხ. მაგალითი 2.1), არამედ ვიზიტორთა საშუალო რაოდენობაზეც. შესაბამისი ინფორმაცია მოცემულია ცხრილში. 2.3.

ცხრილი 2.3

გამოსავალი.აღვნიშნოთ - მაღაზიის ვიზიტორთა საშუალო რაოდენობა დღეში, ათასი ადამიანი.

ცვლადებს შორის ფუნქციური ურთიერთობის ფორმის დასადგენად და ავაშენებთ სკატერის დიაგრამას (ნახ. 2.2).

Scatterplot-ზე დაყრდნობით შეგვიძლია დავასკვნათ, რომ წლიური ბრუნვა დადებითად არის დამოკიდებული ვიზიტორთა საშუალო რაოდენობაზე დღეში (ანუ, y გაიზრდება მატებასთან ერთად). ფუნქციური დამოკიდებულების ფორმა წრფივია.

ბრინჯი. 2.2. Scatterplot მაგალითი 2.2

ცხრილი 2.4

x 2 ტ x 2t 2 y t x 2t x 1t x 2t
8,25 68,0625 163,02 1,98
10,24 104,8575 390,0416 3,1744
9,31 86,6761 381,2445 5,1205
11,01 121,2201 452,2908 5,2848
8,54 72,9316 480,7166 6,6612
7,51 56,4001 514,5101 7,3598
12,36 152,7696 927,1236 11,6184
10,81 116,8561 962,6305 13,0801
9,89 97,8121 901,2757 12,7581
13,72 188,2384 1252,0872 15,3664
12,27 150,5529 1225,0368 15,8283
13,92 193,7664 1511,016 20,7408
127,83 1410,44 9160,9934 118,9728
საშუალო 10,65

ზოგადად, აუცილებელია ორფაქტორიანი ეკონომეტრიული მოდელის პარამეტრების დადგენა

y t = a 0 + a 1 x 1t + a 2 x 2t + ε t

შემდგომი გამოთვლებისთვის საჭირო ინფორმაცია მოცემულია ცხრილში. 2.4.

მოდით შევაფასოთ წრფივი ორფაქტორიანი ეკონომეტრიული მოდელის პარამეტრები უმცირესი კვადრატების მეთოდის გამოყენებით.

ამრიგად,

კოეფიციენტის შეფასება =61,6583 გვიჩვენებს, რომ სხვა თანაბარ პირობებში, საცალო ფართის 1 ათასი მ 2-ით გაზრდით, წლიური ბრუნვა გაიზრდება საშუალოდ 61,6583 მილიონი რუბლით.

კოეფიციენტის შეფასება = 2,2748 გვიჩვენებს, რომ სხვა თანაბარ პირობებში, 1 ათას ადამიანზე ვიზიტორთა საშუალო რაოდენობის ზრდა. დღეში, წლიური ბრუნვა გაიზრდება საშუალოდ 2,2748 მილიონი რუბლით.

მაგალითი 2.3.ცხრილში წარმოდგენილი ინფორმაციის გამოყენებით. 2.2 და 2.4, შეაფასეთ ერთფაქტორიანი ეკონომეტრიული მოდელის პარამეტრი

სად არის მაღაზიის წლიური ბრუნვის ორიენტირებული ღირებულება, მილიონი რუბლი; - t-th მაღაზიაში ვიზიტორთა საშუალო დღიური რაოდენობის ორიენტირებული მნიშვნელობა, ათასი ადამიანი. (იხ. მაგალითები 2.1-2.2).

გამოსავალი.გამოთვლებისთვის საჭირო დამატებითი ინფორმაცია მოცემულია ცხრილში. 2.5.

ცხრილი 2.5

-48,53 -2,40 5,7720 116,6013
-30,20 -0,41 0,1702 12,4589
-27,34 -1,34 1,8023 36,7084
-27,21 0,36 0,1278 -9,7288
-12,00 -2,11 4,4627 25,3570
0,22 -3,14 9,8753 -0,6809
6,72 1,71 2,9156 11,4687
20,76 0,16 0,0348 3,2992
22,84 -0,76 0,5814 -17,413
22,97 3,07 9,4096 70,4503
31,55 1,62 2,6163 51,0267
40,26 3,27 10,6766 131,5387
თანხა 48,4344 431,0566

ფორმულის (2.35) გამოყენებით ვიღებთ

ამრიგად,

http://www.cleverstudents.ru/articles/mnk.html

მაგალითი.

ექსპერიმენტული მონაცემები ცვლადების მნიშვნელობებზე Xდა ზემოცემულია ცხრილში.

მათი გასწორების შედეგად მიიღება ფუნქცია

გამოყენება მინიმალური კვადრატის მეთოდი, მიახლოებით ამ მონაცემებს წრფივი დამოკიდებულებით y=ax+b(იპოვეთ პარამეტრები და ). გაარკვიეთ, რომელი ორი ხაზიდან უკეთესად (უმცირესი კვადრატების მეთოდის გაგებით) ასწორებს ექსპერიმენტულ მონაცემებს. გააკეთე ნახატი.

გამოსავალი.

ჩვენს მაგალითში n=5. ჩვენ ვავსებთ ცხრილს იმ თანხების გამოთვლის მოხერხებულობისთვის, რომლებიც შედის საჭირო კოეფიციენტების ფორმულებში.

ცხრილის მეოთხე მწკრივის მნიშვნელობები მიიღება მე -2 რიგის მნიშვნელობების გამრავლებით მე -3 რიგის მნიშვნელობებზე თითოეული ნომრისთვის მე.

ცხრილის მეხუთე მწკრივის მნიშვნელობები მიიღება მე-2 სტრიქონის მნიშვნელობების კვადრატში თითოეული ნომრისთვის. მე.

ცხრილის ბოლო სვეტის მნიშვნელობები არის მნიშვნელობების ჯამები რიგებში.

კოეფიციენტების საპოვნელად ვიყენებთ უმცირესი კვადრატების მეთოდის ფორმულებს და . ჩვენ ვცვლით შესაბამის მნიშვნელობებს ცხრილის ბოლო სვეტიდან მათში:

აქედან გამომდინარე, y = 0.165x+2.184- სასურველი მიახლოებითი სწორი ხაზი.

რჩება იმის გარკვევა, თუ რომელი სტრიქონი y = 0.165x+2.184ან უკეთ აახლოებს თავდაპირველ მონაცემებს, ანუ აკეთებს შეფასებას უმცირესი კვადრატების მეთოდის გამოყენებით.

მტკიცებულება.

ისე რომ როცა იპოვეს და ფუნქცია იღებს უმცირეს მნიშვნელობას, აუცილებელია, რომ ამ დროს ფუნქციისთვის მეორე რიგის დიფერენციალური კვადრატული ფორმის მატრიცა დადებითი იყო გარკვეული. ვაჩვენოთ.

მეორე რიგის დიფერენციალს აქვს ფორმა:

ანუ

მაშასადამე, კვადრატული ფორმის მატრიცას აქვს ფორმა

და ელემენტების მნიშვნელობები არ არის დამოკიდებული და .

მოდით ვაჩვენოთ, რომ მატრიცა არის დადებითი განსაზღვრული. ამისათვის კუთხოვანი მცირეწლოვანი უნდა იყოს დადებითი.

პირველი რიგის კუთხოვანი მინორი . უთანასწორობა მკაცრია, რადგან ქულები

  • სახელმძღვანელო

შესავალი

ვარ მათემატიკოსი და პროგრამისტი. ჩემს კარიერაში ყველაზე დიდი ნახტომი იყო, როცა ვისწავლე მეთქვა: "Ვერაფერი გავიგე!"ახლა არ მრცხვენია, რომ მეცნიერების მნათობს ვუთხრა, რომ ლექციას მაკითხავს, ​​რომ არ მესმის, რას მეუბნება ის, მნათობი. და ძალიან რთულია. დიახ, შენი უცოდინრობის აღიარება რთული და უხერხულია. ვის მოსწონს იმის აღიარება, რომ რაღაცის საფუძვლები არ იცის? პროფესიიდან გამომდინარე, მიწევს უამრავ პრეზენტაციასა და ლექციაზე დასწრება, სადაც ვაღიარებ, უმეტეს შემთხვევაში ძილი მინდა, რადგან არაფერი მესმის. მაგრამ მე არ მესმის, რადგან მეცნიერებაში არსებული ვითარების უზარმაზარი პრობლემა მათემატიკაშია. იგი ვარაუდობს, რომ ყველა მსმენელი იცნობს მათემატიკის აბსოლუტურად ყველა სფეროს (რაც აბსურდია). იმის აღიარება, რომ არ იცი, რა არის წარმოებული (რა არის მასზე ცოტა მოგვიანებით ვისაუბრებთ) სამარცხვინოა.

მაგრამ მე ვისწავლე იმის თქმა, რომ არ ვიცი რა არის გამრავლება. დიახ, მე არ ვიცი რა არის სუბალგებრა ტყუილის ალგებრაზე. დიახ, არ ვიცი, რატომ არის საჭირო კვადრატული განტოლებები ცხოვრებაში. სხვათა შორის, თუ დარწმუნებული ხართ, რომ იცით, მაშინ სალაპარაკო გვაქვს! მათემატიკა არის ხრიკების სერია. მათემატიკოსები ცდილობენ საზოგადოების დაბნევასა და დაშინებას; სადაც არ არის დაბნეულობა, არ არის რეპუტაცია, არ არის ავტორიტეტი. დიახ, პრესტიჟულია რაც შეიძლება აბსტრაქტულ ენაზე საუბარი, რაც სრული სისულელეა.

წარმოებული იცი რა არის? დიდი ალბათობით თქვენ მეტყვით სხვაობის შეფარდების ლიმიტის შესახებ. პეტერბურგის სახელმწიფო უნივერსიტეტის მათემატიკისა და მექანიკის პირველ კურსზე ვიქტორ პეტროვიჩ ხავინმა მითხრა განსაზღვრულიწარმოებული, როგორც ფუნქციის ტეილორის სერიის პირველი წევრის კოეფიციენტი წერტილში (ეს იყო ცალკე ტანვარჯიში ტეილორის სერიის დასადგენად წარმოებულების გარეშე). დიდხანს ვიცინოდი ამ განსაზღვრებაზე, სანამ საბოლოოდ მივხვდი რაში იყო საქმე. წარმოებული სხვა არაფერია, თუ არა მარტივი საზომი იმისა, თუ რამდენად ჰგავს ფუნქციას, რომელსაც ჩვენ განვასხვავებთ, y=x, y=x^2, y=x^3 ფუნქციას.

ახლა მაქვს პატივი ლექციების წაკითხვა სტუდენტებთან, რომლებიც შეშინებულიმათემატიკა. თუ მათემატიკის გეშინიათ, ჩვენც იგივე გზაზე ვართ. როგორც კი რაიმე ტექსტის წაკითხვას შეეცდებით და მოგეჩვენებათ, რომ ის ზედმეტად რთულია, მაშინ იცოდეთ, რომ ის ცუდად არის დაწერილი. მე ვამტკიცებ, რომ არ არსებობს მათემატიკის არც ერთი სფერო, რომლის განხილვა შეუძლებელია "თითებზე" სიზუსტის დაკარგვის გარეშე.

დავალება უახლოესი მომავლისთვის: ჩემს მოსწავლეებს დავავალე გაერკვნენ რა არის წრფივი კვადრატული რეგულატორი. არ მორცხვდეთ, გაატარეთ თქვენი ცხოვრების სამი წუთი და მიჰყევით ბმულს. თუ არაფერი გესმით, მაშინ ჩვენ იმავე გზაზე ვართ. მეც (პროფესიონალი მათემატიკოსი პროგრამისტი) ვერაფერი გავიგე. და გარწმუნებთ, ამის გარკვევა „თითებზე“ შეგიძლიათ. ამჟამად არ ვიცი რა არის, მაგრამ გარწმუნებთ, რომ ამის გარკვევას შევძლებთ.

ასე რომ, პირველი ლექცია, რომელსაც ვაპირებ ჩემს სტუდენტებს წავიკითხო მას შემდეგ, რაც ისინი შეშინებულები მოდიან ჩემთან და მეტყვიან, რომ ხაზოვანი-კვადრატული რეგულატორი არის საშინელი რამ, რასაც ვერასოდეს დაეუფლები შენს ცხოვრებაში, არის მინიმალური კვადრატების მეთოდები. შეგიძლიათ ამოხსნათ წრფივი განტოლებები? თუ თქვენ კითხულობთ ამ ტექსტს, მაშინ დიდი ალბათობით არა.

ასე რომ, ორი წერტილის (x0, y0), (x1, y1) მოცემული, მაგალითად, (1,1) და (3,2), ამოცანაა ვიპოვოთ ამ ორ წერტილში გამავალი წრფის განტოლება:

ილუსტრაცია

ამ ხაზს უნდა ჰქონდეს შემდეგი განტოლება:

აქ ალფა და ბეტა ჩვენთვის უცნობია, მაგრამ ცნობილია ამ ხაზის ორი წერტილი:

ჩვენ შეგვიძლია დავწეროთ ეს განტოლება მატრიცის სახით:

აქ უნდა გავაკეთოთ ლირიკული გადახრა: რა არის მატრიცა? მატრიცა სხვა არაფერია, თუ არა ორგანზომილებიანი მასივი. ეს არის მონაცემთა შენახვის საშუალება, მას არ უნდა დაერთოს დამატებითი მნიშვნელობა. ჩვენზეა დამოკიდებული ზუსტად როგორ განვმარტოთ გარკვეული მატრიცა. პერიოდულად მე განვიხილავ მას, როგორც წრფივ ასახვას, პერიოდულად, როგორც კვადრატულ ფორმას და ზოგჯერ უბრალოდ, როგორც ვექტორთა ერთობლიობას. ეს ყველაფერი კონტექსტში გაირკვევა.

მოდით შევცვალოთ კონკრეტული მატრიცები მათი სიმბოლური გამოსახულებით:

შემდეგ (ალფა, ბეტა) შეგიძლიათ მარტივად იპოვოთ:

უფრო კონკრეტულად ჩვენი წინა მონაცემებისთვის:

რაც იწვევს (1,1) და (3,2) წერტილებში გამავალი წრფის შემდეგ განტოლებას:

კარგი, აქ ყველაფერი გასაგებია. ვიპოვოთ გამავალი წრფის განტოლება სამიქულები: (x0,y0), (x1,y1) და (x2,y2):

ოჰ-ო-ო, მაგრამ ჩვენ გვაქვს სამი განტოლება ორი უცნობისთვის! სტანდარტული მათემატიკოსი იტყვის, რომ გამოსავალი არ არის. რას იტყვის პროგრამისტი? და ის ჯერ გადაწერს განტოლებათა წინა სისტემას შემდეგი სახით:

ჩვენს შემთხვევაში, i, j, b ვექტორები სამგანზომილებიანია, ამიტომ (ზოგად შემთხვევაში) ამ სისტემის ამოხსნა არ არსებობს. ნებისმიერი ვექტორი (ალფა\*ი + ბეტა\*j) დევს ვექტორების (i, j) მიერ დაფარულ სიბრტყეში. თუ b არ განეკუთვნება ამ სიბრტყეს, მაშინ არ არსებობს ამონახსნი (თანასწორობა ვერ მიიღწევა განტოლებაში). Რა უნდა ვქნა? მოდი ვეძიოთ კომპრომისი. მოდი აღვნიშნოთ e (ალფა, ბეტა)ზუსტად რამდენად ვერ მივაღწიეთ თანასწორობას:

და ჩვენ შევეცდებით მინიმუმამდე დავიყვანოთ ეს შეცდომა:

რატომ მოედანზე?

ჩვენ ვეძებთ არა მხოლოდ ნორმის მინიმუმს, არამედ ნორმის კვადრატის მინიმუმს. რატომ? მინიმალური წერტილი თავისთავად ემთხვევა და კვადრატი იძლევა გლუვ ფუნქციას (არგუმენტების კვადრატული ფუნქცია (ალფა, ბეტა)), ხოლო უბრალოდ სიგრძე იძლევა კონუსის ფორმის ფუნქციას, რომელიც არ არის დიფერენცირებადი მინიმალურ წერტილში. ბრრ. კვადრატი უფრო მოსახერხებელია.

ცხადია, შეცდომა მინიმუმამდეა დაყვანილი, როდესაც ვექტორი ორთოგონალური სიბრტყეზე, რომელიც გადაფარავს ვექტორებს მედა .

ილუსტრაცია

სხვა სიტყვებით რომ ვთქვათ: ჩვენ ვეძებთ სწორ ხაზს, რომ ყველა წერტილიდან ამ სწორ ხაზამდე მანძილების კვადრატული სიგრძის ჯამი მინიმალური იყოს:

განახლება: აქ მაქვს პრობლემა, მანძილი სწორ ხაზამდე უნდა გაიზომოს ვერტიკალურად და არა ორთოგონალური პროექციით. მართალია ეს კომენტატორი.

ილუსტრაცია

სრულიად განსხვავებული სიტყვებით (ფრთხილად, ცუდად ფორმალიზებული, მაგრამ გასაგები უნდა იყოს): ჩვენ ვიღებთ ყველა შესაძლო ხაზს ყველა წყვილ წერტილს შორის და ვეძებთ საშუალო ხაზს ყველას შორის:

ილუსტრაცია

კიდევ ერთი ახსნა მარტივია: ჩვენ ვამაგრებთ ზამბარას ყველა მონაცემთა წერტილს შორის (აქ გვაქვს სამი) და სწორ ხაზს, რომელსაც ვეძებთ, და წონასწორობის მდგომარეობის სწორი ხაზი არის ზუსტად ის, რასაც ჩვენ ვეძებთ.

მინიმალური კვადრატული ფორმა

ასე რომ, ამ ვექტორის გათვალისწინებით და მატრიცის სვეტის ვექტორებით დაფარულ სიბრტყეს (ამ შემთხვევაში (x0,x1,x2) და (1,1,1)), ჩვენ ვეძებთ ვექტორს სიგრძის მინიმალური კვადრატით. ცხადია, მინიმალური მიღწევა მხოლოდ ვექტორისთვისაა შესაძლებელი , ორთოგონალური სიბრტყის მიმართ, რომელიც დაფარავს მატრიცის სვეტის ვექტორებს :

სხვა სიტყვებით რომ ვთქვათ, ჩვენ ვეძებთ ვექტორს x=(ალფა, ბეტა), რომ:

შეგახსენებთ, რომ ეს ვექტორი x=(ალფა, ბეტა) არის კვადრატული ფუნქციის მინიმალური ||e(ალფა, ბეტა)||^2:

აქ სასარგებლო იქნება გვახსოვდეს, რომ მატრიცა შეიძლება ასევე იყოს ინტერპრეტირებული, როგორც კვადრატული ფორმა, მაგალითად, იდენტობის მატრიცა ((1,0),(0,1)) შეიძლება განიმარტოს როგორც x^2 + y^ ფუნქცია. 2:

კვადრატული ფორმა

მთელი ეს ტანვარჯიში ცნობილია ხაზოვანი რეგრესიის სახელით.

ლაპლასის განტოლება დირიხლეს სასაზღვრო მდგომარეობასთან

ახლა უმარტივესი რეალური ამოცანაა: არსებობს გარკვეული სამკუთხა ზედაპირი, აუცილებელია მისი გასწორება. მაგალითად, ავტვირთოთ ჩემი სახის მოდელი:

ორიგინალური ვალდებულება ხელმისაწვდომია. გარე დამოკიდებულებების შესამცირებლად, მე ავიღე ჩემი პროგრამული უზრუნველყოფის რენდერის კოდი, უკვე Habré-ზე. ხაზოვანი სისტემის გადასაჭრელად მე ვიყენებ OpenNL-ს, ეს არის შესანიშნავი ამომხსნელი, რომლის ინსტალაცია, თუმცა, ძალიან რთულია: თქვენ უნდა დააკოპიროთ ორი ფაილი (.h+.c) საქაღალდეში თქვენი პროექტით. ყველა გამარტივება ხდება შემდეგი კოდით:

ამისთვის (int d=0; d<3; d++) { nlNewContext(); nlSolverParameteri(NL_NB_VARIABLES, verts.size()); nlSolverParameteri(NL_LEAST_SQUARES, NL_TRUE); nlBegin(NL_SYSTEM); nlBegin(NL_MATRIX); for (int i=0; i<(int)verts.size(); i++) { nlBegin(NL_ROW); nlCoefficient(i, 1); nlRightHandSide(verts[i][d]); nlEnd(NL_ROW); } for (unsigned int i=0; i&face = სახეები[i]; for (int j=0; j<3; j++) { nlBegin(NL_ROW); nlCoefficient(face[ j ], 1); nlCoefficient(face[(j+1)%3], -1); nlEnd(NL_ROW); } } nlEnd(NL_MATRIX); nlEnd(NL_SYSTEM); nlSolve(); for (int i=0; i<(int)verts.size(); i++) { verts[i][d] = nlGetVariable(i); } }

X, Y და Z კოორდინატები განცალკევებულია, მე მათ ცალკე ვასწორებ. ანუ მე ვხსნი წრფივი განტოლებების სამ სისტემას, თითოეულში ცვლადების რაოდენობა ტოლია ჩემს მოდელში წვეროების რაოდენობას. A მატრიცის პირველ n სტრიქონს აქვს მხოლოდ ერთი 1 რიგზე, ხოლო b ვექტორის პირველ n მწკრივს აქვს ორიგინალური მოდელის კოორდინატები. ანუ წვეროს ახალ პოზიციასა და წვერის ძველ პოზიციას შორის ზამბარას ვაკრავ - ახლები ძველს ძალიან შორს არ უნდა გადავიდეს.

A მატრიცის ყველა მომდევნო მწკრივს (faces.size()*3 = ბადის ყველა სამკუთხედის კიდეების რაოდენობა) აქვს 1-ის ერთი და -1-ის ერთი შემთხვევა, ხოლო b ვექტორს აქვს ნულოვანი კომპონენტები საპირისპირო. ეს ნიშნავს, რომ მე დავაყენე ზამბარა ჩვენი სამკუთხა ბადის თითოეულ კიდეზე: ყველა კიდე ცდილობს მიიღოს იგივე წვერო, როგორც მათი საწყისი და დასასრული წერტილი.

კიდევ ერთხელ ვიმეორებ: ყველა წვერო არის ცვლადი და ისინი ვერ შორდებიან თავდაპირველი პოზიციიდან, მაგრამ ამავე დროს ისინი ცდილობენ დაემსგავსონ ერთმანეთს.

აი შედეგი:

ყველაფერი კარგად იქნებოდა, მოდელი ნამდვილად გათლილი იყო, მაგრამ გადავიდა თავდაპირველი კიდედან. მოდით ცოტათი შევცვალოთ კოდი:

ამისთვის (int i=0; i<(int)verts.size(); i++) { float scale = border[i] ? 1000: 1; nlBegin(NL_ROW); nlCoefficient(i, scale); nlRightHandSide(scale*verts[i][d]); nlEnd(NL_ROW); }

ჩვენს მატრიცაში A, წვეროებისთვის, რომლებიც კიდეზეა, მე ვამატებ არა სტრიქონს v_i = verts[i][d] კატეგორიიდან, არამედ 1000*v_i = 1000* verts[i][d]. რას ცვლის? და ეს ცვლის შეცდომის ჩვენს კვადრატულ ფორმას. ახლა კიდეზე ზემოდან ერთი გადახრა ეღირება არა ერთი ერთეული, როგორც ადრე, არამედ 1000*1000 ერთეული. ანუ უკიდურეს წვეროებზე უფრო მძლავრი ზამბარა დავკიდეთ, გამოსავალი ურჩევნია სხვების უფრო ძლიერად დაჭიმვას. აი შედეგი:

გავაორმაგოთ ზამბარის სიძლიერე წვეროებს შორის:
nlCoefficient(face[j], 2); nlCoefficient(face[(j+1)%3], -2);

ლოგიკურია, რომ ზედაპირი უფრო გლუვი გახდა:

ახლა კი ასჯერ უფრო ძლიერი:

Ეს რა არის? წარმოიდგინეთ, რომ მავთულის რგოლი საპნიან წყალში ჩავყარეთ. შედეგად, მიღებული საპნის ფილმი შეეცდება ჰქონდეს რაც შეიძლება ნაკლები გამრუდება, რაც შეეხება საზღვარს - ჩვენს მავთულის რგოლს. ეს არის ზუსტად ის, რაც მივიღეთ საზღვრის დაფიქსირებით და შიგნით გლუვი ზედაპირის მოთხოვნით. გილოცავთ, ჩვენ ახლახან მოვაგვარეთ ლაპლასის განტოლება დირიხლეს სასაზღვრო პირობებით. Კარგად ჟღერს? მაგრამ სინამდვილეში, თქვენ უბრალოდ უნდა ამოხსნათ წრფივი განტოლებების ერთი სისტემა.

პუასონის განტოლება

გავიხსენოთ კიდევ ერთი მაგარი სახელი.

ვთქვათ, მაქვს ასეთი სურათი:

ყველას კარგად გამოიყურება, მაგრამ მე არ მომწონს სკამი.

სურათს გავანახევრებ:



და სკამს ჩემი ხელით ავირჩევ:

შემდეგ ყველაფერს, რაც ნიღაბში არის თეთრი, სურათის მარცხენა მხარეს გადავაადგილებ და ამავდროულად მთელი სურათის მანძილზე ვიტყვი, რომ განსხვავება ორ მეზობელ პიქსელს შორის უნდა იყოს ტოლი სხვაობის ორ მეზობელ პიქსელს შორის მარჯვნივ. სურათი:

ამისთვის (int i=0; i

აი შედეგი:

ხელმისაწვდომია კოდი და სურათები

ჩვეულებრივი უმცირესი კვადრატების (OLS) მეთოდი- მათემატიკური მეთოდი, რომელიც გამოიყენება სხვადასხვა ამოცანების გადასაჭრელად, რომელიც დაფუძნებულია სასურველი ცვლადებიდან გარკვეული ფუნქციების კვადრატული გადახრების ჯამის მინიმიზაციაზე. ის შეიძლება გამოყენებულ იქნას განტოლებათა ზედმეტად განსაზღვრული სისტემების „გადასაჭრელად“ (როდესაც განტოლებათა რაოდენობა აჭარბებს უცნობის რაოდენობას), ამონახსნების საპოვნელად ჩვეულებრივი (არა ზედმეტად განსაზღვრული) განტოლებათა არაწრფივი სისტემების შემთხვევაში, ზოგიერთი წერტილის მნიშვნელობების მიახლოებით. ფუნქცია. OLS არის რეგრესიული ანალიზის ერთ-ერთი ძირითადი მეთოდი რეგრესიის მოდელების უცნობი პარამეტრების შეფასებისთვის ნიმუშის მონაცემებიდან.

ენციკლოპედიური YouTube

    1 / 5

    ✪ უმცირესი კვადრატების მეთოდი. საგანი

    ✪ Mitin I.V - ფიზიკური შედეგების დამუშავება. ექსპერიმენტი - უმცირესი კვადრატების მეთოდი (ლექცია 4)

    ✪ უმცირესი კვადრატების მეთოდი, გაკვეთილი 1/2. ხაზოვანი ფუნქცია

    ✪ ეკონომეტრია. ლექცია 5. უმცირესი კვადრატების მეთოდი

    ✪ უმცირესი კვადრატების მეთოდი. პასუხები

    სუბტიტრები

ამბავი

XIX საუკუნის დასაწყისამდე. მეცნიერებს არ ჰქონდათ გარკვეული წესები განტოლებათა სისტემის ამოხსნისთვის, რომელშიც უცნობის რაოდენობა განტოლებათა რაოდენობაზე ნაკლებია; ამ დრომდე გამოიყენებოდა პირადი ტექნიკა, რომელიც დამოკიდებული იყო განტოლებების ტიპზე და კალკულატორების ჭკუაზე და, შესაბამისად, სხვადასხვა კალკულატორები, ერთი და იგივე დაკვირვების მონაცემებზე დაყრდნობით, სხვადასხვა დასკვნამდე მივიდნენ. გაუსმა (1795) პირველმა გამოიყენა ეს მეთოდი, ხოლო ლეჟანდრმა (1805) დამოუკიდებლად აღმოაჩინა და გამოაქვეყნა იგი მისი თანამედროვე სახელით (ფრანგ. Méthode des moindres quarrés) . ლაპლასმა მეთოდი დააკავშირა ალბათობის თეორიასთან და ამერიკელმა მათემატიკოსმა ადრეინმა (1808) განიხილა მისი ალბათობა-თეორიული აპლიკაციები. მეთოდი ფართოდ იყო გავრცელებული და გაუმჯობესდა ენკეს, ბესელის, ჰანსენის და სხვათა შემდგომი კვლევებით.

უმცირესი კვადრატების მეთოდის არსი

დაე x (\displaystyle x)- ნაკრები n (\displaystyle n)უცნობი ცვლადები (პარამეტრები), f i (x) (\displaystyle f_(i)(x)), , m > n (\displaystyle m>n)- ფუნქციების ნაკრები ცვლადების ამ ნაკრებიდან. ამოცანაა ასეთი მნიშვნელობების შერჩევა x (\displaystyle x)ისე, რომ ამ ფუნქციების მნიშვნელობები რაც შეიძლება ახლოს იყოს გარკვეულ მნიშვნელობებთან y i (\displaystyle y_(i)). არსებითად, ჩვენ ვსაუბრობთ ზედმეტად განსაზღვრული განტოლებათა სისტემის „ამოხსნაზე“. f i (x) = y i (\displaystyle f_(i)(x)=y_(i)), i = 1 , … , m (\displaystyle i=1,\ldots ,m)სისტემის მარცხენა და მარჯვენა ნაწილების მაქსიმალური სიახლოვის მითითებული გაგებით. უმცირესი კვადრატების მეთოდის არსი არის "სიახლოვის საზომად" მარცხენა და მარჯვენა მხარის კვადრატული გადახრების ჯამის არჩევა. | f i (x) − y i | (\displaystyle |f_(i)(x)-y_(i)|). ამრიგად, MNC-ის არსი შეიძლება გამოიხატოს შემდეგნაირად:

∑ i e i 2 = ∑ i (y i − f i (x)) 2 → min x (\displaystyle \sum _(i)e_(i)^(2)=\sum _(i)(y_(i)-f_( i)(x))^(2)\მარჯვენა ისარი \წთ _(x)).

თუ განტოლებათა სისტემას აქვს ამონახსნი, მაშინ კვადრატების ჯამის მინიმალური ტოლი იქნება ნულის ტოლი და განტოლებათა სისტემის ზუსტი ამონახსნები შეიძლება მოიძებნოს ანალიტიკურად ან, მაგალითად, სხვადასხვა რიცხვითი ოპტიმიზაციის მეთოდების გამოყენებით. თუ სისტემა ზედმეტად არის განსაზღვრული, ანუ თავისუფლად რომ ვთქვათ, დამოუკიდებელი განტოლებების რაოდენობა სასურველი ცვლადების რაოდენობაზე მეტია, მაშინ სისტემას არ აქვს ზუსტი ამონახსნი და უმცირესი კვადრატების მეთოდი საშუალებას გვაძლევს ვიპოვოთ რაიმე „ოპტიმალური“ ვექტორი. x (\displaystyle x)ვექტორების მაქსიმალური სიახლოვის მნიშვნელობით y (\displaystyle y)და f (x) (\displaystyle f(x))ან გადახრის ვექტორის მაქსიმალური სიახლოვე e (\displaystyle e)ნულამდე (სიახლოვე გაგებულია ევკლიდური მანძილის მნიშვნელობით).

მაგალითი - წრფივი განტოლებათა სისტემა

კერძოდ, უმცირესი კვადრატების მეთოდი შეიძლება გამოყენებულ იქნას წრფივი განტოლებათა სისტემის „გადასაჭრელად“.

A x = b (\displaystyle Ax=b),

სად A (\displaystyle A)მართკუთხა ზომის მატრიცა m × n, m > n (\displaystyle m\ჯერ n,m>n)(ანუ A მატრიცის მწკრივების რაოდენობა მეტია მოძიებული ცვლადების რაოდენობაზე).

ზოგად შემთხვევაში, განტოლებათა ასეთ სისტემას გამოსავალი არ აქვს. მაშასადამე, ამ სისტემის „გადაჭრა“ შესაძლებელია მხოლოდ ასეთი ვექტორის არჩევის გაგებით x (\displaystyle x)ვექტორებს შორის „მანძილის“ მინიმიზაციისთვის A x (\displaystyle Axe)და b (\displaystyle b). ამისათვის შეგიძლიათ გამოიყენოთ სისტემის განტოლებების მარცხენა და მარჯვენა მხარეებს შორის კვადრატული განსხვავებების ჯამის მინიმიზაციის კრიტერიუმი, ანუ (A x − b) T (A x − b) → წთ (\displaystyle (Ax-b)^(T)(Ax-b)\მარჯვენა ისარი \წთ). ადვილია იმის ჩვენება, რომ ამ მინიმიზაციის პრობლემის გადაჭრა იწვევს განტოლებათა შემდეგი სისტემის ამოხსნას

A T A x = A T b ⇒ x = (A T A) − 1 A T b (\displaystyle A^(T)Ax=A^(T)b\მარჯვენა ისარი x=(A^(T)A)^(-1)A^ (T)b).

OLS რეგრესიულ ანალიზში (მონაცემთა დაახლოება)

დაე იყოს n (\displaystyle n)ზოგიერთი ცვლადის მნიშვნელობები y (\displaystyle y)(ეს შეიძლება იყოს დაკვირვების, ექსპერიმენტების და ა.შ. შედეგები) და მასთან დაკავშირებული ცვლადები x (\displaystyle x). გამოწვევა არის უზრუნველყოს, რომ ურთიერთობა y (\displaystyle y)და x (\displaystyle x)მიახლოებითი ზოგიერთი ფუნქციით ცნობილი ზოგიერთი უცნობი პარამეტრის ფარგლებში b (\displaystyle b), ანუ რეალურად იპოვნეთ პარამეტრების საუკეთესო მნიშვნელობები b (\displaystyle b), მნიშვნელობების მაქსიმალური მიახლოებით f (x, b) (\displaystyle f(x,b))რეალურ ღირებულებებს y (\displaystyle y). ფაქტობრივად, ეს მოდის ზედმეტად განსაზღვრული განტოლებათა სისტემის „გადაწყვეტის“ შემთხვევასთან მიმართებაში. b (\displaystyle b):

F (x t , b) = y t , t = 1 , ... , n (\displaystyle f(x_(t),b)=y_(t),t=1,\ldots ,n).

რეგრესიულ ანალიზში და განსაკუთრებით ეკონომეტრიაში გამოიყენება ცვლადებს შორის დამოკიდებულების ალბათური მოდელები.

Y t = f (x t, b) + ε t (\displaystyle y_(t)=f(x_(t),b)+\varepsilon _(t)),

სად ε t (\displaystyle \varepsilon _(t))- ე. წ შემთხვევითი შეცდომებიმოდელები.

შესაბამისად, დაკვირვებული მნიშვნელობების გადახრები y (\displaystyle y)მოდელიდან f (x, b) (\displaystyle f(x,b))უკვე ვარაუდობენ თავად მოდელში. უმცირესი კვადრატების მეთოდის (ჩვეულებრივი, კლასიკური) არსი ასეთი პარამეტრების პოვნაა b (\displaystyle b), რომლის დროსაც არის კვადრატული გადახრების ჯამი (შეცდომებს, რეგრესიის მოდელებისთვის მათ ხშირად უწოდებენ რეგრესიის ნარჩენებს) e t (\displaystyle e_(t))მინიმალური იქნება:

b ^ O L S = arg ⁡ min b R S S (b) (\displaystyle (\hat (b))_(OLS)=\arg \min _(b)RSS(b)),

სად R S S (\displaystyle RSS)- ინგლისური კვადრატების ნარჩენი ჯამი განისაზღვრება როგორც:

R S S (b) = e T e = ∑ t = 1 n e t 2 = ∑ t = 1 n (y t − f (x t, b)) 2 (\displaystyle RSS(b)=e^(T)e=\sum _ (t=1)^(n)e_(t)^(2)=\sum _(t=1)^(n)(y_(t)-f(x_(t),b))^(2) ).

ზოგადად, ამ პრობლემის გადაჭრა შესაძლებელია რიცხვითი ოპტიმიზაციის (მინიმიზაციის) მეთოდებით. ამ შემთხვევაში ისინი საუბრობენ არაწრფივი უმცირესი კვადრატები(NLS ან NLLS - ინგლისური არაწრფივი უმცირესი კვადრატები). ხშირ შემთხვევაში შესაძლებელია ანალიტიკური ამოხსნის მიღება. მინიმიზაციის პრობლემის გადასაჭრელად აუცილებელია ფუნქციის სტაციონარული წერტილების პოვნა R S S (b) (\displaystyle RSS(b)), მისი დიფერენცირება უცნობი პარამეტრების მიხედვით b (\displaystyle b), წარმოებულების გათანაბრება ნულთან და შედეგად მიღებული განტოლებათა სისტემის ამოხსნა:

∑ t = 1 n (y t − f (x t , b)) ∂ f (x t , b) ∂ b = 0 (\displaystyle \sum _(t=1)^(n)(y_(t)-f(x_ (t),b))(\frac (\partial f(x_(t),b))(\partial b))=0).

OLS წრფივი რეგრესიის შემთხვევაში

დაე, რეგრესიის დამოკიდებულება იყოს წრფივი:

y t = ∑ j = 1 k b j x t j + ε = x t T b + ε t (\displaystyle y_(t)=\sum _(j=1)^(k)b_(j)x_(tj)+\varepsilon =x_( t)^(T)b+\varepsilon _(t)).

დაე არის ახსნილი ცვლადის დაკვირვების სვეტის ვექტორი და X (\displaystyle X)- ეს (n × k) (\ჩვენების სტილი ((n\ჯერ k)))- ფაქტორების დაკვირვების მატრიცა (მატრიცის რიგები არის ფაქტორების მნიშვნელობების ვექტორები მოცემულ დაკვირვებაში, სვეტები არის მოცემული ფაქტორის მნიშვნელობების ვექტორი ყველა დაკვირვებაში). ხაზოვანი მოდელის მატრიცულ წარმოდგენას აქვს ფორმა:

y = X b + ε (\displaystyle y=Xb+\varepsilon).

მაშინ ახსნილი ცვლადის შეფასების ვექტორი და რეგრესიის ნარჩენების ვექტორი ტოლი იქნება

y ^ = X b , e = y − y ^ = y − X b (\displaystyle (\hat (y))=Xb,\quad e=y-(\hat (y))=y-Xb).

შესაბამისად, რეგრესიის ნარჩენების კვადრატების ჯამი ტოლი იქნება

R S S = e T e = (y − X ბ) T (y − X b) (\displaystyle RSS=e^(T)e=(y-Xb)^(T)(y-Xb)).

ამ ფუნქციის დიფერენცირება პარამეტრების ვექტორთან მიმართებაში b (\displaystyle b)და წარმოებულების ნულის ტოლფასი, ჩვენ ვიღებთ განტოლებათა სისტემას (მატრიცის სახით):

(X T X) b = X T y (\ჩვენების სტილი (X^(T)X)b=X^(T)y).

გაშიფრული მატრიცის სახით, განტოლებების ეს სისტემა ასე გამოიყურება:

(∑ x t 1 2 ∑ x t 1 x t 2 ∑ x t 1 x t 3 … ∑ x t 1 x t k ∑ x t 2 x t 1 ∑ x t 2 2 ∑ x t 2 x t 3 … ∑ x t 2 x t k ∑ x 3 x 1 x t 3 2 … ∑ x t 3 x t k ⋮ ⋮ ⋮ ⋱ ⋮ ∑ x t k x t 1 ∑ x t k x t 3 … ∑ x t k 2) (b 1 b 2 b 3) (⋮ b 3) ∑ x t 3 y t ⋮ ∑ x t k y t) , (\displaystyle (\begin(pmatrix)\sum x_(t1)^(2)&\sum x_(t1)x_(t2)&\sum x_(t1)x_(t3)&\ldots &\sum x_(t1)x_(tk)\\\ ჯამი x_(t2)x_(t1)&\sum x_(t2)^(2)&\sum x_(t2)x_(t3)&\ldots &\ ჯამი x_(t2)x_(tk)\\\ ჯამი x_(t3)x_(t1)&\sum x_(t3)x_(t2)&\sum x_(t3)^(2)&\ldots &\sum x_ (t3)x_(tk)\\\vdots &\vdots &\vdots &\ddots &\vdots \\\sum x_(tk)x_(t1)&\sum x_(tk)x_(t2)&\sum x_ (tk)x_(t3)&\ldots &\sum x_(tk)^(2)\\\end(pmatrix))(\ begin(pmatrix)b_(1)\\b_(2)\\b_(3 )\\\vdots \\b_(k)\\\ბოლო (pmatrix))=(\ დასაწყისი (pmatrix)\sum x_(t1)y_(t)\\\sum x_(t2)y_(t)\\ \ჯამ x_(t3)y_(t)\\\vdots \\\ ჯამი x_(tk)y_(t)\\\ბოლო (pmatrix)),)სადაც ყველა ჯამი აღებულია ყველა მოქმედ მნიშვნელობაზე t (\displaystyle t).

თუ მუდმივი შედის მოდელში (როგორც ყოველთვის), მაშინ x t 1 = 1 (\displaystyle x_(t1)=1)ყველას თვალწინ t (\displaystyle t)მაშასადამე, განტოლებათა სისტემის მატრიცის ზედა მარცხენა კუთხეში არის დაკვირვებების რაოდენობა n (\displaystyle n)და პირველი რიგისა და პირველი სვეტის დანარჩენ ელემენტებში - უბრალოდ ცვლადის მნიშვნელობების ჯამები: ∑ x t j (\displaystyle \sum x_(tj))და სისტემის მარჯვენა მხარის პირველი ელემენტია ∑ y t (\displaystyle \sum y_(t)).

განტოლებათა ამ სისტემის ამოხსნა იძლევა ხაზოვანი მოდელის უმცირესი კვადრატების შეფასების ზოგად ფორმულას:

b ^ O L S = (X T X) − 1 X T y = (1 n X T X) − 1 1 n X T y = V x − 1 C x y (\displaystyle (\hat (b))_(OLS)=(X^(T )X)^(-1)X^(T)y=\მარცხნივ((\frac (1)(n))X^(T)X\მარჯვნივ)^(-1)(\frac (1)(n ))X^(T)y=V_(x)^(-1)C_(xy)).

ანალიტიკური მიზნებისთვის, ამ ფორმულის ბოლო წარმოდგენა გამოდის სასარგებლო (განტოლებათა სისტემაში n-ზე გაყოფისას არითმეტიკული საშუალებები ჩნდება ჯამების ნაცვლად). თუ რეგრესიულ მოდელში მონაცემები ორიენტირებული, მაშინ ამ წარმოდგენაში პირველ მატრიცას აქვს ფაქტორების კოვარიანტების ნიმუშის მნიშვნელობა, ხოლო მეორე არის ფაქტორების კოვარიანტების ვექტორი დამოკიდებულ ცვლადთან. თუ დამატებით მონაცემებიც ნორმალიზებული MSE-ს (ეს არის საბოლოო ჯამში სტანდარტიზებული), მაშინ პირველ მატრიცას აქვს ფაქტორების ნიმუშის კორელაციის მატრიცის მნიშვნელობა, მეორე ვექტორს - ფაქტორების სანიმუშო კორელაციის ვექტორი დამოკიდებულ ცვლადთან.

OLS შეფასების მნიშვნელოვანი თვისება მოდელებისთვის მუდმივთან ერთად- აგებული რეგრესიის ხაზი გადის ნიმუშის მონაცემების სიმძიმის ცენტრში, ანუ თანასწორობა დაკმაყოფილებულია:

y ¯ = b 1 ^ + ∑ j = 2 k b ^ j x ¯ j (\displaystyle (\bar (y))=(\hat (b_(1)))+\sum _(j=2)^(k) (\ქუდი (ბ))_(ჯ)(\ბარი (x))_(j)).

კერძოდ, უკიდურეს შემთხვევაში, როდესაც ერთადერთი რეგრესორი არის მუდმივი, აღმოვაჩენთ, რომ ერთადერთი პარამეტრის OLS შეფასება (თვითონ მუდმივი) უდრის ახსნილი ცვლადის საშუალო მნიშვნელობას. ანუ არითმეტიკული საშუალო, რომელიც ცნობილია თავისი კარგი თვისებებით დიდი რიცხვების კანონებიდან, ასევე არის უმცირესი კვადრატების შეფასება - ის აკმაყოფილებს მისგან კვადრატული გადახრების მინიმალური ჯამის კრიტერიუმს.

უმარტივესი სპეციალური შემთხვევები

დაწყვილებული წრფივი რეგრესიის შემთხვევაში y t = a + b x t + ε t (\displaystyle y_(t)=a+bx_(t)+\varepsilon _(t))როდესაც შეფასებულია ერთი ცვლადის წრფივი დამოკიდებულება მეორეზე, გამოთვლის ფორმულები გამარტივებულია (შეგიძლიათ გააკეთოთ მატრიცული ალგებრის გარეშე). განტოლებათა სისტემას აქვს ფორმა:

(1 x ¯ x ¯ x 2 ¯) (a b) = (y ¯ x y ¯) (\displaystyle (\begin(pmatrix)1&(\bar (x))\\(\bar (x))&(\bar (x^(2)))\\\ბოლო(პმატრიცა))(\ დასაწყისი(პმატრიცა)a\\b\\\ბოლო(პმატრიცა))=(\ დასაწყისი(პმატრიცა)(\ბარი (y))\\ (\ overline (xy)) \\\ end (pmatrix))).

აქედან ადვილია კოეფიციენტების შეფასების პოვნა:

(b ^ = Cov⁡ (x, y) Var ⁡ (x) = x y ¯ − x ¯ y ¯ x 2 ¯ − x ¯ 2, a ^ = y ¯ − b x ¯ . (\ჩვენების სტილი (\ დასაწყისი (შემთხვევები) (\hat (b))=(\frac (\mathop (\textrm (Cov)) (x,y))(\mathop (\textrm (Var)) (x)))=(\frac ((\ overline (xy))-(\ ბარი (x))(\ ბარი (y)))((\ overline (x^(2)))-(\ overline (x))^(2)), \\( \ქუდი (ა))=(\ბარი (y))-b(\ბარი (x)).\ბოლო(შემთხვევები)))

იმისდა მიუხედავად, რომ ზოგად შემთხვევაში მუდმივის მქონე მოდელები სასურველია, ზოგიერთ შემთხვევაში თეორიული მოსაზრებებიდან ცნობილია, რომ მუდმივი a (\displaystyle a)უნდა იყოს ნულის ტოლი. მაგალითად, ფიზიკაში არის კავშირი ძაბვასა და დენს შორის U = I ⋅ R (\displaystyle U=I\cdot R); ძაბვისა და დენის გაზომვისას აუცილებელია წინააღმდეგობის შეფასება. ამ შემთხვევაში ჩვენ ვსაუბრობთ მოდელზე y = b x (\displaystyle y=bx). ამ შემთხვევაში განტოლებათა სისტემის ნაცვლად გვაქვს ერთი განტოლება

(∑ x t 2) b = ∑ x t y t (\displaystyle \left(\sum x_(t)^(2)\right)b=\sum x_(t)y_(t)).

ამრიგად, ერთიანი კოეფიციენტის შეფასების ფორმულას აქვს ფორმა

B ^ = ∑ t = 1 n x t y t ∑ t = 1 n x t 2 = x y ¯ x 2 ¯ (\displaystyle (\hat (b))=(\frac (\sum _(t=1)^(n)x_(t )y_(t))(\sum _(t=1)^(n)x_(t)^(2)))=(\frac (\ overline (xy))(\ overline (x^(2)) ))).

პოლინომიური მოდელის შემთხვევა

თუ მონაცემები შეესაბამება ერთი ცვლადის პოლინომიური რეგრესიული ფუნქციით f (x) = b 0 + ∑ i = 1 k b i x i (\displaystyle f(x)=b_(0)+\sum \limits _(i=1)^(k)b_(i)x^(i)), შემდეგ, გრადუსების აღქმა x i (\displaystyle x^(i))როგორც დამოუკიდებელი ფაქტორები თითოეულისთვის მე (\displaystyle i)მოდელის პარამეტრების შეფასება შესაძლებელია ხაზოვანი მოდელის პარამეტრების შეფასების ზოგადი ფორმულის საფუძველზე. ამისათვის საკმარისია ზოგად ფორმულაში გავითვალისწინოთ, რომ ასეთი ინტერპრეტაციით x t i x t j = x t i x t j = x t i + j (\displaystyle x_(ti)x_(tj)=x_(t)^(i)x_(t)^(j)=x_(t)^(i+j))და x t j y t = x t j y t (\displaystyle x_(tj)y_(t)=x_(t)^(j)y_(t)). შესაბამისად, მატრიცული განტოლებები ამ შემთხვევაში მიიღებს ფორმას:

(n ∑ n x t … ∑ n x t k ∑ n x t ∑ n x i 2 … ∑ m x i k + 1 ⋮ ⋮ ⋱ ⋮ ∑ n x t k ∑ n x t k + 1 … ∑ n x t y t ∑ n t y t ⋮ ∑ n x t k y t ] . (\displaystyle (\begin(pmatrix)n&\sum \limits _(n)x_(t)&\ldots &\sum \limits _(n)x_(t)^(k)\\\sum \limits _( n)x_(t)&\sum \limits _(n)x_(i)^(2)&\ldots &\sum \limits _(m)x_(i)^(k+1)\\\vdots & \vdots &\ddots &\vdots \\\sum \limits _(n)x_(t)^(k)&\sum \limits _(n)x_(t)^(k+1)&\ldots &\ ჯამი \ლიმიტები _(n)x_(t)^(2k)\end(pmatrix))(\begin(bmatrix)b_(0)\\b_(1)\\\vdots \\b_(k)\end( bmatrix))=(\begin(bmatrix)\sum \limits _(n)y_(t)\\\sum \limits _(n)x_(t)y_(t)\\\vdots \\\sum \limits _(n)x_(t)^(k)y_(t)\end(bmatrix)).)

OLS შემფასებლების სტატისტიკური თვისებები

უპირველეს ყოვლისა, ჩვენ აღვნიშნავთ, რომ წრფივი მოდელებისთვის, OLS შეფასებები არის წრფივი შეფასებები, როგორც ზემოთ მოყვანილი ფორმულიდან. OLS-ის მიუკერძოებელი შეფასებისთვის, აუცილებელია და საკმარისია რეგრესიის ანალიზის ყველაზე მნიშვნელოვანი პირობის შესრულება: შემთხვევითი შეცდომის მათემატიკური მოლოდინი, ფაქტორების მიხედვით, უნდა იყოს ნულის ტოლი. ეს პირობა, კერძოდ, დაკმაყოფილებულია თუ

  1. შემთხვევითი შეცდომების მათემატიკური მოლოდინი არის ნული და
  2. ფაქტორები და შემთხვევითი შეცდომები დამოუკიდებელი შემთხვევითი ცვლადებია.

მეორე პირობა - ფაქტორების ეგზოგენურობის პირობა - ფუნდამენტურია. თუ ეს თვისება არ არის დაკმაყოფილებული, მაშინ შეგვიძლია ვივარაუდოთ, რომ თითქმის ნებისმიერი შეფასება იქნება უკიდურესად არადამაკმაყოფილებელი: ისინი არც კი იქნება თანმიმდევრული (ანუ, მონაცემთა ძალიან დიდი რაოდენობაც კი არ გვაძლევს საშუალებას მივიღოთ მაღალი ხარისხის შეფასებები ამ შემთხვევაში. ). კლასიკურ შემთხვევაში, უფრო ძლიერი ვარაუდი კეთდება ფაქტორების დეტერმინიზმის შესახებ, შემთხვევითი შეცდომისგან განსხვავებით, რაც ავტომატურად ნიშნავს, რომ ეგზოგენურობის პირობა დაკმაყოფილებულია. ზოგად შემთხვევაში, შეფასებების თანმიმდევრულობისთვის საკმარისია ეგზოგენურობის პირობის დაკმაყოფილება მატრიცის კონვერგენციასთან ერთად. V x (\displaystyle V_(x))ზოგიერთ არასინგულარულ მატრიცას, როდესაც ნიმუშის ზომა იზრდება უსასრულობამდე.

იმისთვის, რომ თანმიმდევრულობისა და მიუკერძოებლობის გარდა, (ჩვეულებრივი) უმცირესი კვადრატების შეფასებაც ეფექტური იყოს (საუკეთესო ხაზოვანი მიუკერძოებელი შეფასებების კლასში), შემთხვევითი შეცდომის დამატებითი თვისებები უნდა იყოს დაცული:

ეს დაშვებები შეიძლება ჩამოყალიბდეს შემთხვევითი შეცდომის ვექტორის კოვარიანტული მატრიცისთვის V (ε) = σ 2 I (\displaystyle V(\varepsilon)=\sigma ^(2)I).

ხაზოვანი მოდელი, რომელიც აკმაყოფილებს ამ პირობებს ეწოდება კლასიკური. კლასიკური წრფივი რეგრესიის OLS შეფასებები არის მიუკერძოებელი, თანმიმდევრული და ყველაზე ეფექტური შეფასებები ყველა ხაზოვანი მიუკერძოებელი შეფასების კლასში (ინგლისურ ლიტერატურაში შემოკლება ზოგჯერ გამოიყენება ლურჯი (საუკეთესო ხაზოვანი მიუკერძოებელი შემფასებელი) - საუკეთესო ხაზოვანი მიუკერძოებელი შეფასება; რუსულ ლიტერატურაში უფრო ხშირად ციტირებულია გაუს-მარკოვის თეორემა). როგორც ადვილი საჩვენებელია, კოეფიციენტების შეფასების ვექტორის კოვარიანტული მატრიცა ტოლი იქნება:

V (b ^ O L S) = σ 2 (X T X) − 1 (\displaystyle V((\hat (b))_(OLS))=\sigma ^(2)(X^(T)X)^(-1 )).

ეფექტურობა ნიშნავს, რომ ეს კოვარიანტული მატრიცა არის "მინიმალური" (კოეფიციენტების ნებისმიერი წრფივი კომბინაცია და, კერძოდ, თავად კოეფიციენტებს აქვთ მინიმალური განსხვავება), ანუ ხაზოვანი მიუკერძოებელი შემფასებლების კლასში OLS შემფასებლები საუკეთესოა. ამ მატრიცის დიაგონალური ელემენტები - კოეფიციენტების შეფასებების ვარიაციები - მიღებული შეფასებების ხარისხის მნიშვნელოვანი პარამეტრებია. თუმცა, შეუძლებელია კოვარიანტული მატრიცის გამოთვლა, რადგან შემთხვევითი შეცდომის ვარიაცია უცნობია. შეიძლება დადასტურდეს, რომ შემთხვევითი შეცდომების დისპერსიის მიუკერძოებელი და თანმიმდევრული (კლასიკური ხაზოვანი მოდელისთვის) შეფასება არის რაოდენობა:

S 2 = R S S / (n − k) (\displaystyle s^(2)=RSS/(n-k)).

ამ მნიშვნელობის ჩანაცვლებით კოვარიანტული მატრიცის ფორმულაში, ჩვენ ვიღებთ კოვარიანტობის მატრიცის შეფასებას. შედეგად მიღებული შეფასებები ასევე მიუკერძოებელი და თანმიმდევრულია. ასევე მნიშვნელოვანია, რომ შეცდომის დისპერსიის შეფასება (და შესაბამისად კოეფიციენტების დისპერსიაც) და მოდელის პარამეტრების შეფასება დამოუკიდებელი შემთხვევითი ცვლადებია, რაც შესაძლებელს ხდის მოდელის კოეფიციენტების შესახებ ჰიპოთეზების შესამოწმებლად ტესტის სტატისტიკის მიღებას.

უნდა აღინიშნოს, რომ თუ კლასიკური დაშვებები არ არის დაკმაყოფილებული, OLS პარამეტრების შეფასება არ არის ყველაზე ეფექტური და, სადაც W (\displaystyle W)არის რაღაც სიმეტრიული დადებითი განსაზღვრული წონის მატრიცა. ჩვეულებრივი უმცირესი კვადრატები ამ მიდგომის განსაკუთრებული შემთხვევაა, სადაც წონის მატრიცა არის იდენტურობის მატრიცის პროპორციული. როგორც ცნობილია, სიმეტრიული მატრიცებისთვის (ან ოპერატორებისთვის) არის გაფართოება W = P T P (\displaystyle W=P^(T)P). აქედან გამომდინარე, მითითებული ფუნქციონალი შეიძლება წარმოდგენილი იყოს შემდეგნაირად e T P T P e = (P e) T P e = e ∗ T e ∗ (\displaystyle e^(T)P^(T)Pe=(Pe)^(T)Pe=e_(*)^(T)e_( *)), ანუ ეს ფუნქციონალი შეიძლება წარმოდგენილი იყოს როგორც ზოგიერთი გარდაქმნილი „ნარჩენების“ კვადრატების ჯამი. ამრიგად, ჩვენ შეგვიძლია გამოვყოთ უმცირესი კვადრატების მეთოდების კლასი - LS მეთოდები (Last Squares).

დადასტურდა (აიტკენის თეორემა), რომ განზოგადებული წრფივი რეგრესიის მოდელისთვის (რომელშიც არ არის დაწესებული შეზღუდვები შემთხვევითი შეცდომების კოვარიანტულ მატრიცაზე), ყველაზე ეფექტური (წრფივი მიუკერძოებელი შეფასებების კლასში) არის ე.წ. განზოგადებული უმცირესი კვადრატები (GLS - გენერალიზებული უმცირესი კვადრატები)- LS მეთოდი წონის მატრიცით, რომელიც ტოლია შემთხვევითი შეცდომების შებრუნებული კოვარიანტული მატრიცის: W = V ε − 1 (\displaystyle W=V_(\varepsilon )^(-1)).

შეიძლება აჩვენოს, რომ ხაზოვანი მოდელის პარამეტრების GLS შეფასების ფორმულას აქვს ფორმა

B ^ G L S = (X T V − 1 X) − 1 X T V − 1 y (\displaystyle (\hat (b))_(GLS)=(X^(T)V^(-1)X)^(-1) X^(T)V^(-1)y).

ამ შეფასებების კოვარიანსული მატრიცა შესაბამისად იქნება ტოლი

V (b ^ G L S) = (X T V − 1 X) − 1 (\displaystyle V((\hat (b))_(GLS))=(X^(T)V^(-1)X)^(- 1)).

სინამდვილეში, OLS-ის არსი მდგომარეობს ორიგინალური მონაცემების გარკვეულ (წრფივ) ტრანსფორმაციაში (P) და ჩვეულებრივი OLS-ის გამოყენებაში ტრანსფორმირებულ მონაცემებზე. ამ ტრანსფორმაციის მიზანია ის, რომ ტრანსფორმირებული მონაცემებისთვის შემთხვევითი შეცდომები უკვე აკმაყოფილებს კლასიკურ დაშვებებს.

შეწონილი OLS

დიაგონალური წონის მატრიცის (და, შესაბამისად, შემთხვევითი შეცდომების კოვარიანტული მატრიცის) შემთხვევაში გვაქვს ე.წ. შეწონილი უმცირესი კვადრატები (WLS). ამ შემთხვევაში, მოდელის ნარჩენების კვადრატების შეწონილი ჯამი მინიმუმამდეა დაყვანილი, ანუ თითოეული დაკვირვება იღებს „წონას“, რომელიც უკუპროპორციულია ამ დაკვირვებაში შემთხვევითი შეცდომის დისპერსიასთან: e T W e = ∑ t = 1 n e t 2 σ t 2 (\displaystyle e^(T)We=\sum _(t=1)^(n)(\frac (e_(t)^(2))(\ sigma_(t)^(2)))). ფაქტობრივად, მონაცემები გარდაიქმნება დაკვირვებების წონით (გაყოფა ოდენობით, რომელიც პროპორციულია შემთხვევითი შეცდომების სავარაუდო სტანდარტული გადახრისა), და ჩვეულებრივი OLS გამოიყენება შეწონილ მონაცემებზე.

ISBN 978-5-7749-0473-0.

  • ეკონომიკა. სახელმძღვანელო / რედ. ელისეევა I.I - მე-2 გამოცემა. - მ.: ფინანსები და სტატისტიკა, 2006. - 576გვ. - ISBN 5-279-02786-3.
  • ალექსანდროვა ნ.ვ.მათემატიკური ტერმინების, ცნებების, აღნიშვნების ისტორია: ლექსიკონი-საცნობარო წიგნი. - მე-3 გამოცემა - M.: LKI, 2008. - 248 გვ. - ISBN 978-5-382-00839-4.ი.ვ.მიტინი, რუსაკოვი ვ.ს. ექსპერიმენტული მონაცემების ანალიზი და დამუშავება - მე-5 გამოცემა - 24გვ.
  • მოდით დავაახლოოთ ფუნქცია მე-2 ხარისხის მრავალწევრით. ამისათვის ჩვენ ვიანგარიშებთ განტოლებათა ნორმალური სისტემის კოეფიციენტებს:

    , ,

    მოდით შევქმნათ ნორმალური უმცირესი კვადრატების სისტემა, რომელსაც აქვს ფორმა:

    სისტემის გამოსავალი მარტივია:, , .

    ამრიგად, მე-2 ხარისხის პოლინომი გვხვდება: .

    თეორიული ინფორმაცია

    გვერდზე დაბრუნება<Введение в вычислительную математику. Примеры>

    მაგალითი 2. მრავალწევრის ოპტიმალური ხარისხის პოვნა.

    გვერდზე დაბრუნება<Введение в вычислительную математику. Примеры>

    მაგალითი 3. ემპირიული დამოკიდებულების პარამეტრების მოსაძებნად განტოლებათა ნორმალური სისტემის წარმოშობა.

    მოდით გამოვიტანოთ განტოლებათა სისტემა კოეფიციენტებისა და ფუნქციების დასადგენად , რომელიც ახორციელებს მოცემული ფუნქციის ფესვ-საშუალო კვადრატის მიახლოებას წერტილებით. მოდით შევადგინოთ ფუნქცია და ჩაწერეთ ამისთვის აუცილებელი ექსტრემალური მდგომარეობა:

    შემდეგ ნორმალური სისტემა მიიღებს ფორმას:

    ჩვენ მივიღეთ განტოლებათა წრფივი სისტემა უცნობი პარამეტრებისთვის და, რომელიც ადვილად ამოსახსნელია.

    თეორიული ინფორმაცია

    გვერდზე დაბრუნება<Введение в вычислительную математику. Примеры>

    მაგალითი.

    ექსპერიმენტული მონაცემები ცვლადების მნიშვნელობებზე Xდა ზემოცემულია ცხრილში.

    მათი გასწორების შედეგად მიიღება ფუნქცია

    გამოყენება მინიმალური კვადრატის მეთოდი, მიახლოებით ამ მონაცემებს წრფივი დამოკიდებულებით y=ax+b(იპოვეთ პარამეტრები და ). გაარკვიეთ, რომელი ორი ხაზიდან უკეთესად (უმცირესი კვადრატების მეთოდის გაგებით) ასწორებს ექსპერიმენტულ მონაცემებს. გააკეთე ნახატი.

    უმცირესი კვადრატების მეთოდის არსი (LSM).

    ამოცანაა ვიპოვოთ წრფივი დამოკიდებულების კოეფიციენტები, რომლებზეც მოქმედებს ორი ცვლადი და იღებს უმცირეს მნიშვნელობას. ანუ მოცემული და ნაპოვნი სწორი ხაზიდან ექსპერიმენტული მონაცემების კვადრატული გადახრების ჯამი ყველაზე მცირე იქნება. ეს არის უმცირესი კვადრატების მეთოდის მთელი აზრი.

    ამრიგად, მაგალითის ამოხსნა ორი ცვლადის ფუნქციის უკიდურესობის პოვნამდე მოდის.

    კოეფიციენტების საპოვნელ ფორმულების გამოყვანა.

    შედგენილია და ამოხსნილია ორი განტოლების სისტემა ორი უცნობით. ფუნქციის ნაწილობრივი წარმოებულების პოვნა ცვლადების მიხედვით და , ამ წარმოებულებს ვატოლებთ ნულს.

    ჩვენ ვხსნით განტოლებათა სისტემას ნებისმიერი მეთოდის გამოყენებით (მაგალითად ჩანაცვლების მეთოდითან კრამერის მეთოდი) და მიიღეთ ფორმულები კოეფიციენტების მოსაძებნად უმცირესი კვადრატების მეთოდის (LSM) გამოყენებით.

    მოცემული და ფუნქცია იღებს უმცირეს მნიშვნელობას. ამ ფაქტის დასტური მოცემულია ქვემოთ მოცემულ ტექსტში, გვერდის ბოლოს.

    ეს არის უმცირესი კვადრატების მთელი მეთოდი. პარამეტრის პოვნის ფორმულა შეიცავს ჯამებს , , , და პარამეტრს - ექსპერიმენტული მონაცემების რაოდენობა. ჩვენ გირჩევთ ამ თანხების მნიშვნელობების ცალკე გამოთვლას.

    კოეფიციენტი ნაპოვნია გაანგარიშების შემდეგ .

    დროა გავიხსენოთ ორიგინალური მაგალითი.

    გამოსავალი.

    ჩვენს მაგალითში n=5. ჩვენ ვავსებთ ცხრილს იმ თანხების გამოთვლის მოხერხებულობისთვის, რომლებიც შედის საჭირო კოეფიციენტების ფორმულებში.

    ცხრილის მეოთხე მწკრივის მნიშვნელობები მიიღება მე -2 რიგის მნიშვნელობების გამრავლებით მე -3 რიგის მნიშვნელობებზე თითოეული ნომრისთვის მე.

    ცხრილის მეხუთე მწკრივის მნიშვნელობები მიიღება მე-2 სტრიქონის მნიშვნელობების კვადრატში თითოეული ნომრისთვის. მე.

    ცხრილის ბოლო სვეტის მნიშვნელობები არის მნიშვნელობების ჯამები რიგებში.

    კოეფიციენტების საპოვნელად ვიყენებთ უმცირესი კვადრატების მეთოდის ფორმულებს და . ჩვენ ვცვლით შესაბამის მნიშვნელობებს ცხრილის ბოლო სვეტიდან მათში:

    აქედან გამომდინარე, y = 0.165x+2.184- სასურველი მიახლოებითი სწორი ხაზი.

    რჩება იმის გარკვევა, თუ რომელი სტრიქონი y = 0.165x+2.184ან უკეთ აახლოებს თავდაპირველ მონაცემებს, ანუ აკეთებს შეფასებას უმცირესი კვადრატების მეთოდის გამოყენებით.

    უმცირესი კვადრატების მეთოდის შეცდომის შეფასება.

    ამისათვის თქვენ უნდა გამოთვალოთ ამ ხაზებიდან თავდაპირველი მონაცემების კვადრატული გადახრების ჯამი და , უფრო მცირე მნიშვნელობა შეესაბამება ხაზს, რომელიც უკეთ უახლოვდება თავდაპირველ მონაცემებს უმცირესი კვადრატების მეთოდის გაგებით.

    მას შემდეგ, პირდაპირ y = 0.165x+2.184უკეთესად უახლოვდება თავდაპირველ მონაცემებს.

    უმცირესი კვადრატების (LS) მეთოდის გრაფიკული ილუსტრაცია.

    ყველაფერი ნათლად ჩანს გრაფიკებზე. წითელი ხაზი არის ნაპოვნი სწორი ხაზი y = 0.165x+2.184, ლურჯი ხაზი არის , ვარდისფერი წერტილები ორიგინალური მონაცემებია.

    რატომ არის ეს საჭირო, რატომ არის ყველა ეს მიახლოება?

    მე პირადად ვიყენებ მას მონაცემთა გასწორების, ინტერპოლაციისა და ექსტრაპოლაციის პრობლემების გადასაჭრელად (პირველ მაგალითში მათ შეიძლება სთხოვონ, იპოვონ დაკვირვებული მნიშვნელობის მნიშვნელობა ზე x=3ან როდის x=6უმცირესი კვადრატების მეთოდის გამოყენებით). მაგრამ ამაზე მოგვიანებით უფრო მეტს ვისაუბრებთ საიტის სხვა განყოფილებაში.

    გვერდის ზედა

    მტკიცებულება.

    ისე რომ როცა იპოვეს და ფუნქცია იღებს უმცირეს მნიშვნელობას, აუცილებელია, რომ ამ დროს ფუნქციისთვის მეორე რიგის დიფერენციალური კვადრატული ფორმის მატრიცა დადებითი იყო გარკვეული. ვაჩვენოთ.

    მეორე რიგის დიფერენციალს აქვს ფორმა:

    ანუ

    მაშასადამე, კვადრატული ფორმის მატრიცას აქვს ფორმა

    და ელემენტების მნიშვნელობები არ არის დამოკიდებული და .

    მოდით ვაჩვენოთ, რომ მატრიცა არის დადებითი განსაზღვრული. ამისათვის კუთხოვანი მცირეწლოვანი უნდა იყოს დადებითი.

    პირველი რიგის კუთხოვანი მინორი . უთანასწორობა მკაცრია, რადგან ქულები ერთმანეთს არ ემთხვევა. შემდგომში ჩვენ ამას ვიგულისხმებთ.

    მეორე რიგის კუთხოვანი მინორი

    ეს დავამტკიცოთ მათემატიკური ინდუქციის მეთოდით.

    დასკვნა: ნაპოვნი მნიშვნელობები და შეესაბამება ფუნქციის უმცირეს მნიშვნელობას მაშასადამე, არის აუცილებელი პარამეტრები უმცირესი კვადრატების მეთოდისთვის.

    დრო არ არის ამის გასარკვევად?
    შეუკვეთეთ გამოსავალი

    გვერდის ზედა

    პროგნოზის შემუშავება უმცირესი კვადრატების მეთოდის გამოყენებით. პრობლემის გადაჭრის მაგალითი

    ექსტრაპოლაცია არის სამეცნიერო კვლევის მეთოდი, რომელიც ეფუძნება წარსული და აწმყო ტენდენციების გავრცელებას, შაბლონებს, კავშირებს საპროგნოზო ობიექტის მომავალ განვითარებასთან. ექსტრაპოლაციის მეთოდები მოიცავს მოძრავი საშუალო მეთოდი, ექსპონენციალური დაგლუვების მეთოდი, უმცირესი კვადრატების მეთოდი.

    არსი უმცირესი კვადრატების მეთოდი მოიცავს დაკვირვებულ და გამოთვლილ მნიშვნელობებს შორის კვადრატული გადახრების ჯამის მინიმიზაციას. გამოთვლილი მნიშვნელობები გვხვდება შერჩეული განტოლების გამოყენებით - რეგრესიის განტოლება. რაც უფრო მცირეა მანძილი რეალურ მნიშვნელობებსა და გამოთვლილ მნიშვნელობებს შორის, მით უფრო ზუსტია პროგნოზი რეგრესიის განტოლების საფუძველზე.

    მრუდის არჩევის საფუძველს წარმოადგენს შესასწავლი ფენომენის არსის თეორიული ანალიზი, რომლის ცვლილებაც აისახება დროის სერიებით. ზოგჯერ მხედველობაში მიიღება მოსაზრებები სერიის დონის ზრდის ბუნების შესახებ. ამდენად, თუ გამომავალი ზრდა მოსალოდნელია არითმეტიკული პროგრესიით, მაშინ გლუვი შესრულებულია სწორი ხაზით. თუ აღმოჩნდება, რომ ზრდა გეომეტრიულ პროგრესიაშია, მაშინ გლუვი უნდა მოხდეს ექსპონენციალური ფუნქციის გამოყენებით.

    სამუშაო ფორმულა მინიმალური კვადრატების მეთოდისთვის : Y t+1 = a*X + b, სადაც t + 1 – საპროგნოზო პერიოდი; Уt+1 – პროგნოზირებული მაჩვენებელი; a და b არის კოეფიციენტები; X არის დროის სიმბოლო.

    a და b კოეფიციენტების გაანგარიშება ხორციელდება შემდეგი ფორმულების გამოყენებით:

    სადაც, Uf - დინამიკის სერიის რეალური მნიშვნელობები; n – დროის სერიების დონეების რაოდენობა;

    დროის სერიების გათანაბრება უმცირესი კვადრატების მეთოდით ემსახურება შესასწავლი ფენომენის განვითარების ნიმუშის ასახვას. ტენდენციის ანალიტიკურ გამოხატულებაში დრო განიხილება, როგორც დამოუკიდებელი ცვლადი, ხოლო სერიის დონეები მოქმედებს როგორც ამ დამოუკიდებელი ცვლადის ფუნქცია.

    ფენომენის განვითარება არ არის დამოკიდებული იმაზე, თუ რამდენი წელი გავიდა საწყისი წერტილიდან, არამედ იმაზე, თუ რა ფაქტორებმა მოახდინეს გავლენა მის განვითარებაზე, რა მიმართულებით და რა ინტენსივობით. აქედან ირკვევა, რომ ფენომენის განვითარება დროთა განმავლობაში სწორედ ამ ფაქტორების მოქმედების შედეგია.

    მრუდის ტიპის სწორად დადგენა, დროზე ანალიტიკური დამოკიდებულების ტიპი პროგნოზირებადი ანალიზის ერთ-ერთი ყველაზე რთული ამოცანაა. .

    ფუნქციის ტიპის შერჩევა, რომელიც აღწერს ტენდენციას, რომლის პარამეტრებიც განისაზღვრება უმცირესი კვადრატების მეთოდით, უმეტეს შემთხვევაში ხორციელდება ემპირიულად, რიგი ფუნქციების აგებით და მათი ერთმანეთთან შედარებით მნიშვნელობის მიხედვით. საშუალო კვადრატული შეცდომა, გამოითვლება ფორმულით:

    სადაც UV არის დინამიკის სერიის რეალური მნიშვნელობები; Ur - დინამიკის სერიის გამოთვლილი (გათლილი) მნიშვნელობები; n – დროის სერიების დონეების რაოდენობა; p – ტენდენციის აღწერის ფორმულებში განსაზღვრული პარამეტრების რაოდენობა (განვითარების ტენდენცია).

    უმცირესი კვადრატების მეთოდის ნაკლოვანებები :

    • როდესაც ცდილობთ მათემატიკური განტოლების გამოყენებით შესწავლილი ეკონომიკური ფენომენის აღწერას, პროგნოზი იქნება ზუსტი დროის მოკლე პერიოდის განმავლობაში და რეგრესიის განტოლება ხელახლა უნდა გამოითვალოს ახალი ინფორმაციის მიღებისთანავე;
    • რეგრესიის განტოლების არჩევის სირთულე, რომელიც ამოსახსნელია სტანდარტული კომპიუტერული პროგრამების გამოყენებით.

    პროგნოზის შესამუშავებლად უმცირესი კვადრატების მეთოდის გამოყენების მაგალითი

    დავალება . არსებობს მონაცემები, რომლებიც ახასიათებს უმუშევრობის დონეს რეგიონში, %

    • შეადგინეთ რეგიონში უმუშევრობის დონის პროგნოზი ნოემბერში, დეკემბერში, იანვარში შემდეგი მეთოდების გამოყენებით: მოძრავი საშუალო, ექსპონენციალური გლუვი, მინიმალური კვადრატები.
    • გამოთვალეთ შეცდომები მიღებულ პროგნოზებში თითოეული მეთოდის გამოყენებით.
    • შეადარეთ შედეგები და გამოიტანეთ დასკვნები.

    უმცირესი კვადრატების გამოსავალი

    ამის გადასაჭრელად ჩვენ შევადგენთ ცხრილს, რომელშიც გავაკეთებთ საჭირო გამოთვლებს:

    ε = 28,63/10 = 2,86% პროგნოზის სიზუსტემაღალი.

    დასკვნა : გამოთვლებით მიღებული შედეგების შედარება მოძრავი საშუალო მეთოდი , ექსპონენციური დაგლუვების მეთოდი და უმცირესი კვადრატების მეთოდით, შეგვიძლია ვთქვათ, რომ საშუალო ფარდობითი ცდომილება ექსპონენციალური დაგლუვების მეთოდით გაანგარიშებისას 20-50%-ის ფარგლებშია. ეს ნიშნავს, რომ პროგნოზის სიზუსტე ამ შემთხვევაში მხოლოდ დამაკმაყოფილებელია.

    პირველ და მესამე შემთხვევაში პროგნოზის სიზუსტე მაღალია, ვინაიდან საშუალო ფარდობითი შეცდომა 10%-ზე ნაკლებია. მაგრამ მოძრავი საშუალო მეთოდით შესაძლებელი გახდა უფრო საიმედო შედეგების მიღება (ნოემბრის პროგნოზი - 1,52%, დეკემბრის პროგნოზი - 1,53%, იანვრის პროგნოზი - 1,49%), რადგან ამ მეთოდის გამოყენებისას საშუალო ფარდობითი შეცდომა ყველაზე მცირეა - 1. ,13%.

    მინიმალური კვადრატის მეთოდი

    სხვა სტატიები ამ თემაზე:

    გამოყენებული წყაროების სია

    1. სამეცნიერო და მეთოდოლოგიური რეკომენდაციები სოციალური რისკების დიაგნოსტიკისა და გამოწვევების, საფრთხეებისა და სოციალური შედეგების პროგნოზირების შესახებ. რუსეთის სახელმწიფო სოციალური უნივერსიტეტი. მოსკოვი. 2010 წელი;
    2. ვლადიმიროვა L.P. პროგნოზირება და დაგეგმვა საბაზრო პირობებში: სახელმძღვანელო. შემწეობა. მ.: გამომცემლობა „დაშკოვი და თანა“, 2001;
    3. ნოვიკოვა ნ.ვ., პოზდეევა ო.გ. ეროვნული ეკონომიკის პროგნოზირება: საგანმანათლებლო და მეთოდოლოგიური სახელმძღვანელო. ეკატერინბურგი: ურალის გამომცემლობა. სახელმწიფო ეკონ. უნივერ., 2007;
    4. სლუცკინი ლ.ნ. MBA კურსი ბიზნესის პროგნოზირების შესახებ. M.: Alpina Business Books, 2006 წ.

    MNC პროგრამა

    შეიყვანეთ მონაცემები

    მონაცემები და მიახლოება y = a + b x

    მე- ექსპერიმენტული წერტილის რაოდენობა;
    x i- ფიქსირებული პარამეტრის მნიშვნელობა წერტილში მე;
    y მე- გაზომილი პარამეტრის მნიშვნელობა წერტილში მე;
    ω i- გაზომეთ წონა წერტილში მე;
    y i, გამოთ.- განსხვავება გაზომილ და რეგრესიით გამოთვლილ მნიშვნელობას შორის წერტილში მე;
    S x i (x i)- შეცდომის შეფასება x iგაზომვისას წერტილში მე.

    მონაცემები და მიახლოება y = k x

    მე x i y მე ω i y i, გამოთ. Δy i S x i (x i)

    დააწკაპუნეთ დიაგრამაზე

    მომხმარებლის სახელმძღვანელო MNC ონლაინ პროგრამისთვის.

    მონაცემთა ველში, თითოეულ ცალკეულ ხაზზე შეიყვანეთ `x` და `y` მნიშვნელობები ერთ ექსპერიმენტულ წერტილში. მნიშვნელობები უნდა გამოიყოს უფსკრული სიმბოლოთი (სივრცე ან ჩანართი).

    მესამე მნიშვნელობა შეიძლება იყოს `w` წერტილის წონა. თუ წერტილის წონა არ არის მითითებული, ის უდრის ერთს. შემთხვევების აბსოლუტურ უმრავლესობაში ექსპერიმენტული წერტილების წონები უცნობია ან არ არის გამოთვლილი, ე.ი. ყველა ექსპერიმენტული მონაცემი ითვლება ექვივალენტურად. ზოგჯერ მნიშვნელობების შესწავლილ დიაპაზონში წონები აბსოლუტურად არ არის ექვივალენტური და შეიძლება თეორიულადაც კი გამოითვალოს. მაგალითად, სპექტროფოტომეტრიაში წონა შეიძლება გამოითვალოს მარტივი ფორმულების გამოყენებით, თუმცა ეს ძირითადად უგულებელყოფილია შრომის ხარჯების შესამცირებლად.

    მონაცემების ჩასმა შესაძლებელია ბუფერიდან ელცხრილიდან საოფისე კომპლექტიდან, როგორიცაა Excel Microsoft Office-დან ან Calc Open Office-დან. ამისათვის, ელცხრილში აირჩიეთ დასაკოპირებელი მონაცემების დიაპაზონი, დააკოპირეთ იგი ბუფერში და ჩასვით მონაცემები ამ გვერდის მონაცემთა ველში.

    უმცირესი კვადრატების მეთოდით გამოსათვლელად საჭიროა მინიმუმ ორი წერტილი, რათა განვსაზღვროთ ორი კოეფიციენტი `b` - წრფის დახრილობის კუთხის ტანგენსი და `a` - მნიშვნელობა, რომელიც კვეთს ხაზს `y` ღერძზე.

    გამოთვლილი რეგრესიის კოეფიციენტების შეცდომის შესაფასებლად, თქვენ უნდა დააყენოთ ექსპერიმენტული ქულების რაოდენობა ორზე მეტზე.

    უმცირესი კვადრატების მეთოდი (LSM).

    რაც უფრო მეტია ექსპერიმენტული ქულების რაოდენობა, მით უფრო ზუსტი იქნება კოეფიციენტების სტატისტიკური შეფასება (სტუდენტის კოეფიციენტის შემცირების გამო) და მით უფრო უახლოვდება შეფასება ზოგადი ნიმუშის შეფასებას.

    ღირებულებების მიღება თითოეულ ექსპერიმენტულ წერტილში ხშირად ასოცირდება შრომის მნიშვნელოვან ხარჯებთან, ამიტომ ხშირად ტარდება ექსპერიმენტების კომპრომისული რაოდენობა, რომელიც იძლევა მართვად შეფასებას და არ იწვევს ზედმეტ შრომის ხარჯებს. როგორც წესი, ორი კოეფიციენტით წრფივი უმცირესი კვადრატების დამოკიდებულების ექსპერიმენტული პუნქტების რაოდენობა შეირჩევა 5-7 ქულის რეგიონში.

    მცირე კვადრატების მოკლე თეორია ხაზოვანი ურთიერთობებისთვის

    ვთქვათ, გვაქვს ექსპერიმენტული მონაცემების ნაკრები მნიშვნელობების წყვილის სახით [`y_i`, `x_i`], სადაც `i` არის ერთი ექსპერიმენტული გაზომვის რიცხვი 1-დან `n`-მდე; `y_i` - გაზომილი მნიშვნელობის მნიშვნელობა `i` წერტილში; `x_i` - პარამეტრის მნიშვნელობა, რომელიც დავაყენეთ წერტილში `i`.

    მაგალითად, განვიხილოთ ოჰმის კანონის მოქმედება. ელექტრული წრედის მონაკვეთებს შორის ძაბვის (პოტენციური სხვაობის) შეცვლით, ჩვენ ვზომავთ ამ მონაკვეთზე გამავალი დენის რაოდენობას. ფიზიკა გვაძლევს ექსპერიმენტულად აღმოჩენილ დამოკიდებულებას:

    `I = U/R`,
    სადაც `მე~ არის მიმდინარე ძალა; `R` - წინააღმდეგობა; `U` - ძაბვა.

    ამ შემთხვევაში, `y_i` არის გაზომილი დენის მნიშვნელობა, ხოლო `x_i` არის ძაბვის მნიშვნელობა.

    როგორც სხვა მაგალითი, განვიხილოთ სინათლის შთანთქმა ხსნარში არსებული ნივთიერების ხსნარით. ქიმია გვაძლევს ფორმულას:

    `A = ε l C`,
    სადაც `A` არის ხსნარის ოპტიკური სიმკვრივე; `ε` - ხსნარის გამტარობა; `l` - ბილიკის სიგრძე, როდესაც სინათლე გადის ხსნარით კუვეტაში; "C" არის გახსნილი ნივთიერების კონცენტრაცია.

    ამ შემთხვევაში, `y_i` არის ოპტიკური სიმკვრივის გაზომილი მნიშვნელობა `A`, ხოლო `x_i` არის ნივთიერების კონცენტრაციის მნიშვნელობა, რომელსაც ჩვენ ვაზუსტებთ.

    განვიხილავთ შემთხვევას, როდესაც "x_i" სპეციფიკაციაში ფარდობითი შეცდომა მნიშვნელოვნად ნაკლებია გაზომვის "y_i" ფარდობით შეცდომაზე. ჩვენ ასევე ვივარაუდებთ, რომ ყველა გაზომილი მნიშვნელობა `y_i` არის შემთხვევითი და ნორმალურად განაწილებული, ე.ი. დაიცავით ნორმალური განაწილების კანონი.

    `y`-ის წრფივი დამოკიდებულების შემთხვევაში `x`-ზე, შეგვიძლია დავწეროთ თეორიული დამოკიდებულება:
    `y = a + b x`.

    გეომეტრიული თვალსაზრისით, კოეფიციენტი `b` აღნიშნავს წრფის დახრილობის კუთხის ტანგენტს `x` ღერძზე, ხოლო კოეფიციენტი `a` - y-ის მნიშვნელობას კვეთის წერტილში. ხაზი `y` ღერძით (`x = 0`-ზე).

    რეგრესიის ხაზის პარამეტრების პოვნა.

    ექსპერიმენტში, `y_i`-ის გაზომილი მნიშვნელობები ზუსტად არ შეიძლება იყოს თეორიულ სწორ ხაზზე გაზომვის შეცდომების გამო, რომლებიც ყოველთვის თანდაყოლილია რეალურ ცხოვრებაში. ამრიგად, წრფივი განტოლება უნდა იყოს წარმოდგენილი განტოლებათა სისტემით:
    `y_i = a + b x_i + ε_i` (1),
    სადაც `ε_i` არის `y`-ის უცნობი გაზომვის შეცდომა `i`-ე ექსპერიმენტში.

    დამოკიდებულებას (1) ასევე უწოდებენ რეგრესია, ე.ი. ორი სიდიდის ერთმანეთზე დამოკიდებულება სტატისტიკური მნიშვნელოვნებით.

    დამოკიდებულების აღდგენის ამოცანაა `a` და `b` კოეფიციენტების პოვნა ექსპერიმენტული წერტილებიდან [`y_i`, `x_i`].

    "a" და "b" კოეფიციენტების მოსაძებნად ჩვეულებრივ გამოიყენება მინიმალური კვადრატის მეთოდი(MNC). ეს არის მაქსიმალური ალბათობის პრინციპის განსაკუთრებული შემთხვევა.

    გადავიწეროთ (1) `ε_i = y_i - a - b x_i` სახით.

    მაშინ კვადრატული შეცდომების ჯამი იქნება
    `Φ = ჯამი_(i=1)^(n) ε_i^2 = ჯამი_(i=1)^(n) (y_i - a - b x_i)^2`. (2)

    უმცირესი კვადრატების (უმცირესი კვადრატების) პრინციპი არის ჯამის (2) მინიმიზაცია "a" და "b" პარამეტრებთან მიმართებაში..

    მინიმალური მიიღწევა მაშინ, როდესაც ჯამის (2) ნაწილობრივი წარმოებულები `a` და `b` კოეფიციენტებთან მიმართებაში ნულის ტოლია:
    `frac(ნაწილობრივი Φ)(ნაწილობრივი a) = frac(ნაწილობრივი ჯამი_(i=1)^(n) (y_i - a - b x_i)^2)(ნაწილობრივი a) = 0`
    `frac(ნაწილობრივი Φ)(ნაწილობრივი b) = frac(ნაწილობრივი ჯამი_(i=1)^(n) (y_i - a - b x_i)^2)(ნაწილობრივი b) = 0`

    წარმოებულების გაფართოებით, ჩვენ ვიღებთ ორი განტოლების სისტემას ორი უცნობით:
    `sum_(i=1)^(n) (2a + 2bx_i — 2y_i) = ჯამი_(i=1)^(n) (a + bx_i — y_i) = 0`
    `sum_(i=1)^(n) (2bx_i^2 + 2ax_i — 2x_iy_i) = ჯამი_(i=1)^(n) (bx_i^2 + ax_i — x_iy_i) = 0`

    ვხსნით ფრჩხილებს და საჭირო კოეფიციენტებისგან დამოუკიდებელ ჯამებს გადავცემთ მეორე ნახევარს, ვიღებთ წრფივი განტოლებათა სისტემას:
    `sum_(i=1)^(n) y_i = a n + b ჯამი_(i=1)^(n) bx_i`
    `sum_(i=1)^(n) x_iy_i = a sum_(i=1)^(n) x_i + b sum_(i=1)^(n) x_i^2`

    შედეგად მიღებული სისტემის ამოხსნით, ჩვენ ვპოულობთ ფორმულებს კოეფიციენტებისთვის `a` და `b`:

    `a = frac(sum_(i=1)^(n) y_i ჯამი_(i=1)^(n) x_i^2 — ჯამი_(i=1)^(n) x_i ჯამი_(i=1)^(n ) x_iy_i) (n ჯამი_(i=1)^(n) x_i^2 — (ჯამ_(i=1)^(n) x_i)^2)` (3.1)

    `b = frac(n ჯამი_(i=1)^(n) x_iy_i — ჯამი_(i=1)^(n) x_i ჯამი_(i=1)^(n) y_i) (n ჯამი_(i=1)^ (n) x_i^2 — (ჯამ_(i=1)^(n) x_i)^2)` (3.2)

    ამ ფორმულებს აქვთ ამონახსნები, როდესაც `n > 1` (ხაზი შეიძლება აშენდეს მინიმუმ 2 წერტილის გამოყენებით) და როდესაც განმსაზღვრელი `D = n sum_(i=1)^(n) x_i^2 - (sum_(i= 1) )^(n) x_i)^2 != 0`, ე.ი. როდესაც ექსპერიმენტში `x_i` წერტილები განსხვავებულია (ანუ როცა ხაზი ვერტიკალური არ არის).

    რეგრესიის ხაზის კოეფიციენტების შეცდომების შეფასება

    `a` და `b` კოეფიციენტების გამოთვლაში შეცდომის უფრო ზუსტი შეფასებისთვის სასურველია ექსპერიმენტული ქულების დიდი რაოდენობა. როდესაც `n = 2`, შეუძლებელია კოეფიციენტების ცდომილების შეფასება, რადგან მიახლოებითი ხაზი ცალსახად გაივლის ორ წერტილს.

    დგინდება შემთხვევითი ცვლადის `V` შეცდომა შეცდომის დაგროვების კანონი
    `S_V^2 = ჯამი_(i=1)^p (frac(ნაწილობრივი f)(ნაწილობრივი z_i))^2 S_(z_i)^2`,
    სადაც `p` არის პარამეტრების რაოდენობა `z_i` შეცდომით `S_(z_i)`, რომლებიც გავლენას ახდენენ შეცდომაზე `S_V`;
    `f` არის `V`-ის დამოკიდებულების ფუნქცია `z_i`-ზე.

    მოდით დავწეროთ ცდომილების დაგროვების კანონი `a` და `b` კოეფიციენტების ცდომილებისთვის.
    `S_a^2 = sum_(i=1)^(n)(frac(ნაწილობრივი a)(ნაწილობრივი y_i))^2 S_(y_i)^2 + sum_(i=1)^(n)(frac(ნაწილობრივი a )(ნაწილობრივი x_i))^2 S_(x_i)^2 = S_y^2 ჯამი_(i=1)^(n)(frac(ნაწილობრივი a)(ნაწილობრივი y_i))^2 `,
    `S_b^2 = sum_(i=1)^(n)(frac(ნაწილობრივი b)(ნაწილობრივი y_i))^2 S_(y_i)^2 + sum_(i=1)^(n)(frac(ნაწილობრივი b )(ნაწილობრივი x_i))^2 S_(x_i)^2 = S_y^2 ჯამი_(i=1)^(n)(frac(ნაწილობრივი b)(ნაწილობრივი y_i))^2 `,
    რადგან `S_(x_i)^2 = 0` (ადრე გავაკეთეთ დათქმა, რომ შეცდომა `x` უმნიშვნელოა).

    `S_y^2 = S_(y_i)^2` - შეცდომა (ვარიანტობა, კვადრატული სტანდარტული გადახრა) `y`-ის გაზომვაში, თუ ვივარაუდებთ, რომ შეცდომა არის ერთგვაროვანი `y`-ის ყველა მნიშვნელობისთვის.

    "a" და "b"-ის გამოთვლის ფორმულების ჩანაცვლება მიღებულ გამონათქვამებში

    `S_a^2 = S_y^2 ფრაკი(ჯამ_(i=1)^(n) (ჯამ_(i=1)^(n) x_i^2 — x_i ჯამი_(i=1)^(n) x_i)^2 ) (D^2) = S_y^2 ფრაკი((n ჯამი_(i=1)^(n) x_i^2 — (ჯამ_(i=1)^(n) x_i)^2) ჯამი_(i=1) ^(n) x_i^2) (D^2) = S_y^2 ფრაკი(ჯამ_(i=1)^(n) x_i^2) (D)` (4.1)

    `S_b^2 = S_y^2 ფრაკი(ჯამ_(i=1)^(n) (n x_i — ჯამი_(i=1)^(n) x_i)^2) (D^2) = S_y^2 ფრაკ( n (n ჯამი_(i=1)^(n) x_i^2 — (ჯამ_(i=1)^(n) x_i)^2)) (D^2) = S_y^2 ფრაკ(n) (D) ` (4.2)

    უმეტეს რეალურ ექსპერიმენტებში, `Sy`-ის მნიშვნელობა არ იზომება. ამისათვის საჭიროა რამდენიმე პარალელური გაზომვის (ექსპერიმენტის) ჩატარება გეგმის ერთ ან რამდენიმე წერტილში, რაც ზრდის ექსპერიმენტის დროს (და შესაძლოა ღირებულებას). ამიტომ, ჩვეულებრივ, ვარაუდობენ, რომ `y`-ის გადახრა რეგრესიის ხაზიდან შეიძლება შემთხვევით ჩაითვალოს. `y` დისპერსიის შეფასება ამ შემთხვევაში გამოითვლება ფორმულის გამოყენებით.

    `S_y^2 = S_(y, დანარჩენი)^2 = frac(sum_(i=1)^n (y_i - a - b x_i)^2) (n-2)`.

    `n-2` გამყოფი ჩნდება, რადგან ჩვენი თავისუფლების გრადუსების რაოდენობა შემცირდა ექსპერიმენტული მონაცემების ერთი და იგივე ნიმუშის გამოყენებით ორი კოეფიციენტის გამოთვლის გამო.

    ამ შეფასებას ასევე უწოდებენ ნარჩენ დისპერსიას `S_(y, დანარჩენი)^2` რეგრესიის ხაზთან მიმართებაში.

    კოეფიციენტების მნიშვნელოვნება ფასდება Student-ის t ტესტის გამოყენებით

    `t_a = frac(|a|) (S_a)`, `t_b = frac(|b|) (S_b)`

    თუ გამოთვლილი კრიტერიუმები `t_a`, `t_b` ნაკლებია ცხრილის კრიტერიუმებზე `t(P, n-2)`, მაშინ ითვლება, რომ შესაბამისი კოეფიციენტი მნიშვნელოვნად არ განსხვავდება ნულისაგან მოცემული ალბათობით `P`.

    წრფივი ურთიერთობის აღწერის ხარისხის შესაფასებლად, შეგიძლიათ შეადაროთ `S_(y, დანარჩენი)^2` და `S_(ბარი y)` საშუალოსთან შედარებით ფიშერის კრიტერიუმის გამოყენებით.

    `S_(ბარი y) = ფრაკ(ჯამ_(i=1)^n (y_i — ბარი y)^2) (n-1) = ფრაკ(ჯამ_(i=1)^n (y_i — (ჯამ_(i= 1)^n y_i) /n)^2) (n-1)` - `y` დისპერსიის ნიმუშის შეფასება საშუალოსთან მიმართებაში.

    დამოკიდებულების აღსაწერად რეგრესიის განტოლების ეფექტურობის შესაფასებლად გამოითვლება ფიშერის კოეფიციენტი
    `F = S_(ბარი y) / S_(y, დასვენება)^2`,
    რომელიც შედარებულია ფიშერის ცხრილის კოეფიციენტთან `F(p, n-1, n-2)`.

    თუ `F > F(P, n-1, n-2)`, განსხვავება `y = f(x)` ურთიერთობის აღწერას რეგრესიის განტოლების გამოყენებით და საშუალოს გამოყენებით აღწერილობას შორის ითვლება სტატისტიკურად მნიშვნელოვანი ალბათობით. `P`. იმათ. რეგრესია უფრო კარგად აღწერს დამოკიდებულებას, ვიდრე `y`-ის გავრცელება საშუალოზე.

    დააწკაპუნეთ დიაგრამაზე
    ცხრილში მნიშვნელობების დასამატებლად

    მინიმალური კვადრატის მეთოდი. უმცირესი კვადრატების მეთოდი ნიშნავს უცნობი პარამეტრების a, b, c, მიღებული ფუნქციური დამოკიდებულების განსაზღვრას.

    უმცირესი კვადრატების მეთოდი ეხება უცნობი პარამეტრების განსაზღვრას a, b, c,…მიღებული ფუნქციური დამოკიდებულება

    y = f(x,a,b,c,…),

    რაც უზრუნველყოფს შეცდომის საშუალო კვადრატის (ვარიანსის) მინიმუმს

    , (24)

    სადაც x i, y i არის ცდის შედეგად მიღებული რიცხვების წყვილთა სიმრავლე.

    ვინაიდან რამდენიმე ცვლადის ფუნქციის უკიდურესობის პირობა არის პირობა, რომ მისი ნაწილობრივი წარმოებულები ნულის ტოლია, მაშინ პარამეტრები a, b, c,…განისაზღვრება განტოლებათა სისტემიდან:

    ; ; ; … (25)

    უნდა გვახსოვდეს, რომ ყველაზე მცირე კვადრატების მეთოდი გამოიყენება ფუნქციის ტიპის შემდეგ პარამეტრების შესარჩევად y = f(x)განსაზღვრული

    თუ თეორიული მოსაზრებებიდან გამომდინარე, არ შეიძლება დასკვნის გაკეთება იმის შესახებ, თუ როგორი უნდა იყოს ემპირიული ფორმულა, მაშინ უნდა ვიხელმძღვანელოთ ვიზუალური წარმოდგენებით, უპირველეს ყოვლისა, დაკვირვებული მონაცემების გრაფიკული გამოსახულებებით.

    პრაქტიკაში, ისინი ყველაზე ხშირად შემოიფარგლება შემდეგი ტიპის ფუნქციებით:

    1) ხაზოვანი ;

    2) კვადრატული ა.

    უმცირესი კვადრატების მეთოდის არსი არის ტენდენციის მოდელის პარამეტრების პოვნაში, რომელიც საუკეთესოდ აღწერს რაიმე შემთხვევითი ფენომენის განვითარების ტენდენციას დროში ან სივრცეში (ტენდენცია არის ხაზი, რომელიც ახასიათებს ამ განვითარების ტენდენციას). უმცირესი კვადრატების მეთოდის (LSM) ამოცანა მოდის არა მხოლოდ ტენდენციის მოდელის, არამედ საუკეთესო ან ოპტიმალური მოდელის პოვნაზე. ეს მოდელი იქნება ოპტიმალური, თუ კვადრატული გადახრების ჯამი დაკვირვებულ რეალურ მნიშვნელობებსა და შესაბამის გამოთვლილ ტრენდულ მნიშვნელობებს შორის მინიმალურია (უმცირესი):

    სად არის კვადრატული გადახრა დაკვირვებულ ფაქტობრივ მნიშვნელობას შორის

    და შესაბამისი გამოთვლილი ტენდენციის მნიშვნელობა,

    შესწავლილი ფენომენის რეალური (დაკვირვებული) ღირებულება,

    ტენდენციის მოდელის გამოთვლილი მნიშვნელობა,

    შესწავლილ ფენომენზე დაკვირვებების რაოდენობა.

    MNC საკმაოდ იშვიათად გამოიყენება დამოუკიდებლად. როგორც წესი, ყველაზე ხშირად იგი გამოიყენება მხოლოდ როგორც აუცილებელი ტექნიკური ტექნიკა კორელაციულ კვლევებში. უნდა გვახსოვდეს, რომ OLS-ის საინფორმაციო საფუძველი შეიძლება იყოს მხოლოდ სანდო სტატისტიკური სერია და დაკვირვებების რაოდენობა არ უნდა იყოს 4-ზე ნაკლები, წინააღმდეგ შემთხვევაში OLS-ის გამარტივების პროცედურებმა შეიძლება დაკარგოს საღი აზრი.

    MNC ხელსაწყოების ნაკრები ემყარება შემდეგ პროცედურებს:

    პირველი პროცედურა. ირკვევა, არის თუ არა რაიმე მიდრეკილება შედეგის ატრიბუტის შეცვლისას, როდესაც არჩეული ფაქტორი-არგუმენტი იცვლება, ან სხვა სიტყვებით რომ ვთქვათ, არის თუ არა კავშირი „ ზე "და" X ».

    მეორე პროცედურა. განისაზღვრება, თუ რომელი ხაზი (ტრაექტორია) შეუძლია ამ ტენდენციის საუკეთესო აღწერას ან დახასიათებას.

    მესამე პროცედურა.

    მაგალითი. ვთქვათ, გვაქვს ინფორმაცია შესასწავლი მეურნეობის მზესუმზირის საშუალო მოსავლიანობის შესახებ (ცხრილი 9.1).

    ცხრილი 9.1

    დაკვირვების ნომერი

    პროდუქტიულობა, ც/ჰა

    ვინაიდან ჩვენს ქვეყანაში მზესუმზირის წარმოების ტექნოლოგიის დონე პრაქტიკულად უცვლელი დარჩა ბოლო 10 წლის განმავლობაში, ეს ნიშნავს, რომ, როგორც ჩანს, მოსავლიანობის რყევები გაანალიზებულ პერიოდში ძალიან იყო დამოკიდებული ამინდისა და კლიმატური პირობების რყევებზე. ეს მართლა მართალია?

    პირველი OLS პროცედურა. შემოწმებულია ჰიპოთეზა მზესუმზირის მოსავლიანობის ცვლილების ტენდენციის არსებობის შესახებ, რაც დამოკიდებულია ამინდისა და კლიმატური პირობების ცვლილებაზე გაანალიზებული 10 წლის განმავლობაში.

    ამ მაგალითში, ამისთვის " "მიზანშეწონილია მზესუმზირის მოსავლის აღება და" x » – დაკვირვებული წლის რაოდენობა საანალიზო პერიოდში. ჰიპოთეზის ტესტირება რაიმე ურთიერთობის არსებობის შესახებ " x "და" „შეიძლება გაკეთდეს ორი გზით: ხელით და კომპიუტერული პროგრამების გამოყენებით. რა თქმა უნდა, თუ თქვენ გაქვთ კომპიუტერული ტექნოლოგია, ეს პრობლემა თავისთავად მოგვარდება. მაგრამ MNC ინსტრუმენტების უკეთ გასაგებად, მიზანშეწონილია შეამოწმოთ ჰიპოთეზა ურთიერთობის არსებობის შესახებ ” x "და" » ხელით, როცა ხელთ მხოლოდ კალამი და ჩვეულებრივი კალკულატორია. ასეთ შემთხვევებში, ჰიპოთეზა ტენდენციის არსებობის შესახებ საუკეთესოდ შემოწმდება ვიზუალურად გაანალიზებული დინამიკის სერიის გრაფიკული გამოსახულების მდებარეობით - კორელაციური ველით:

    ჩვენს მაგალითში კორელაციის ველი მდებარეობს ნელა მზარდი ხაზის გარშემო. ეს თავისთავად მიუთითებს მზესუმზირის მოსავლიანობის ცვლილების გარკვეული ტენდენციის არსებობაზე. შეუძლებელია რაიმე ტენდენციის არსებობაზე საუბარი მხოლოდ მაშინ, როდესაც კორელაციური ველი ჰგავს წრეს, წრეს, მკაცრად ვერტიკალურ ან მკაცრად ჰორიზონტალურ ღრუბელს, ან შედგება ქაოტურად გაფანტული წერტილებისგან. ყველა სხვა შემთხვევაში, ჰიპოთეზა ურთიერთობის არსებობის შესახებ ” x "და" “ და გააგრძელეთ კვლევა.

    მეორე OLS პროცედურა. დგინდება, რომელ ხაზს (ტრაექტორიას) შეუძლია საუკეთესოდ აღწეროს ან დაახასიათოს მზესუმზირის მოსავლიანობის ცვლილების ტენდენცია გაანალიზებულ პერიოდში.

    თუ თქვენ გაქვთ კომპიუტერული ტექნოლოგია, ოპტიმალური ტენდენციის შერჩევა ავტომატურად ხდება. "ხელით" დამუშავებისას ოპტიმალური ფუნქციის შერჩევა ხდება, როგორც წესი, ვიზუალურად - კორელაციის ველის მდებარეობით. ანუ, გრაფიკის ტიპზე დაყრდნობით შეირჩევა ხაზის განტოლება, რომელიც საუკეთესოდ ერგება ემპირიულ ტენდენციას (ფაქტობრივი ტრაექტორია).

    როგორც ცნობილია, ბუნებაში არსებობს ფუნქციონალური დამოკიდებულების უზარმაზარი მრავალფეროვნება, ამიტომ მათი მცირე ნაწილის ვიზუალური ანალიზიც კი უკიდურესად რთულია. საბედნიეროდ, რეალურ ეკონომიკურ პრაქტიკაში, ურთიერთობების უმეტესობა საკმაოდ ზუსტად შეიძლება აღწერილი იყოს პარაბოლით, ჰიპერბოლით ან სწორი ხაზით. ამ მხრივ, საუკეთესო ფუნქციის შერჩევის „სახელმძღვანელო“ ვარიანტით, შეგიძლიათ შემოიფარგლოთ მხოლოდ ამ სამი მოდელით.

    ჰიპერბოლა:

    მეორე რიგის პარაბოლა: :

    ადვილი მისახვედრია, რომ ჩვენს მაგალითში მზესუმზირის მოსავლიანობის ცვლილების ტენდენცია გაანალიზებულ 10 წელიწადში ყველაზე კარგად სწორი ხაზით ხასიათდება, ამიტომ რეგრესიის განტოლება იქნება სწორი ხაზის განტოლება.

    მესამე პროცედურა. გამოითვლება ამ ხაზის დამახასიათებელი რეგრესიული განტოლების პარამეტრები, ან სხვა სიტყვებით რომ ვთქვათ, განისაზღვრება ანალიტიკური ფორმულა, რომელიც აღწერს საუკეთესო ტენდენციის მოდელს.

    რეგრესიის განტოლების პარამეტრების მნიშვნელობების პოვნა, ჩვენს შემთხვევაში პარამეტრების და , არის OLS-ის ბირთვი. ეს პროცესი ნორმალურ განტოლებათა სისტემის ამოხსნამდე მოდის.

    (9.2)

    განტოლებათა ეს სისტემა საკმაოდ მარტივად ამოიხსნება გაუსის მეთოდით. შეგახსენებთ, რომ ამოხსნის შედეგად, ჩვენს მაგალითში, ნაპოვნია პარამეტრების მნიშვნელობები და. ამრიგად, ნაპოვნი რეგრესიის განტოლებას შემდეგი ფორმა ექნება:

    კატეგორიები

    პოპულარული სტატიები

    2024 "kingad.ru" - ადამიანის ორგანოების ულტრაბგერითი გამოკვლევა