Оцінка максимальної правдоподібності (VLE) - загальна модель для оцінки параметрів розподілу ймовірностей, яка залежить від спостережень у вибірці.
Іншими словами, EMV максимізує ймовірність параметрів функцій щільності, які залежать від розподілу ймовірностей та спостережень у вибірці.
Коли ми говоримо про оцінку максимальної ймовірності, ми повинні говорити про функція максимальна ймовірність. Математично, отримавши зразок x = (x1,…, Xп) та параметри, θ = (θ1,…, Θп) тоді,
Без паніки! Цей символ означає те саме, що і підсумовування сум. У цьому випадку це множення всіх функцій щільності, які залежать від спостережень вибірки (xi) та параметри θ.
Чим більше значення L (θ | x), тобто значення функції максимального правдоподібності, тим вірогідніше будуть параметри на основі вибірки.
Логарифмічна функція ЕМВ
Щоб знайти оцінки максимальної ймовірності, нам потрібно диференціювати (вивести) добутки функцій щільності, і це не найзручніший спосіб це зробити.
Коли ми стикаємось із складними функціями, ми можемо зробити монотонне перетворення. Іншими словами, це було б як би бажання намалювати Європу в реальному масштабі. Нам слід зменшити його, щоб він містився на аркуші паперу.
У цьому випадку ми робимо монотонне перетворення, використовуючи природні логарифми, оскільки вони є монотонними та зростаючими функціями. Математично,
Властивості логарифмів дозволяють виразити вищезазначене множення як суму натуральних логарифмів, застосованих до функцій щільності.
Тож монотонне перетворення за допомогою логарифмів - це просто «зміна масштабу» до менших чисел.
Розрахункове значення параметрів, що максимізують ймовірність параметрів функції максимального правдоподібності з логарифмами, еквівалентно оціночному значенню параметрів, що максимізують ймовірність параметрів вихідної функції максимального правдоподібності.
Отже, ми завжди будемо мати справу з монотонною модифікацією функції максимального правдоподібності, враховуючи її більшу простоту обчислень.
Допитливість
Яким би складним і дивним не здавався EMV, ми постійно застосовуємо його, не усвідомлюючи цього.
Коли?
У всіх оцінках параметрів лінійної регресії за класичних припущень. Більш відомий як Звичайні найменші квадрати (OLS).
Іншими словами, коли ми застосовуємо OLS, ми застосовуємо EMV неявно, оскільки обидва вони еквівалентні з точки зору узгодженості.
Додаток
Як і інші методи, EMV базується на ітерації. Тобто, повторення певної операції стільки разів, скільки потрібно для знаходження максимального чи мінімального значення функції. Цей процес може підлягати обмеженню остаточних значень параметрів. Наприклад, що результат більший або дорівнює нулю, або що сума двох параметрів повинна бути менше одиниці.
Симетрична модель GARCH та різні її розширення застосовують EMV для знаходження розрахункового значення параметрів, що максимізує ймовірність параметрів функцій щільності.