Оцінка максимальної ймовірності

Оцінка максимальної правдоподібності (VLE) - загальна модель для оцінки параметрів розподілу ймовірностей, яка залежить від спостережень у вибірці.

Іншими словами, EMV максимізує ймовірність параметрів функцій щільності, які залежать від розподілу ймовірностей та спостережень у вибірці.

Коли ми говоримо про оцінку максимальної ймовірності, ми повинні говорити про функція максимальна ймовірність. Математично, отримавши зразок x = (x1,…, Xп) та параметри, θ = (θ1,…, Θп) тоді,

Без паніки! Цей символ означає те саме, що і підсумовування сум. У цьому випадку це множення всіх функцій щільності, які залежать від спостережень вибірки (xi) та параметри θ.

Чим більше значення L (θ | x), тобто значення функції максимального правдоподібності, тим вірогідніше будуть параметри на основі вибірки.

Логарифмічна функція ЕМВ

Щоб знайти оцінки максимальної ймовірності, нам потрібно диференціювати (вивести) добутки функцій щільності, і це не найзручніший спосіб це зробити.

Коли ми стикаємось із складними функціями, ми можемо зробити монотонне перетворення. Іншими словами, це було б як би бажання намалювати Європу в реальному масштабі. Нам слід зменшити його, щоб він містився на аркуші паперу.

У цьому випадку ми робимо монотонне перетворення, використовуючи природні логарифми, оскільки вони є монотонними та зростаючими функціями. Математично,

Властивості логарифмів дозволяють виразити вищезазначене множення як суму натуральних логарифмів, застосованих до функцій щільності.

Тож монотонне перетворення за допомогою логарифмів - це просто «зміна масштабу» до менших чисел.

Розрахункове значення параметрів, що максимізують ймовірність параметрів функції максимального правдоподібності з логарифмами, еквівалентно оціночному значенню параметрів, що максимізують ймовірність параметрів вихідної функції максимального правдоподібності.

Отже, ми завжди будемо мати справу з монотонною модифікацією функції максимального правдоподібності, враховуючи її більшу простоту обчислень.

Допитливість

Яким би складним і дивним не здавався EMV, ми постійно застосовуємо його, не усвідомлюючи цього.

Коли?

У всіх оцінках параметрів лінійної регресії за класичних припущень. Більш відомий як Звичайні найменші квадрати (OLS).

Іншими словами, коли ми застосовуємо OLS, ми застосовуємо EMV неявно, оскільки обидва вони еквівалентні з точки зору узгодженості.

Додаток

Як і інші методи, EMV базується на ітерації. Тобто, повторення певної операції стільки разів, скільки потрібно для знаходження максимального чи мінімального значення функції. Цей процес може підлягати обмеженню остаточних значень параметрів. Наприклад, що результат більший або дорівнює нулю, або що сума двох параметрів повинна бути менше одиниці.

Симетрична модель GARCH та різні її розширення застосовують EMV для знаходження розрахункового значення параметрів, що максимізує ймовірність параметрів функцій щільності.

Популярні Пости

Причини розколу в ЄС щодо коштів на реконструкцію

22 липня Європейська рада досягла історичної домовленості про початок стимулюючого плану для економік Союзу на суму 750 000 мільйонів євро з метою сприяння економічному відновленню та фінансуванню збільшення державних витрат на охорону здоров'я. Хоча новини булиПрочитайте більше…

Телероботна робота залишилася на місці, які переваги?

Апріорі, говорячи про роботу на дистанційному рівні, все це є перевагами, оскільки здається, що примирення роботи з сімейним середовищем буде набагато кращим, також здається, що продуктивність зростає, а витрати на бізнес зменшуються. Але далеко не всі професії можуть дозволити собі спілкуватися на роботі. Хоча, в якому це можливо, зручно знати всеПрочитайте більше…