Яка різниця між логістичною регресією та класифікатором Байєса?
Логістична регресія намагається знайти оптимальну межу рішення, яка найкраще розділяє класи. Байєс — це метод класифікації, заснований на теоремі Байєса, який виводить ймовірність того, що заданий вектор ознак буде пов’язаний з міткою. 27 липня 2010 р.
Наївна модель Байєса є імовірнісною, заснованою на теоремі Байєса, тоді як логістична регресія є дискримінаційною моделлю, що оцінює умовні ймовірності. Логістична регресія зазвичай працює краще з більшими наборами даних, тоді як наивна байєсівська регресія ефективна з точки зору обчислень і добре працює з меншими наборами даних.
Алгоритм класифікації може передбачити безперервне значення, але безперервне значення має форму ймовірності для мітки класу. Алгоритм регресії може передбачити дискретне значення, але дискретне значення у формі цілого числа.
На відміну від звичайних методів регресії, де вихідні дані отримують лише з одного числа кожного атрибута, вихідні дані моделі байєсової регресії отримують із розподілу ймовірностей. Результат, "y", створюється нормальним розподілом (де дисперсія та середнє нормалізовані).
Класифікація — це процес упорядкування даних у категорії для їх найбільш ефективного та дієвого використання, тоді як регресія — це процес визначення зв’язку та впливу цього зв’язку на результат майбутньої вартості об’єкта.
Якщо ви трохи вивчали статистику або машинне навчання, є хороший шанс, що ви зіткнулися з логістичною регресією (так званою двійковою логітом).