Так что с возвращением!!! Сегодня мы говорим о нормализации, важной концепции машинного обучения. По общему определению это означает процесс преобразования значений признаков набора данных, чтобы они имели общий масштаб или диапазон. Теперь многие люди, такие как я, не понимают определений из книги, поэтому вот простое объяснение.

Важно иметь предварительные знания о градиентном спуске.

Но сначала давайте возьмем пример, чтобы мы могли ясно понять концепцию.

вот некоторые данные, и мы пытаемся использовать линейную регрессию для этих данных

здесь у нас есть две функции для прогнозирования цены дома: одна - отсутствие спален, а другая - размер дома в квадратных футах. Одно основное наблюдение, которое вы, должно быть, сделали здесь, заключается в том, что стоимость спальни очень меньше по сравнению с размером дома, и это создает основную проблему.

НО КАК ?

давайте начнем с линейной регрессии и попробуем предсказать цену дома на основе комнат и размера дома,

поэтому наша модель будет выглядеть

Цена = w1x1 + w2x2 + b

где x1 — размер (в футах²), а x2 — количество спален, мы можем наблюдать, как диапазон размеров значительно больше, чем количество спален.

давайте возьмем пример дома, который имеет x1 = 2000 и x2 = 5, а цена составляет 500 тысяч долларов.

поэтому, по вашему мнению, каким должно быть значение w1 и w2, давайте предположим, что оно равно w1 = 50, w2 = 0,1, b = 50, поэтому в этом случае расчетная цена составляет 100 050 тысяч, так что это явно очень далеко от реальной цены.

теперь w1 = 0,1, w2 = 50, b = 50, теперь выходное значение равно 500k.

из приведенного выше примера мы можем узнать, что если наши входные данные имеют более высокий порядок, то модель должна выбрать параметр более низкого порядка, и наоборот.

Теперь, как все это связано с градиентным спуском?

Теперь давайте посмотрим на диаграмму рассеяния приведенных выше данных.

вы можете наблюдать, как данные распределяются по оси X, но меньше по оси Y. Из-за этого явления мы получаем более узкий градиент. как в этом примере:

НУ И ЧТО?

вы можете видеть, что контуры приведенного выше графика настолько высоки, что приличный тонкий градиент может в конечном итоге долго прыгать туда-сюда, прежде чем он наконец найдет глобальный минимум, в таком сценарии лучше использовать какую-то функцию масштабирования, а именно: Нормализация».

Нормализация в машинном обучении относится к процессу масштабирования функций набора данных до общего диапазона или распределения. Цель нормализации состоит в том, чтобы гарантировать, что каждый признак вносит равный вклад в анализ, и предотвратить доминирование в анализе признаков с большей величиной.

Существует несколько методов нормализации, в том числе:

  1. Минимальная-максимальная нормализация: этот метод масштабирует значения функции в диапазоне от 0 до 1. Это достигается путем вычитания минимального значения функции из каждого значения и деления на диапазон функции.
  2. Нормализация Z-показателя: этот метод масштабирует значения признака, чтобы иметь среднее значение 0 и стандартное отклонение 1. Это достигается путем вычитания среднего значения признака из каждого значения и деления на стандартное отклонение признака.
  3. Нормализация единичного вектора: этот метод масштабирует значения объекта, чтобы иметь евклидову длину 1. Это достигается путем деления каждого значения на евклидову длину вектора признаков.

Спасибо,

Саураб Нале.