Как нормализовать массив NumPy в пределах определенного диапазона?

после некоторой обработки в массиве аудио или изображений его необходимо нормализовать в пределах диапазона, прежде чем его можно будет записать обратно в файл. Это можно сделать так:

# Normalize audio channels to between -1.0 and +1.0
audio[:,0] = audio[:,0]/abs(audio[:,0]).max()
audio[:,1] = audio[:,1]/abs(audio[:,1]).max()

# Normalize image to between 0 and 255
image = image/(image.max()/255.0)

есть ли менее подробный, удобный способ сделать это? matplotlib.colors.Normalize() не похоже, что это связано.

6 ответов


audio /= np.max(np.abs(audio),axis=0)
image *= (255.0/image.max())

используя /= и *= позволяет исключить промежуточный временный массив, таким образом сохраняя некоторую память. Умножение дешевле, чем деление, поэтому

image *= 255.0/image.max()    # Uses 1 division and image.size multiplications

намного быстрее, чем

image /= image.max()/255.0    # Uses 1+image.size divisions

поскольку мы используем основные методы numpy здесь, я думаю, что это примерно такое же эффективное решение в numpy, как может быть.


вы также можете масштабировать с помощью sklearn. Преимущества заключаются в том, что вы можете настроить нормализацию стандартного отклонения в дополнение к среднему центрированию данных и что вы можете сделать это на любой оси, по объектам или по записям.

from sklearn.preprocessing import scale
X = scale( X, axis=0, with_mean=True, with_std=True, copy=True )

аргументы ключевого слова axis, with_mean, with_std являются самоочевидными и отображаются в состоянии по умолчанию. Аргумент copy выполняет операцию на месте, если это значение False. Документация здесь.


Если массив содержит как положительные, так и отрицательные данные, я бы пошел с:

import numpy as np

a = np.random.rand(3,2)

# Normalised [0,1]
b = (a - np.min(a))/np.ptp(a)

# Normalised [0,255] as integer
c = 255*(a - np.min(a))/np.ptp(a).astype(int)

# Normalised [-1,1]
d = 2*(a - np.min(a))/np.ptp(a)-1

кроме того, стоит упомянуть, даже если это не вопрос OP,стандартизация:

e = (a - np.mean(a)) / np.std(a)

вы можете использовать " i " (как в idiv, imul..) версия, и это не выглядит так уж плохо:

image /= (image.max()/255.0)

для другого случая вы можете написать функцию для нормализации n-мерного массива по colums:

def normalize_columns(arr):
    rows, cols = arr.shape
    for col in xrange(cols):
        arr[:,col] /= abs(arr[:,col]).max()

простым решением является использование скалеров, предлагаемых sklearn.библиотека предобработки.

scaler = sk.MinMaxScaler(feature_range=(0, 250))
scaler = scaler.fit(X)
X_scaled = scaler.transform(X)
# Checking reconstruction
X_rec = scaler.inverse_transform(X_scaled)

ошибка X_rec-X будет равна нулю. Вы можете настроить feature_range для своих нужд или даже использовать стандартный масштабер sk.StandardScaler ()


я попробовал следующее этой, и получил ошибку

TypeError: ufunc 'true_divide' output (typecode 'd') could not be coerced to provided output parameter (typecode 'l') according to the casting rule ''same_kind''

The numpy массив, который я пытался нормализовать, был integer массив. Кажется, они устарели тип литья в версиях > 1.10, и вы должны использовать numpy.true_divide() чтобы решить эту проблему.

arr = np.array(img)
arr = np.true_divide(arr,[255.0],out=None)

img был