Как нормализовать массив NumPy в пределах определенного диапазона?
после некоторой обработки в массиве аудио или изображений его необходимо нормализовать в пределах диапазона, прежде чем его можно будет записать обратно в файл. Это можно сделать так:
# Normalize audio channels to between -1.0 and +1.0
audio[:,0] = audio[:,0]/abs(audio[:,0]).max()
audio[:,1] = audio[:,1]/abs(audio[:,1]).max()
# Normalize image to between 0 and 255
image = image/(image.max()/255.0)
есть ли менее подробный, удобный способ сделать это? matplotlib.colors.Normalize()
не похоже, что это связано.
6 ответов
audio /= np.max(np.abs(audio),axis=0)
image *= (255.0/image.max())
используя /=
и *=
позволяет исключить промежуточный временный массив, таким образом сохраняя некоторую память. Умножение дешевле, чем деление, поэтому
image *= 255.0/image.max() # Uses 1 division and image.size multiplications
намного быстрее, чем
image /= image.max()/255.0 # Uses 1+image.size divisions
поскольку мы используем основные методы numpy здесь, я думаю, что это примерно такое же эффективное решение в numpy, как может быть.
вы также можете масштабировать с помощью sklearn
. Преимущества заключаются в том, что вы можете настроить нормализацию стандартного отклонения в дополнение к среднему центрированию данных и что вы можете сделать это на любой оси, по объектам или по записям.
from sklearn.preprocessing import scale
X = scale( X, axis=0, with_mean=True, with_std=True, copy=True )
аргументы ключевого слова axis
, with_mean
, with_std
являются самоочевидными и отображаются в состоянии по умолчанию. Аргумент copy
выполняет операцию на месте, если это значение False
. Документация здесь.
Если массив содержит как положительные, так и отрицательные данные, я бы пошел с:
import numpy as np
a = np.random.rand(3,2)
# Normalised [0,1]
b = (a - np.min(a))/np.ptp(a)
# Normalised [0,255] as integer
c = 255*(a - np.min(a))/np.ptp(a).astype(int)
# Normalised [-1,1]
d = 2*(a - np.min(a))/np.ptp(a)-1
кроме того, стоит упомянуть, даже если это не вопрос OP,стандартизация:
e = (a - np.mean(a)) / np.std(a)
вы можете использовать " i " (как в idiv, imul..) версия, и это не выглядит так уж плохо:
image /= (image.max()/255.0)
для другого случая вы можете написать функцию для нормализации n-мерного массива по colums:
def normalize_columns(arr):
rows, cols = arr.shape
for col in xrange(cols):
arr[:,col] /= abs(arr[:,col]).max()
простым решением является использование скалеров, предлагаемых sklearn.библиотека предобработки.
scaler = sk.MinMaxScaler(feature_range=(0, 250))
scaler = scaler.fit(X)
X_scaled = scaler.transform(X)
# Checking reconstruction
X_rec = scaler.inverse_transform(X_scaled)
ошибка X_rec-X будет равна нулю. Вы можете настроить feature_range для своих нужд или даже использовать стандартный масштабер sk.StandardScaler ()
я попробовал следующее этой, и получил ошибку
TypeError: ufunc 'true_divide' output (typecode 'd') could not be coerced to provided output parameter (typecode 'l') according to the casting rule ''same_kind''
The numpy
массив, который я пытался нормализовать, был integer
массив. Кажется, они устарели тип литья в версиях > 1.10
, и вы должны использовать numpy.true_divide()
чтобы решить эту проблему.
arr = np.array(img)
arr = np.true_divide(arr,[255.0],out=None)
img
был