Керас, Як отримати вихід кожного шару?


155

Я підготував двійкову модель класифікації з CNN, і ось мій код

model = Sequential()
model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1],
                        border_mode='valid',
                        input_shape=input_shape))
model.add(Activation('relu'))
model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1]))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=pool_size))
# (16, 16, 32)
model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1]))
model.add(Activation('relu'))
model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1]))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=pool_size))
# (8, 8, 64) = (2048)
model.add(Flatten())
model.add(Dense(1024))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(2))  # define a binary classification problem
model.add(Activation('softmax'))

model.compile(loss='categorical_crossentropy',
              optimizer='adadelta',
              metrics=['accuracy'])
model.fit(x_train, y_train,
          batch_size=batch_size,
          nb_epoch=nb_epoch,
          verbose=1,
          validation_data=(x_test, y_test))

І тут я хочу отримати вихід кожного шару так само, як TensorFlow, як це зробити?

Відповіді:


182

Ви можете легко отримати результати будь-якого шару, використовуючи: model.layers[index].output

Для всіх шарів використовуйте це:

from keras import backend as K

inp = model.input                                           # input placeholder
outputs = [layer.output for layer in model.layers]          # all layer outputs
functors = [K.function([inp, K.learning_phase()], [out]) for out in outputs]    # evaluation functions

# Testing
test = np.random.random(input_shape)[np.newaxis,...]
layer_outs = [func([test, 1.]) for func in functors]
print layer_outs

Примітка. Для імітації використання викиду, learning_phaseяк і 1.в layer_outsіншому випадку0.

Редагувати: (на основі коментарів)

K.function створює тенор функції theano / tensorflow, які згодом використовуються для отримання виводу з символічного графіка, заданого введенням.

Тепер K.learning_phase()потрібно вводити стільки шарів Кераса, як Dropout / Batchnomalization, залежать від цього, щоб змінити поведінку під час тренувань та часу тестування.

Отже, якщо ви видалите шар випадаючого коду, ви можете просто скористатися:

from keras import backend as K

inp = model.input                                           # input placeholder
outputs = [layer.output for layer in model.layers]          # all layer outputs
functors = [K.function([inp], [out]) for out in outputs]    # evaluation functions

# Testing
test = np.random.random(input_shape)[np.newaxis,...]
layer_outs = [func([test]) for func in functors]
print layer_outs

Редагувати 2: Більш оптимізовано

Я щойно зрозумів, що попередня відповідь не настільки оптимізована, оскільки для кожної оцінки функції передаватимуться дані CPU-> GPU-пам’яті, а також необхідно проводити розрахунки тензорів для нижчих шарів над n-шарами.

Натомість це набагато кращий спосіб, оскільки вам не потрібно кілька функцій, а одна функція, яка дає вам список усіх результатів:

from keras import backend as K

inp = model.input                                           # input placeholder
outputs = [layer.output for layer in model.layers]          # all layer outputs
functor = K.function([inp, K.learning_phase()], outputs )   # evaluation function

# Testing
test = np.random.random(input_shape)[np.newaxis,...]
layer_outs = functor([test, 1.])
print layer_outs

2
сер, ваша відповідь хороша, що K.function([inp]+ [K.learning_phase()], [out])означає у вашому коді?
GoingMyWay

Відмінна відповідь, np.random.random(input_shape)[np.newaxis,...]також можна записати якnp.random.random(input_shape)[np.newaxis,:]
Том

Що таке K.функція? як передано GPU (MPI?)? що там за сценою? Як це переговори з CUDA? де вихідний код?
Став Бодик

3
@StavBodik Модель будує функцію передбачити , використовуючи K.function тут , і передбачити , використовує його в петлю передбачити тут . Прогнозуйте петлі на розмір партії (якщо не встановлено за замовчуванням 32), але це зменшить обмеження в пам'яті GPU. Тож я не впевнений, чому ви спостерігаєте model.predictшвидше.
indraforyou

1
Я отримую це: InvalidArgumentError: S_input_39: 0 одночасно подається та отримується. ... хтось із ідеями?
mathtick

138

З https://keras.io/getting-started/faq/#how-can-i-obtain-the-output-of-an-intermediate-layer

Один простий спосіб - створити нову Модель, яка видасть шари, які вас цікавлять:

from keras.models import Model

model = ...  # include here your original model

layer_name = 'my_layer'
intermediate_layer_model = Model(inputs=model.input,
                                 outputs=model.get_layer(layer_name).output)
intermediate_output = intermediate_layer_model.predict(data)

Крім того, ви можете побудувати функцію Keras, яка поверне вихід певного шару з певним входом, наприклад:

from keras import backend as K

# with a Sequential model
get_3rd_layer_output = K.function([model.layers[0].input],
                                  [model.layers[3].output])
layer_output = get_3rd_layer_output([x])[0]

якби я міг би дати вам два ^, цей спосіб просто sooooo набагато зручніше, коли у вас є маса входів.
Дан Ерез

З вашого коду вище зрозуміло, але лише для того, щоб ще раз перевірити моє розуміння: після створення моделі з існуючої моделі (якщо припустити, що вона вже навчена), не потрібно викликати set_weights на новій моделі. Це правильно?
JZ

Яка різниця між layer_output = get_3rd_layer_output([X, 0])[0]та layer_output = get_3rd_layer_output([X, 1])[0]Документи згадують режим поїздів та тестовий режим
Джейсон

Вибачте, ви можете мені пояснити, що саме робить ця модель? Чи потрібно це також тренувати? Я не можу уявити жодної діаграми до цього. Ви додаєте вхідний шар іншої моделі, потім додаєте випадковий посередницький шар цієї іншої моделі як вихідний і подаєте до нього вхідні дані? Чому це потрібно робити замість подачі оригінальної моделі та отримувати прямий доступ до будь-якого проміжного шару? Навіщо створювати цю надзвичайно дивну модель? І чи не вплине це на вихід? це не буде намагатися навчитися чи вимагати тренувань, або шар привносить власні ваги, попередньо підготовлені з оригінальної моделі?
PedroD

19

На основі всіх хороших відповідей цього потоку я написав бібліотеку, щоб отримати вихід кожного шару. Він резюмує всю складність і був розроблений таким чином, щоб бути максимально зручним для користувачів:

https://github.com/philipperemy/keract

Він обробляє майже всі крайові корпуси

Сподіваюся, це допомагає!


8

Наступне виглядає для мене дуже просто:

model.layers[idx].output

Вище - тензорний об’єкт, тому ви можете змінити його за допомогою операцій, які можна застосувати до тензорного об’єкта.

Наприклад, щоб отримати форму model.layers[idx].output.get_shape()

idx - це індекс шару, і ви можете його знайти model.summary()


1
Що не так у цій відповіді? Чому це не вважається головною відповіддю?
Блек Джек 21

1
Він повертає об'єкт тензора, а не кадр даних. tf об'єкти дивні для роботи.
HashRocketSyntax

7

Я написав цю функцію для себе (у Юпітера), і вона надихнула відповідь indraforyou . Він зможе автоматично вивести всі виводи шару. Ваші зображення повинні мати форму (x, y, 1), де 1 означає 1 канал. Ви просто зателефонуєте plot_layer_outputs (...) на графік.

%matplotlib inline
import matplotlib.pyplot as plt
from keras import backend as K

def get_layer_outputs():
    test_image = YOUR IMAGE GOES HERE!!!
    outputs    = [layer.output for layer in model.layers]          # all layer outputs
    comp_graph = [K.function([model.input]+ [K.learning_phase()], [output]) for output in outputs]  # evaluation functions

    # Testing
    layer_outputs_list = [op([test_image, 1.]) for op in comp_graph]
    layer_outputs = []

    for layer_output in layer_outputs_list:
        print(layer_output[0][0].shape, end='\n-------------------\n')
        layer_outputs.append(layer_output[0][0])

    return layer_outputs

def plot_layer_outputs(layer_number):    
    layer_outputs = get_layer_outputs()

    x_max = layer_outputs[layer_number].shape[0]
    y_max = layer_outputs[layer_number].shape[1]
    n     = layer_outputs[layer_number].shape[2]

    L = []
    for i in range(n):
        L.append(np.zeros((x_max, y_max)))

    for i in range(n):
        for x in range(x_max):
            for y in range(y_max):
                L[i][x][y] = layer_outputs[layer_number][x][y][i]


    for img in L:
        plt.figure()
        plt.imshow(img, interpolation='nearest')

Що робити, якщо модель має кілька входів? Як вказати вхідні дані?
Антоніо Сесто

У цьому рядку: layer_outputs_list = [op ([test_image, 1.]). Чи 1. має бути 0? Здається, 1 стенд для тренувань і 0 стенди для тестування? Хіба ні?
Kongsea

Це не працює для мене. Я використав кольорове зображення, і воно дає мені помилку: InvalidArgumentError: input_2: 0 подається і вибирається.
К

5

Від: https://github.com/philipperemy/keras-visualize-activations/blob/master/read_activations.py

import keras.backend as K

def get_activations(model, model_inputs, print_shape_only=False, layer_name=None):
    print('----- activations -----')
    activations = []
    inp = model.input

    model_multi_inputs_cond = True
    if not isinstance(inp, list):
        # only one input! let's wrap it in a list.
        inp = [inp]
        model_multi_inputs_cond = False

    outputs = [layer.output for layer in model.layers if
               layer.name == layer_name or layer_name is None]  # all layer outputs

    funcs = [K.function(inp + [K.learning_phase()], [out]) for out in outputs]  # evaluation functions

    if model_multi_inputs_cond:
        list_inputs = []
        list_inputs.extend(model_inputs)
        list_inputs.append(0.)
    else:
        list_inputs = [model_inputs, 0.]

    # Learning phase. 0 = Test mode (no dropout or batch normalization)
    # layer_outputs = [func([model_inputs, 0.])[0] for func in funcs]
    layer_outputs = [func(list_inputs)[0] for func in funcs]
    for layer_activations in layer_outputs:
        activations.append(layer_activations)
        if print_shape_only:
            print(layer_activations.shape)
        else:
            print(layer_activations)
    return activations

Посилання застаріле.
Саїд


5

Хотів додати це як коментар (але не маю достатньо високої відповіді) до відповіді @ indraforyou, щоб виправити проблему, згадану в коментарі @ mathtick. Щоб уникнути InvalidArgumentError: input_X:Y is both fed and fetched.винятку, просто замініть рядок outputs = [layer.output for layer in model.layers]наoutputs = [layer.output for layer in model.layers][1:] , тобто

адаптація мінімального робочого прикладу indraforyou:

from keras import backend as K 
inp = model.input                                           # input placeholder
outputs = [layer.output for layer in model.layers][1:]        # all layer outputs except first (input) layer
functor = K.function([inp, K.learning_phase()], outputs )   # evaluation function

# Testing
test = np.random.random(input_shape)[np.newaxis,...]
layer_outs = functor([test, 1.])
print layer_outs

ps мої спроби спробувати такі речі, як outputs = [layer.output for layer in model.layers[1:]]не вдалося.


1
це не зовсім правильно. Це лише в тому випадку, якщо перший рівень визначений вхідним шаром.
Mpizos Dimitris

Дякую, це працювало для мене, і я просто хочу перевірити, я розумію, чому, виходячи з коментаря Mpizos: моя модель - це лише 3 шари (вбудовані слова - BiLSTM - CRF), тож, мабуть, мені довелося виключити шар [0], оскільки це просто вбудовування і не повинно мати активацію, правда?
KMunro

@MpizosDimitris так, але це правильно, але в прикладі, поданому від @indraforyou (який я вносив зміни), це було так. @KMunro, якщо я правильно розумію, то причина, яку ви не турбуєтесь про вихід першого шару, полягає в тому, що це просто виведення слова "вбудовування", яке є лише словом, яке вбудовується в тензорну форму (що є просто вхід до "мережевої" частини вашої kerasмоделі). Шар вбудовування вашого слова еквівалентний вхідному шару в наведеному тут прикладі.
KamKam

3

Припустимо, що у вас є:

1- Керас попередньо тренувався model.

2- Введіть xяк зображення або набір зображень. Роздільна здатність зображення повинна бути сумісною з розмірністю вхідного шару. Наприклад, 80 * 80 * 3 для 3-канального (RGB) зображення.

3- Назва виводу layerдля отримання активації. Наприклад, шар "flatten_2". Це повинно бути включено у layer_namesзмінну, яка представляє назву шарів даної model.

4- batch_size- необов'язковий аргумент.

Тоді ви можете легко використовувати get_activationфункцію для отримання активації виводу layerдля заданого входу xта попередньо підготовленого model:

import six
import numpy as np
import keras.backend as k
from numpy import float32
def get_activations(x, model, layer, batch_size=128):
"""
Return the output of the specified layer for input `x`. `layer` is specified by layer index (between 0 and
`nb_layers - 1`) or by name. The number of layers can be determined by counting the results returned by
calling `layer_names`.
:param x: Input for computing the activations.
:type x: `np.ndarray`. Example: x.shape = (80, 80, 3)
:param model: pre-trained Keras model. Including weights.
:type model: keras.engine.sequential.Sequential. Example: model.input_shape = (None, 80, 80, 3)
:param layer: Layer for computing the activations
:type layer: `int` or `str`. Example: layer = 'flatten_2'
:param batch_size: Size of batches.
:type batch_size: `int`
:return: The output of `layer`, where the first dimension is the batch size corresponding to `x`.
:rtype: `np.ndarray`. Example: activations.shape = (1, 2000)
"""

    layer_names = [layer.name for layer in model.layers]
    if isinstance(layer, six.string_types):
        if layer not in layer_names:
            raise ValueError('Layer name %s is not part of the graph.' % layer)
        layer_name = layer
    elif isinstance(layer, int):
        if layer < 0 or layer >= len(layer_names):
            raise ValueError('Layer index %d is outside of range (0 to %d included).'
                             % (layer, len(layer_names) - 1))
        layer_name = layer_names[layer]
    else:
        raise TypeError('Layer must be of type `str` or `int`.')

    layer_output = model.get_layer(layer_name).output
    layer_input = model.input
    output_func = k.function([layer_input], [layer_output])

    # Apply preprocessing
    if x.shape == k.int_shape(model.input)[1:]:
        x_preproc = np.expand_dims(x, 0)
    else:
        x_preproc = x
    assert len(x_preproc.shape) == 4

    # Determine shape of expected output and prepare array
    output_shape = output_func([x_preproc[0][None, ...]])[0].shape
    activations = np.zeros((x_preproc.shape[0],) + output_shape[1:], dtype=float32)

    # Get activations with batching
    for batch_index in range(int(np.ceil(x_preproc.shape[0] / float(batch_size)))):
        begin, end = batch_index * batch_size, min((batch_index + 1) * batch_size, x_preproc.shape[0])
        activations[begin:end] = output_func([x_preproc[begin:end]])[0]

    return activations

2

Якщо у вас є один із таких випадків:

  • помилка: InvalidArgumentError: input_X:Y is both fed and fetched
  • випадку декількох входів

Вам потрібно зробити наступні зміни:

  • додати фільтр для вхідних шарів у outputsзмінному
  • мінорна зміна на functorsциклі

Мінімальний приклад:

from keras.engine.input_layer import InputLayer
inp = model.input
outputs = [layer.output for layer in model.layers if not isinstance(layer, InputLayer)]
functors = [K.function(inp + [K.learning_phase()], [x]) for x in outputs]
layer_outputs = [fun([x1, x2, xn, 1]) for fun in functors]

Що означає [x1, x2, xn, 1]? Мій x1 не визначений, і я хотів би зрозуміти, що ви там визначаєте.
HashRocketSyntax

@HashRocketSyntax x1і x2є вхідними даними моделі. Як зазначено, у випадку, якщо ви отримали 2 входи для вашої моделі.
Mpizos Dimitris

1

Ну, інші відповіді дуже повні, але існує дуже основний спосіб "бачити", а не "набувати" фігури.

Просто зробіть model.summary(). Він надрукує всі шари та їх вихідні форми. Значення "None" будуть вказувати змінні розміри, а перший розмір буде розміром партії.


Йдеться про вихід шару (задані входи до базового шару), а не про шар.
mathtick
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.