Яка користь від багатослів’я у Keras під час перевірки моделі?


89

Я вперше запускаю модель LSTM. Ось моя модель:

opt = Adam(0.002)
inp = Input(...)
print(inp)
x = Embedding(....)(inp)
x = LSTM(...)(x)
x = BatchNormalization()(x)
pred = Dense(5,activation='softmax')(x)

model = Model(inp,pred)
model.compile(....)

idx = np.random.permutation(X_train.shape[0])
model.fit(X_train[idx], y_train[idx], nb_epoch=1, batch_size=128, verbose=1)

Яка користь від багатослів’я під час навчання моделі?

Відповіді:


210

Перевірте документацію на model.fit тут .

Встановивши детальний опис 0, 1 або 2, ви просто говорите, як ви хочете «бачити» хід тренувань для кожної епохи.

verbose=0 нічого не покаже (мовчить)

verbose=1 покаже вам анімований рядок прогресу, як це:

progres_bar

verbose=2 просто згадаю номер епохи, як це:

введіть тут опис зображення


20
багатослівний: Ціле число. 0, 1 або 2. Режим багатослів'я. 0 = беззвучний, 1 = індикатор прогресу, 2 = один рядок за епоху. Дякую @ank you rock ..
rakesh

2
Цей коментар є найкращою відповіддю на запитання, навіть кращою, ніж відповідь, що коментується. Зверніть увагу на це і намагайтеся уникати слів лише для того, щоб відповідь стала довшою. @rakesh, ти рок.
Костянтин Секереш

19

verbose: Integer. 0, 1 або 2. Режим багатослів'я.

Багатослівний = 0 (без звуку)

Багатослівне = 1 (рядок прогресу)

Train on 186219 samples, validate on 20691 samples
Epoch 1/2
186219/186219 [==============================] - 85s 455us/step - loss: 0.5815 - acc: 
0.7728 - val_loss: 0.4917 - val_acc: 0.8029
Train on 186219 samples, validate on 20691 samples
Epoch 2/2
186219/186219 [==============================] - 84s 451us/step - loss: 0.4921 - acc: 
0.8071 - val_loss: 0.4617 - val_acc: 0.8168

Багатослівний = 2 (один рядок на епоху)

Train on 186219 samples, validate on 20691 samples
Epoch 1/1
 - 88s - loss: 0.5746 - acc: 0.7753 - val_loss: 0.4816 - val_acc: 0.8075
Train on 186219 samples, validate on 20691 samples
Epoch 1/1
 - 88s - loss: 0.4880 - acc: 0.8076 - val_loss: 0.5199 - val_acc: 0.8046

Ви можете пояснити, чому я не отримую очікуваного результату для різних детальних деталей. Я отримую однаковий [тихий] вихід для детального = 0 та 2 для мого файлу? А для детального = 1, я отримую індикатор прогресу лише в кінці таких епох, як Epoch 10/10 - 21s - втрата: 0.2354 - згідно: 0.9286 - val_loss: 0.2206 - val_acc: 0.9344 [======== ======================] Точність: 0,9344 Помилка: 6,560000000000002
доктор Ніша Арора

чудова відповідь, допомогла мені. Діє для tensorflow 2.2
Bobs Burgers

9

Для verbose> 0 fitжурнали методів:

  • втрата : значення функції збитків для ваших навчальних даних
  • acc : значення точності для ваших навчальних даних.

Примітка: Якщо використовуються механізми регуляризації, вони вмикаються, щоб уникнути переобладнання.

якщо validation_dataабо validation_splitаргументи не порожні, fitжурнали методів:

  • val_loss : значення функції втрат для ваших даних перевірки
  • val_acc : значення точності для даних перевірки

Примітка: Механізми регуляризації вимикаються під час тестування, оскільки ми використовуємо всі можливості мережі.

Наприклад, використання verboseпід час тренування моделі допомагає виявити переобладнання, яке виникає, якщо ваше accпостійне вдосконалення, а ваше val_accпогіршення.


Яке значення має регуляризація для параметра багатослів’я ?!
Chrisji

Детальний параметр не впливає на механізми регуляризації. Я просто додаю інформацію про те, що відображається, якщо увімкнено детальний опис (щоб відповісти на початкове запитання "Яка користь від багатослівного під час навчання моделі?" => Напр.: Уникнення перенапруження шляхом порівняння acc та val_acc).
Hugo Bevilacqua

1

За замовчуванням детально = 1,

детальне = 1, що включає як індикатор прогресу, так і один рядок за епоху

багатослівний = 0, означає мовчазний

багатослівний = 2, один рядок на епоху, тобто номер епохи / загальний номер. епох


0

Порядок деталей, наданих багатослівним прапором, такий

Менше деталей .... Більше деталей

0 <2 <1

За замовчуванням 1

Для виробничого середовища рекомендується 2

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.