Запитання з тегом «tensor»

2
Пояснення введення Keras: вхідна форма, одиниці, batch_size, затемнення тощо
Для будь-якого шару Keras ( Layerклас), може хто - то пояснити , як зрозуміти різницю між input_shape, units, dimі т.д.? Наприклад, доктор говорить, unitsзадайте форму виводу шару. На зображенні нейронна сітка внизу hidden layer1має 4 одиниці. Чи це безпосередньо перекладається на unitsатрибут Layerоб’єкта? Або unitsв Керасі однакова форма кожної ваги …

21
Як надрукувати значення об'єкта Tensor в TensorFlow?
Я використовував вступний приклад множення матриць у TensorFlow. matrix1 = tf.constant([[3., 3.]]) matrix2 = tf.constant([[2.],[2.]]) product = tf.matmul(matrix1, matrix2) Коли я друкую продукт, він відображає його як Tensorоб'єкт: <tensorflow.python.framework.ops.Tensor object at 0x10470fcd0> Але як я знаю цінність product? Наступне не допомагає: print product Tensor("MatMul:0", shape=TensorShape([Dimension(1), Dimension(1)]), dtype=float32) Я знаю, що …

8
Як працює метод «перегляду» в PyTorch?
Мене плутає метод view()у наступному фрагменті коду. class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(3, 6, 5) self.pool = nn.MaxPool2d(2,2) self.conv2 = nn.Conv2d(6, 16, 5) self.fc1 = nn.Linear(16*5*5, 120) self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) def forward(self, x): x = self.pool(F.relu(self.conv1(x))) x = self.pool(F.relu(self.conv2(x))) x = x.view(-1, …
208 python  memory  pytorch  torch  tensor 

5
Найкращий спосіб зберегти навчену модель в PyTorch?
Я шукав альтернативні способи збереження навченої моделі в PyTorch. Поки що я знайшов дві альтернативи. torch.save () для збереження моделі та torch.load () для завантаження моделі. model.state_dict () для збереження навченої моделі та model.load_state_dict () для завантаження збереженої моделі. Я натрапив на цю дискусію, де рекомендується підхід 2 над підходом …

5
чому ми "пакуємо" послідовності в pytorch?
Я намагався повторити Як використовувати пакування для входів послідовності змінної довжини для rnn, але, мабуть, спочатку потрібно зрозуміти, чому нам потрібно "упакувати" послідовність. Я розумію, чому нам потрібно їх "забивати", але чому "упаковка" (наскрізь pack_padded_sequence) необхідна? Будь-яке пояснення високого рівня буде вдячне!
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.