一、torch.mm的基礎(chǔ)知識(shí)
torch.mm(input, mat2, out=None)
函數(shù)是計(jì)算兩個(gè)tensor的矩陣乘法。其中,input
是第一個(gè)矩陣,mat2
是第二個(gè)矩陣。如果指定out
,則結(jié)果會(huì)被寫入該輸出張量。
該函數(shù)實(shí)現(xiàn)了普通矩陣乘法,它也是torch.matmul()
函數(shù)的一種特殊情況。不同之處在于,torch.matmul()
可以廣義地計(jì)算不同形狀的張量的乘積。
下面是一個(gè)簡(jiǎn)單的例子:
import torch
# 生成兩個(gè)隨機(jī)矩陣
x = torch.rand(3, 4)
y = torch.rand(4, 5)
# 計(jì)算矩陣乘積
z = torch.mm(x, y)
print(z)
輸出結(jié)果:
tensor([[0.8313, 0.3308, 0.8844, 1.1625, 0.6847],
[1.1002, 1.0427, 1.2463, 1.4015, 1.1074],
[0.7341, 0.7045, 0.8077, 0.9469, 0.6974]])
這里,我們先生成了兩個(gè)隨機(jī)矩陣x
和y
,它們的形狀分別是(3,4)和(4,5)。然后,使用torch.mm()
計(jì)算它們的矩陣乘積z
。
二、torch.mm的高級(jí)用法
import torch batch_size, input_channels, input_width = 10, 5, 100 output_channels, kernel_width = 8, 3 # 生成隨機(jī)的輸入,卷積核和偏置項(xiàng) input_tensor = torch.randn(batch_size, input_channels, input_width) weight_tensor = torch.randn(output_channels, input_channels * kernel_width) bias_tensor = torch.randn(output_channels) # 通過reshape操作將輸入和卷積核轉(zhuǎn)換為二維矩陣 input_matrix = input_tensor.view(batch_size, input_channels, -1).transpose(1, 2).contiguous().view(batch_size * input_width, input_channels) weight_matrix = weight_tensor.view(output_channels, -1) # 計(jì)算矩陣乘積和偏置項(xiàng) output_matrix = torch.mm(input_matrix, weight_matrix.t()) + bias_tensor output_tensor = output_matrix.view(batch_size, output_channels, -1).transpose(1, 2).contiguous() print(output_tensor.shape)
這里我們先生成了所有隨機(jī)輸入,卷積核和偏置項(xiàng),然后通過reshape操作將輸入和卷積核轉(zhuǎn)換為二維矩陣。然后,我們可以使用torch.mm()
計(jì)算矩陣乘積,并將結(jié)果reshape為輸出tensor的形狀。
import torch import torch.nn.functional as F import numpy as np import cv2 # 讀取一張圖片 img = cv2.imread('test.jpg').astype(np.float32) / 255. img = torch.from_numpy(img.transpose((2, 0, 1))[None]) # 縮放圖片 scale_factor = 2 h, w = img.shape[2:] new_h, new_w = int(h * scale_factor), int(w * scale_factor) src_h, src_w = np.arange(new_h), np.arange(new_w) dst_h, dst_w = np.zeros(new_h), np.zeros(new_w) dst_h[1:-1] = (src_h[1:-1] + 0.5) / scale_factor - 0.5 dst_w[1:-1] = (src_w[1:-1] + 0.5) / scale_factor - 0.5 # 構(gòu)造網(wǎng)格坐標(biāo) grid_x, grid_y = np.meshgrid(dst_w, dst_h) # (new_h, new_w) grid_x = np.clip(grid_x, 0, w - 1) grid_y = np.clip(grid_y, 0, h - 1) y_0, x_0 = np.floor(grid_y).astype(np.int32), np.floor(grid_x).astype(np.int32) y_1, x_1 = y_0 + 1, x_0 + 1 dy, dx = grid_y - y_0, grid_x - x_0 # 通過torch.mm()實(shí)現(xiàn)雙線性插值 I00 = img[..., y_0, x_0] I01 = img[..., y_0, x_1] I10 = img[..., y_1, x_0] I11 = img[..., y_1, x_1] img_new = (1 - dx) * (1 - dy) * I00 + dx * (1 - dy) * I01 + (1 - dx) * dy * I10 + dx * dy * I11 # 顯示原圖和新圖 img = img.numpy()[0].transpose((1, 2, 0)) img_new = img_new.numpy()[0].transpose((1, 2, 0)) cv2.imshow('input', img) cv2.imshow('output', img_new) cv2.waitKey(0)
這里我們首先讀取一張圖片,并將它轉(zhuǎn)換為tensor格式。然后,我們使用np.meshgrid()
函數(shù)構(gòu)造目標(biāo)網(wǎng)格,并使用np.floor()
函數(shù)和np.clip()
函數(shù)計(jì)算出每個(gè)網(wǎng)格對(duì)應(yīng)的源像素位置。接著,我們可以使用torch.mm()
函數(shù)計(jì)算雙線性插值的結(jié)果。img_new
就是縮放后的新圖。
三、總結(jié)
本文詳細(xì)介紹了torch.mm()
函數(shù)的基礎(chǔ)知識(shí)和高級(jí)用法。在深度學(xué)習(xí)中,我們經(jīng)常使用矩陣乘法來實(shí)現(xiàn)一些復(fù)雜的操作,如卷積運(yùn)算和雙線性插值。希望本文可以為大家提供一些幫助。