1. 程式人生 > 程式設計 >PyTorch裡面的torch.nn.Parameter()詳解

PyTorch裡面的torch.nn.Parameter()詳解

在看過很多部落格的時候發現了一個用法self.v = torch.nn.Parameter(torch.FloatTensor(hidden_size)),首先可以把這個函式理解為型別轉換函式,將一個不可訓練的型別Tensor轉換成可以訓練的型別parameter並將這個parameter繫結到這個module裡面(net.parameter()中就有這個繫結的parameter,所以在引數優化的時候可以進行優化的),所以經過型別轉換這個self.v變成了模型的一部分,成為了模型中根據訓練可以改動的引數了。

使用這個函式的目的也是想讓某些變數在學習的過程中不斷的修改其值以達到最優化。

出現這個函式的地方

在concat注意力機制中,權值V是不斷學習的所以要是parameter型別,不直接使用一個torch.nn.Linear()可能是因為學習的效果不好。

通過做下面的實驗發現,linear裡面的weight和bias就是parameter型別,且不能夠使用tensor型別替換,還有linear裡面的weight甚至可能通過指定一個不同於初始化時候的形狀進行模型的更改。

self.gamma被繫結到模型中了,所以可以在訓練的時候優化

以上這篇PyTorch裡面的torch.nn.Parameter()詳解就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支援我們。