顯卡記憶體不足的問題,透過圖書和論文來找解法和答案更準確安心。 我們找到下列懶人包和總整理

顯卡記憶體不足的問題,我們搜遍了碩博士論文和台灣出版的書籍,推薦李金洪寫的 PyTorch深度學習和圖神經網路(卷1)--基礎知識 和(日)平山尚的 遊戲開發:世嘉新人培訓教材都 可以從中找到所需的評價。

另外網站顯卡跌勢波及CPU和部分記憶體專家:恐釀惡性循環也說明:Tom`s Hardware 4月18日報導,3D Center Germany週末報告稱,和三週前相比,AMD GPU降價13%、輝達GPU降價6%。

這兩本書分別來自人民郵電 和人民郵電所出版 。

最後網站專屬顯示卡或共用CPU,哪個更適合用於平面設計? - Crucial則補充:電腦可搭載專屬顯示卡與內建專屬記憶體(RAM),或者顯示元件是處理器(CPU)一部分的 ... 電腦得以顯示試算表與一般網頁,但通常不足以進行平面設計或進階相片編輯。

接下來讓我們看這些論文和書籍都說些什麼吧:

除了顯卡記憶體不足,大家也想知道這些:

PyTorch深度學習和圖神經網路(卷1)--基礎知識

為了解決顯卡記憶體不足的問題,作者李金洪 這樣論述:

本書從基礎知識開始,介紹深度學習與圖神經網路相關的一系列技術與實現方法,主要內容包括PyTorch的使用、神經網路的原理、神經網路的基礎模型、圖神經網路的基礎模型。書中側重講述與深度學習基礎相關的網路模型和演算法思想,以及圖神經網路的原理,且針對這些知識點給出在PyTorch框架上的實現代碼。本書適合想學習圖神經網路的技術人員、人工智慧從業人員閱讀,也適合作為大專院校相關專業的師生用書和培訓班的教材。 李金洪 精通C、Python、Java語言,擅長神經網路、演算、協定分析、移動互聯網安全架構等技術,先後擔任過CAD演算工程師、架構師、專案經理、部門經理等職位。參與過深度

學習領域某移動互聯網後臺的OCR項目,某娛樂節目機器人的語音辨識、聲紋識別專案,金融領域的若干分類專案。 第一篇 入門——PyTorch基礎 第1章 快速瞭解人工智慧與PyTorch 3 1.1 圖神經網路與深度學習 4 1.1.1 深度神經網路 4 1.1.2 圖神經網路 4 1.2 PyTorch是做什麼的 4 1.3 PyTorch的特點 5 1.4 PyTorch與TensorFlow各有所長 6 1.5 如何使用本書學好深度學習 8 第2章 搭建開發環境 9 2.1 下載及安裝Anaconda 10 2.1.1 下載Anaconda開發工具 10 2.1.2 

安裝Anaconda開發工具 10 2.1.3 安裝Anaconda開發工具時的注意事項 11 2.2 安裝PyTorch 11 2.2.1 打開PyTorch官網 12 2.2.2 配置PyTorch安裝命令 12 2.2.3 使用配置好的命令安裝PyTorch 12 2.2.4 配置PyTorch的鏡像源 13 2.3 熟悉Anaconda 3的開發工具 15 2.3.1 快速瞭解Spyder 15 2.3.2 快速瞭解Jupyter Notebook 17 2.4 測試開發環境 18 第3章 PyTorch基本開發步驟——用邏輯回歸擬合二維資料 19 3.1 實例1:從一組看似混亂的資

料中找出規律 20 3.1.1 準備數據 20 3.1.2 定義網路模型 21 3.1.3 搭建網路模型 22 3.1.4 訓練模型 23 3.1.5 視覺化訓練結果 23 3.1.6 使用及評估模型 24 3.1.7 視覺化模型 25 3.2 模型是如何訓練出來的 26 3.2.1 模型裡的內容及意義 26 3.2.2 模型內部資料流程向 27 3.3 總結 27 第4章 快速上手PyTorch 29 4.1 神經網路中的幾個基底資料型別 30 4.2 張量類的基礎 30 4.2.1 定義張量的方法 30 4.2.2 張量的類型 32 4.2.3 張量的type()方法 33 4.3 張量

與NumPy 34 4.3.1 張量與NumPy類型資料的相互轉換 34 4.3.2 張量與NumPy各自的形狀獲取 34 4.3.3 張量與NumPy各自的切片操作 34 4.3.4 張量與NumPy類型資料相互轉換間的陷阱 35 4.4 在CPU和GPU控制的記憶體中定義張量 36 4.4.1 將CPU記憶體中的張量轉化到GPU記憶體中 36 4.4.2 直接在GPU記憶體中定義張量 36 4.4.3 使用to()方法來 設備 36 4.4.4 使用環境變數CUDA_VISIBLE_DEVICES來 設備 36 4.5 生成隨機值張量 37 4.5.1 設置隨機值種子 37 4.5.2 按

照 形狀生成隨機值 37 4.5.3 生成線性空間的隨機值 37 4.5.4 生成對數空間的隨機值 38 4.5.5 生成未初始化的矩陣 38 4.5.6  多的隨機值生成函數 38 4.6 張量間的數學運算 38 4.6.1 PyTorch的運算函數 39 4.6.2 PyTorch的自變化運算函數 39 4.7 張量間的資料操作 39 4.7.1 用torch.reshape()函數實現資料維度變換 39 4.7.2 實現張量資料的矩陣轉置 40 4.7.3 view()方法與contiguous()方法 40 4.7.4 用torch.cat()函數實現資料連接 41 4.7.5 用to

rch.chunk()函數實現資料均勻分割 41 4.7.6 用torch.split()函數實現資料不均勻分割 42 4.7.7 用torch.gather()函數對張量資料進行檢索 42 4.7.8 按照 閾值對張量進行過濾 42 4.7.9 找出張量中的非零值索引 43 4.7.10 根據條件進行多張量取值 43 4.7.11 根據閾值進行資料截斷 43 4.7.12 獲取資料中 值、 小值的索引 43 4.8 Variable類型與自動微分模組 44 4.8.1 自動微分模組簡介 44 4.8.2 Variable物件與張量物件之間的轉化 44 4.8.3 用no_grad()與ena

ble_grad()控制梯度計算 45 4.8.4 函數torch.no_grad()介紹 45 4.8.5 函數enable_grad()與no_grad()的嵌套 46 4.8.6 用set_grad_enabled()函數統一管理梯度計算 47 4.8.7 Variable物件的grad_fn屬性 47 4.8.8 Variable物件的is_leaf屬性 48 4.8.9 用backward()方法自動求導 48 4.8.10 自動求導的作用 49 4.8.11 用detach()方法將Variable物件分離成葉子節點 49 4.8.12 volatile屬性擴展 50 4.9 定義

模型結構的步驟與方法 50 4.9.1 代碼實現: Module類的使用方法 50 4.9.2 模型中的參數Parameters類 52 4.9.3 為模型添加參數 53 4.9.4 從模型中獲取參數 53 4.9.5 保存與載入模型 56 4.9.6 模型結構中的鉤子函數 57 4.10 模型的網路層 58 第5章 神經網路的基本原理與實現 59 5.1 瞭解深度學習中的神經網路與神經元 60 5.1.1 瞭解單個神經元 60 5.1.2 生物神經元與電腦神經元模型的結構相似性 62 5.1.3 生物神經元與電腦神經元模型的工作流程相似性 63 5.1.4 神經網路的形成 63 5.2 深

度學習中的基礎神經網路模型 63 5.3 什麼是全連接神經網路 64 5.3.1 全連接神經網路的結構 64 5.3.2 實例2:分析全連接神經網路中每個神經元的作用 64 5.3.3 全連接神經網路的擬合原理 66 5.3.4 全連接神經網路的設計思想 67 5.4 啟動函數——加入非線性因素,彌補線性模型缺陷 68 5.4.1 Sigmoid函數 68 5.4.2 tanh函數 69 5.4.3 ReLU函數 70 5.4.4 啟動函數的多種形式 72 5.4.5 擴展1: 好的啟動函數(Swish與Mish) 73 5.4.6 擴展2: 適合NLP任務的啟動函數(GELU) 74 5.5

 啟動函數總結 75 5.6 訓練模型的步驟與方法 76 5.7 神經網路模組(nn)中的損失函數 76 5.7.1 L1損失函數 76 5.7.2 均值平方差(MSE)損失函數 77 5.7.3 交叉熵損失(CrossEntropyLoss)函數 77 5.7.4 其他的損失函數 78 5.7.5 總結:損失演算法的選取 79 5.8 Softmax演算法——處理分類問題 79 5.8.1 什麼是Softmax 80 5.8.2 Softmax原理 80 5.8.3 常用的Softmax介面 80 5.8.4 實例3:Softmax與交叉熵的應用 81 5.8.5 總結: 好地認識Softm

ax 82 5.9 優化器模組 82 5.9.1 瞭解反向傳播與BP演算法 82 5.9.2 優化器與梯度下降 83 5.9.3 優化器的類別 83 5.9.4 優化器的使用方法 83 5.9.5 查看優化器的參數結構 84 5.9.6 常用的優化器——Adam 85 5.9.7  好的優化器——Ranger 85 5.9.8 如何選取優化器 85 5.10 退化學習率——在訓練的速度與精度之間找到平衡 86 5.10.1 設置學習率的方法——退化學習率 86 5.10.2 退化學習率介面(lr_scheduler) 87 5.10.3 使用lr_scheduler介面實現多種退化學習率 88

5.11 實例4:預測泰坦尼克號船上的生存乘客 91 5.11.1 載入樣本 91 5.11.2 樣本的特徵分析——離散資料與連續資料 92 5.11.3 處理樣本中的離散資料和Nan值 93 5.11.4 分離樣本和標籤並製作成資料集 95 5.11.5 定義Mish啟動函數與多層全連接網路 96 5.11.6 訓練模型並輸出結果 97 第二篇 基礎——神經網路的監督訓練與無監督訓練   第6章 實例5:識別黑白圖中的服裝圖案 101 6.1 熟悉樣本:瞭解Fashion-MNIST資料集 102 6.1.1 Fashion-MNIST的起源 102 6.1.2 Fashion-MNI

ST的結構 102 6.1.3 手動下載Fashion-MNIST資料集 103 6.1.4 代碼實現:自動下載Fashion-MNIST資料集 103 6.1.5 代碼實現:讀取及顯示Fashion-MNIST中的資料 104 6.2 製作批次資料集 105 6.2.1 資料集封裝類DataLoader 105 6.2.2 代碼實現:按批次封裝Fashion-MNIST資料集 106 6.2.3 代碼實現:讀取批次資料集 107 6.3 構建並訓練模型 108 6.3.1 代碼實現:定義模型類 108 6.3.2 代碼實現:定義損失的計算方法及優化器 110 6.3.3 代碼實現:訓練模型 

110 6.3.4 代碼實現:保存模型 111 6.4 載入模型,並用其進行預測 111 6.5 評估模型 112 6.6 擴展:多顯卡並行訓練 113 6.6.1 代碼實現:多顯卡訓練 113 6.6.2 多顯卡訓練過程中,保存與讀取模型檔的注意事項 115 6.6.3 在切換設備環境時,保存與讀取模型檔的注意事項 116 6.6.4 處理顯存殘留問題 116 第7章 監督學習中的神經網路 119 7.1 從視覺的角度理解卷積神經網路 120 7.1.1 生物視覺系統原理 120 7.1.2 微積分 120 7.1.3 離散微分與離散積分 120 7.1.4 視覺神經網路中的離散積分 12

1 7.2 卷積神經網路的結構 121 7.2.1 卷積神經網路的工作過程 122 7.2.2 卷積神經網路與全連接網路的區別 123 7.2.3 瞭解1D卷積、2D卷積和3D卷積 123 7.2.4 實例分析:Sobel運算元的原理 123 7.2.5 深層神經網路中的卷積核 126 7.2.6 理解卷積的數學意義——卷積分 126 7.3 卷積神經網路的實現 127 7.3.1 瞭解卷積介面 127 7.3.2 卷積操作的類型 129 7.3.3 卷積參數與卷積結果的計算規則 130 7.3.4 實例6:卷積函數的使用 130 7.3.5 實例7:使用卷積提取圖片的輪廓 135 7.4 深

層卷積神經網路 138 7.4.1 深層卷積神經網路組成 138 7.4.2 池化操作 140 7.4.3 瞭解池化介面 140 7.4.4 實例8:池化函數的使用 141 7.4.5 實例9:搭建卷積神經網路 143 7.5 迴圈神經網路結構 145 7.5.1 瞭解人的記憶原理 145 7.5.2 迴圈神經網路的應用領域 146 7.5.3 迴圈神經網路的正向傳播過程 147 7.5.4 BP演算法與BPTT演算法的原理 148 7.5.5 實例10:簡單迴圈神經網路實現——設計一個退位減法器 149 7.6 常見的迴圈神經網路單元及結構 154 7.6.1 長短記憶(LSTM)單元 15

5 7.6.2 門控迴圈單元(GRU) 157 7.6.3 只有忘記門的LSTM(JANET)單元 158 7.6.4 獨立迴圈(IndRNN)單元 158 7.6.5 雙向RNN結構 159 7.7 實例11:用迴圈神經網路訓練語言模型 160 7.7.1 什麼是語言模型 161 7.7.2 詞表與詞向量 161 7.7.3 詞向量的原理與實現 161 7.7.4 NLP中多項式分佈 162 7.7.5 迴圈神經網路的實現 163 7.7.6 實現語言模型的思路與步驟 164 7.7.7 代碼實現:準備樣本 165 7.7.8 代碼實現:構建迴圈神經網路(RNN)模型 167 7.7.9 代

碼實現:產生實體模型類,並訓練模型 168 7.7.10 代碼實現:運行模型生成句子 171 7.8 過擬合問題及優化技巧 172 7.8.1 實例12:訓練具有過擬合問題的模型 172 7.8.2 改善模型過擬合的方法 175 7.8.3 瞭解正則化 175 7.8.4 實例13:用L2正則改善模型的過擬合狀況 176 7.8.5 實例14:通過增大資料集改善模型的過擬合狀況 178 7.8.6 Dropout方法 179 7.8.7 實例15: 通過Dropout方法改善模型的過擬合狀況 180 7.8.8 全連接網路的深淺與泛化能力的聯繫 182 7.8.9 瞭解批量歸一化(BN)演算法

 182 7.8.10 實例16: 手動實現批量歸一化的計算方法 185 7.8.11 實例17: 通過批量歸一化方法改善模型的過擬合狀況 187 7.8.12 使用批量歸一化方法時的注意 事項 188 7.8.13 擴展:多種批量歸一化演算法介紹 188 7.9 神經網路中的注意力機制 189 7.9.1 注意力機制的實現 189 7.9.2 注意力機制的軟、硬模式 190 7.9.3 注意力機制模型的原理 190 7.9.4 多頭注意力機制 191 7.9.5 自注意力機制 192 7.10 實例18:利用注意力迴圈神經網路對圖片分類 192 7.10.1 迴圈神經網路處理圖片分類任務的原

理 192 7.10.2 代碼實現:搭建LSTM網路模型 193 7.10.3 代碼實現:構建注意力機制類 193 7.10.4 代碼實現:構建輸入資料並訓練模型 196 7.10.5 使用並評估模型 197 7.10.6 擴展1:使用梯度剪輯技巧優化訓練過程 197 7.10.7 擴展2:使用JANET單元完成RNN 198 7.10.8 擴展3:使用IndRNN單元實現RNN 198 第8章 無監督學習中的神經網路 199 8.1 快速瞭解資訊熵 200 8.1.1 資訊熵與概率的計算關係 200 8.1.2 聯合熵 202 8.1.3 條件熵 202 8.1.4 交叉熵 203 8.1

.5 相對熵——KL散度 203 8.1.6 JS散度 204 8.1.7 互信息 204 8.2 通用的無監督模型——自編碼神經網路與對抗神經網路 205 8.3 自編碼神經網路 206 8.3.1 自編碼神經網路的結構 206 8.3.2 自編碼神經網路的計算過程 206 8.3.3 自編碼神經網路的作用與意義 207 8.3.4 變分自編碼神經網路 207 8.3.5 條件變分自編碼神經網路 208 8.4 實例19:用變分自編碼神經網路模型生成類比資料 208 8.4.1 變分自編碼神經網路模型的結構介紹 208 8.4.2 代碼實現:引入模組並載入樣本 209 8.4.3 代碼實現:

定義變分自編碼神經網路模型的正向結構 210 8.4.4 變分自編碼神經網路模型的反向傳播與KL散度的應用 211 8.4.5 代碼實現:完成損失函數和訓練函數 212 8.4.6 代碼實現:訓練模型並輸出視覺化結果 213 8.4.7 代碼實現:提取樣本的低維特徵並進行視覺化 214 8.4.8 代碼實現:視覺化模型的輸出空間 215 8.5 實例20:用條件變分自編碼神經網路生成可控類比資料 216 8.5.1 條件變分自編碼神經網路的實現 216 8.5.2 代碼實現:定義條件變分自編碼神經網路模型的正向結構 217 8.5.3 代碼實現:訓練模型並輸出視覺化結果 218 8.6 對抗神

經網路 219 8.6.1 對抗神經網路的工作過程 219 8.6.2 對抗神經網路的作用 220 8.6.3 GAN模型難以訓練的原因 220 8.6.4 WGAN模型——解決GAN難以訓練的問題 221 8.6.5 分析WGAN的不足 222 8.6.6 WGAN-gp模型—— 容易訓練的GAN模型 223 8.6.7 條件GAN 2248.6.8 帶有W散度的GAN——WGAN-div 225 8.7 實例21:用WGAN-gp模型生成類比資料 226 8.7.1 DCGAN中的全卷積 226 8.7.2 上採樣與下採樣 227 8.7.3 實例歸一化 228 8.7.4 代碼實現:引入

模組並載入樣本 228 8.7.5 代碼實現:定義生成器與判別器 229 8.7.6 啟動函數與歸一化層的位置關係 231 8.7.7 代碼實現:定義數完成梯度懲罰項 234 8.7.8 代碼實現:定義模型的訓練函數 235 8.7.9 代碼實現:定義函數,視覺化模型結果 237 8.7.10 代碼實現:調用函數並訓練模型 237 8.7.11 練習題 238 8.8 實例22:用條件GAN生成可控類比資料 239 8.8.1 代碼實現:定義條件GAN模型的正向結構 239 8.8.2 代碼實現:調用函數並訓練模型 240 8.9 實例23:實現帶有W散度的GAN——WGAN-div模型 24

1 8.9.1 代碼實現:完成W散度的損失函數 241 8.9.2 代碼實現:定義訓練函數來訓練模型 242 8.10 散度在神經網路中的應用 243 8.10.1 f-GAN框架 243 8.10.2 基於f散度的變分散度 小化方法 243 8.10.3 用Fenchel共軛函數實現f-GAN 244 8.10.4 f-GAN中判別器的啟動函數 246 8.10.5 互資訊神經估計 247 8.10.6 實例24:用神經網路估計互資訊 249 8.10.7 穩定訓練GAN模型的經驗和技巧 252 8.11 實例25:用 化深度互資訊模型執行圖片搜索器 253 8.11.1 DIM模型的原理 

254 8.11.2 DIM模型的結構 254 8.11.3 代碼實現:載入CIFAR資料集 257 8.11.4 代碼實現:定義DIM模型 260 8.11.5 代碼實現:產生實體DIM模型並進行訓練 262 8.11.6 代碼實現:載入模型搜索圖片 264 第9章 快速瞭解圖神經網路——少量樣本也可以訓練模型 269 9.1 圖神經網路的相關基礎知識 270 9.1.1 歐氏空間與非歐氏空間 270 9.1.2 圖 270 9.1.3 圖相關的術語和度量 270 9.1.4 圖神經網路 271 9.1.5 GNN的動機 271 9.2 矩陣的基礎 272 9.2.1 轉置矩陣 272 9

.2.2 對稱矩陣及其特性 272 9.2.3 對角矩陣與單位矩陣 272 9.2.4 哈達馬積 273 9.2.5 點積 273 9.2.6 對角矩陣的特性與操作方法 273 9.2.7 度矩陣與鄰接矩陣 275 9.3 鄰接矩陣的幾種操作 275 9.3.1 獲取有向圖的短邊和長邊 276 9.3.2 將有向圖的鄰接矩陣轉成無向圖的鄰接矩陣 277 9.4 實例26:用圖卷積神經網路為論文分類 278 9.4.1 CORA資料集 278 9.4.2 代碼實現:引入基礎模組並設置運行環境 279 9.4.3 代碼實現:讀取並解析論文數據 279 9.4.4 代碼實現:讀取並解析論文關係資料 

281 9.4.5 代碼實現:加工圖結構的矩陣資料 283 9.4.6 代碼實現:將資料轉為張量,並分配運算資源 284 9.4.7 代碼實現:定義Mish啟動函數與圖卷積操作類 284 9.4.8 代碼實現:搭建多層圖卷積網路 286 9.4.9 代碼實現:用Ranger優化器訓練模型並視覺化結果 287 9.5 圖卷積神經網路 290 9.5.1 圖結構與拉普拉斯矩陣的關係 290 9.5.2 拉普拉斯矩陣的3種形式 291 9.6 擴展實例:用Multi-sample Dropout優化模型的訓練速度 291 9.6.1 Multi-sample Dropout方法 292 9.6.2 

代碼實現:為圖卷積模型添加 Multi-sample Dropout方法 292 9.6.3 代碼實現:使用帶有Multi-sample Dropout方法的圖卷積模型 293 9.7 從圖神經網路的視角看待深度學習 294 9.8 圖神經網路使用拉普拉斯矩陣的原因 295 9.8.1 節點與鄰接矩陣的點積作用 295 9.8.2 拉普拉斯矩陣的點積作用 296 9.8.3 重新審視圖卷積的擬合本質 296 9.8.4 點積計算並不是 方法 296 第10章 基於空間域的圖神經網路實現 297 10.1 重新認識圖卷積神經網路 298 10.1.1 基於譜域的圖處理 298 10.1.2 基

於頂點域的圖處理 298 10.1.3 基於頂點域的圖卷積 298 10.1.4 圖卷積的特性 299 10.2 實例27:用圖注意力神經網路為論文分類 300 10.2.1 圖注意力網路 300 10.2.2 工程部署 301 10.2.3 代碼實現:對鄰接矩陣進行對稱歸一化拉普拉斯矩陣轉化 301 10.2.4 代碼實現:搭建圖注意力神經網路層 301 10.2.5 代碼實現:搭建圖注意力模型類 302 10.2.6 代碼實現:產生實體圖注意力模型,並進行訓練與評估 303 10.2.7 常用的圖神經網路庫 304 10.3 圖神經網路常用庫——DGL庫 305 10.3.1 DGL庫的實

現與性能 305 10.3.2 安裝DGL庫的方法及注意事項 305 10.3.3 DGL庫中的資料集 306 10.3.4 DGL庫中的圖 307 10.3.5 DGL庫中的內聯函數 307 10.3.6 擴展:瞭解PyG庫 307 10.4 DGLGraph圖的基本操作 308 10.4.1 DGLGraph圖的創建與維護 308 10.4.2 查看DGLGraph圖中的度 309 10.4.3 DGLGraph圖與NetWorkx圖的相互轉化 310 10.4.4 NetWorkx庫 311 10.4.5 DGLGraph圖中頂點屬性的操作 313 10.4.6 DGLGraph圖中邊屬

性的操作 314 10.4.7 DGLGraph圖屬性操作中的注意事項 314 10.4.8 使用函數對圖的頂點和邊進行計算 315 10.4.9 使用函數對圖的頂點和邊進行過濾 315 10.4.10 DGLGraph圖的消息傳播 316 10.4.11 DGL庫中的多圖處理 317 10.5 實例28:用帶有殘差結構的多層GAT模型實現論文分類 318 10.5.1 代碼實現:使用DGL資料集載入CORA樣本 319 10.5.2 用鄰居聚合策略實現GATConv 321 10.5.3 代碼實現:用DGL庫中的GATConv搭建多層GAT模型 323 10.5.4 代碼實現:使用早停方式訓

練模型並輸出評估結果 324 10.6 圖卷積模型的缺陷 327 10.6.1 全連接網路的特徵與缺陷 327 10.6.2 圖卷積模型的缺陷 328 10.6.3 彌補圖卷積模型缺陷的方法 328 10.6.4 從圖結構角度理解圖卷積原理及缺陷 328 10.7 實例29:用簡化圖卷積模型實現論文分類 329 10.7.1 SGC的網路結構 330 10.7.2 DGL庫中SGC模型的實現方式 331 10.7.3 代碼實現:搭建SGC模型並進行訓練 333 10.7.4 擴展: SGC模型的不足 334 10.8 實例30:用圖濾波神經網路模型實現論文分類 334 10.8.1 GfNN的

結構 334 10.8.2 代碼實現:搭建GfNN模型並進行訓練 335 10.9 實例31:用深度圖互資訊模型實現論文分類 337 10.9.1 DGI模型的原理與READOUT函數 337 10.9.2 代碼實現:搭建多層SGC網路 338 10.9.3 代碼實現:搭建編碼器和判別器 339 10.9.4 代碼實現:搭建DGI模型並進行訓練 340 10.9.5 代碼實現:利用DGI模型提取特徵並進行分類 342 10.10 實例32:用圖同構網路模型實現論文分類 344 10.10.1 多重集與單射 344 10.10.2 GIN模型的原理與實現 344 10.10.3 代碼實現:搭建多

層GIN模型並進行訓練 346 10.11 實例33:用APPNP模型實現論文分類 347 10.11.1 APPNP模型的原理與實現 347 10.11.2 代碼實現:搭建APPNP模型並進行訓練 349 10.12 實例34:用JKNet模型實現論文分類 351 10.12.1 JKNet模型結構 351 10.12.2 代碼實現:修改圖資料的預處理部分 352 10.12.3 代碼實現:搭建JKNet模型並進行訓練 352 10.13 總結 355

顯卡記憶體不足進入發燒排行的影片

-本集收錄-
1.陰險偷人點位轉職打野。
學習重點:開場前先把需要的Open點打開,被壓制時冷靜處理拖延時間。
2.木屋地下室防守範圍超大的角落。
學習重點:五窗點位C4外炸,利用掩體前後防守。
3.Ying開場遇敵單挑。
4.拷問出手,天下我有。
5.游擊並且隨時提供訊息。
學習重點:注意點上的隊友位置,在敵情不明的情況下自動補上防禦不足的方位。
6.孤狼流拷問女。
學習重點:盡可能遠離敵方進攻路線,依靠隊友報位回推防守。
7.一個情報翻盤戰局。
學習重點:溝通的重要性。





虹彩六號一款很不錯的遊戲,我也希望玩家越來越多,社群持續壯大。
我在一些論壇上有看過玩家們放上自己的剪輯片段,有些東西做得不錯,但是瀏覽量不是很高,覺得可惜。
因此,如果你也是喜歡製作影片的玩家,從今以後,我歡迎、也誠摯的邀請你在我的影片下方留言中,貼上你的影片連結,希望能幫助你增加影片曝光率。(留言含有非Youtube網址時,可能會被系統暫時擋住,直到我進入後台按下核准才會出現,我會盡量每半天看一次留言,讓訊息趕快出現。)
而觀眾們也不妨試試看捧場那些貼出頻道連結的作者,或許能找到你也喜歡的頻道。(即便不合胃口的影片,也請以友善、包容、尊重的態度留下意見,那是對創作者的一種支持。創作者們受到評論,也請用同樣的心態正視每個意見。)

社群是集體努力的成果,不管你是觀眾、玩家、影片製作者,當我們共同熱絡在其中,R6或許可以再戰87年???


感謝你花時間閱讀,Let's go!






硬體規格
CPU:i7-3770
顯卡:GTX970
記憶體:20G
SSD:240G
一般硬碟:1T
主機板:P8Z77-V LX

大家好! 這裡是Gamer-V的遊戲頻道,我叫做Vick。。
每一個觀眾的支持,都是頻道繼續成長的動力。
如果你覺得影片不錯,至少能讓你笑一下或者學了幾招,那請別忘了幫我按個讚或者訂閱喔!

也希望大家能多多將想法留言下來,不管是針對當集影片或者是未來期望能看到的內容,因為每個意見都是改善的機會。

頻道裡會漸漸增加一些不同類型的遊戲,請大家隨意支持喔!!

謝謝大家~~

By the way~
如果有興趣一起參與錄製的觀眾們,可以加入以下Discord頻道,錄影的時間不一定,有機會我就會從這邊找人喔~
https://discord.gg/ZnU2vMb


R6圖像設定:
貼圖:高
材質:16X
細節:超高
著色:高
陰影:非常高
反射:高
環境光:HBAO+
鏡頭:溢光+鏡頭眩光
聚焦:開
反鋸齒:T-AA
渲染倍數:100
T-AA銳利度:50


槍上的紅色火焰塗裝,是「烈火」塗裝,參加測試送的,但是現在不知道要怎麼得到了

片尾音樂:https://www.youtube.com/watch?v=J2X5mJ3HDYE
片頭音樂完整版:https://www.youtube.com/watch?v=wPA05_yw9HA
片頭音樂:https://www.youtube.com/watch?v=TbSwCoThlbo

遊戲開發:世嘉新人培訓教材

為了解決顯卡記憶體不足的問題,作者(日)平山尚 這樣論述:

全面介紹了遊戲開發人員需要掌握的相關技術知識。內容由淺入深,從命令列遊戲開發講起,然後介紹如何開發簡單的2D遊戲,最後介紹如何開發出一個包含模型和動畫的3D遊戲,涵蓋了電腦圖形學(3DCG、2DCG、字體、光照、動畫)、電腦運算(碰撞處理、計算誤差)、程式設計(模組化、bug預防、性能優化)、遊戲處理(狀態遷移、即時處理、載入)和聲音處理等知識。 平山尚 1977年生於日本北海道,曾在京都大學研究生院工學研究科進行基因研究,畢業後進入世嘉株式會社,參與了《電腦戰機》(PS2)、《超級網球大獎賽3》(AC、PS3)的開發。著有《我的第一本程式設計書》。   羅水東 遊戲開發工

程師,15年軟體和遊戲開發經驗。熱愛技術,樂於分享心得。目前主要關注的領域為3D休閒遊戲開發和底層引擎技術。   第 1部分 2D 遊戲.1 第 1章 第 一個遊戲2 1.1 開發一個益智遊戲 .3 1.2 示例代碼解說 7 1.3 添加讀取場景資料的功能 16 1.4 C++ 課堂 21 1.5 補充內容:標誌位元和位元運算26 1.6 補充內容:指標和記憶體 34 1.7 補充內容:引用 41 1.8 本章小結 46 第 2章 從圖元開始學習2D 圖形處理 .47 2.1 什麼是2D 圖形處理 48 2.2 準備工作 50 2.3 列印一個點 54 2.4 移植《箱子

搬運工》 .55 2.5 補充內容:結束處理 .58 2.6 本章小結 60 第3章 使用圖片素材 61 3.1 讀取圖片檔 .62 3.2 帶圖片的《箱子搬運工》的示例代碼72 3.3 使用透明通道 .75 3.4 標頭檔包含關係的組織策略 .82 3.5 補充內容:透明混合的性能優化 86 3.6 補充內容:加法混合 .88 3.7 本章小結 90 第4章 即時遊戲 91 4.1 什麼是即時遊戲 92 4.2 運行動畫 95 4.3 帶動畫的《箱子搬運工》.96 4.4 獲得遊戲的幀率 .101 4.5 解決幀率差異 103 4.6 補充內容:根據幀率變化動態改變遊戲運行速度 105

4.7 補充內容:影像撕裂現象 110 4.8 本章小結 .111 第5章 簡單的狀態遷移 113 5.1 往類庫追加功能 .114 5.2 相對直接的做法 .117 5.3 試著增加狀態 119 5.4 代碼審查 .122 5.5 示例代碼解說 128 5.6 本章小結 .136 第6章 文本繪製方法 .137 6.1 字體圖片 .138 6.2 文本繪製函數 138 6.3 一些改進 .140 6.4 成果驗證 .142 6.5 示例代碼解說 143 6.6 注意著作權 147 6.7 示例類庫的功能 .147 6.8 本章小結 .148 第7章 動作遊戲初體驗 149 7.1 用到

的類庫 150 7.2 開發《炸彈人》 .151 7.3 示例代碼解說 152 7.4 添加背景顯示 157 7.5 配置移動的物件 .164 7.6 遊戲的改進方向 .169 7.7 本章小結 .170 第8章 2D 平面內的碰撞處理 171 8.1 碰撞檢測 .172 8.2 碰撞回應 .174 8.3 發生多個碰撞時的問題 .179 8.4 碰撞回應與操作性 180 8.5 移動的物體相互碰撞 184 8.6 《炸彈人》的碰撞處理 .184 8.7 本章小結 .186 第9章 各種輸入裝置 .187 9.1 獲取輸入裝置實例 188 9.2 鍵盤 189 9.3 滑鼠 189 9.4

 手柄 190 9.5 在《炸彈人》遊戲中使用手柄 .191 9.6 本章小結 .193 第 10章 狀態遷移詳解 194 10.1 問題定位 195 10.2 使用繼承 195 10.3 實際運用 198 10.4 補充內容:簡化狀態遷移的代碼 .201 10.5 補充內容:跨層級的狀態遷移處理的改進 204 10.6 補充內容:繼承的原理 208 10.7 本章小結 213 第 11章 播放聲音 .215 11.1 關於音訊類庫 216 11.2 補充內容:電腦如何播放聲音 .218 11.3 補充內容:音高和音量 219 11.4 補充內容:音色 220 11.5 補充內容:聲音的疊

加 221 11.6 補充內容:do、re、mi 的原理 222 11.7 補充內容:演奏樂譜 223 11.8 補充內容:讀取WAV 音訊檔 225 11.9 補充內容:使用Sound 模組來合成聲波 .226 11.10 本章小結 226 第 12章 旋轉、縮放與平移 227 12.1 旋轉 .228 12.2 引入向量和矩陣 241 12.3 利用頂點來實現 246 12.4 縮放 .253 12.5 在縮放的同時進行旋轉.255 12.6 矩陣的力量 .256 12.7 補充內容:旋轉公式的由來 263 12.8 補充內容:更為實用的旋轉處理方法 266 12.9 補充內容:數學中的

矩陣 .267 12.10 本章小結 271 第 13章 顯卡的力量 272 13.1 關於使用的類庫 273 13.2 使用顯卡繪製三角形 273 13.3 將圖像貼到三角形中 275 13.4 混合模式 278 13.5 旋轉、縮放和移動 .278 13.6 移植《炸彈人》 281 13.7 本章小結 284 第 2部分 3D 遊戲285 第 14章 繪製立體物體 286 14.1 關於類庫 287 14.2 開始製作3D 動作遊戲《機甲大戰》 .287 14.3 繪製三角形 .289 14.4 按位置前後繪製物體 290 14.5 將遠處的物體繪製得小一些 294 14.6 座標變換

303 14.7 用矩陣表示透視變換 316 14.8 開始製作《機甲大戰》 322 14.9 補充內容:Z 緩存的精度問題 335 14.10 本章小結 338 第 15章 類庫的封裝方法 .340 15.1 整體設計 341 15.2 資源的詳細內容 342 15.3 試運行 350 15.4 從文件載入 .352 15.5 補充內容:將類庫從遊戲中分離 .354 15.6 本章小結 363 第 16章 偽XML 文件的讀取 364 16.1 確定檔案格式 365 16.2 創建前的準備 366 16.3 處理流程 368 16.4 字串解析 .371 16.5 編寫代碼 373 1

6.6 運用 .375 16.7 示例代碼解說 378 16.8 補充內容:生成資料檔案382 16.9 本章小結 385 第 17章 編寫高性能的代碼 386 17.1 演算法與時間複雜度 .387 17.2 資料結構基礎 390 17.3 輸送量與延遲 402 17.4 並行處理 404 17.5 記憶體問題 404 17.6 STL 和資料結構 411 17.7 性能瓶頸分析 416 17.8 補充內容:函式呼叫的開銷 417 17.9 補充內容:高效運算與低效運算 .420 17.10 本章小結 422 第 18章 3D 碰撞處理 .423 18.1 長方體的碰撞處理 .424 1

8.2 使用浮點數的碰撞檢測 427 18.3 三角形和線段的相交檢測 .436 18.4 實用性 445 18.5 其他問題 447 18.6 本章小結 448 第 19章 《機甲大戰》的設計 450 19.1 狀態遷移 451 19.2 操作 .451 19.3 發射導彈 454 19.4 將功能整合到一起 .457 19.5 前端展現 461 19.6 不足之處 463 19.7 本章小結 464 第 20章 光照 465 20.1 看見物體的過程 466 20.2 光的衰減過程 469 20.3 嘗試計算 473 20.4 整合到《機甲大戰》中.479 20.5 補充內容:性能優化

480 20.6 補充內容:更好的繪製效果 483 20.7 本章小結 484 第 21章 角色動畫 .485 21.1 相對運動 486 21.2 層級Model 類 492 21.3 自動構建樹結構 495 21.4 將動畫數據化 500 21.5 補間方法 506 21.6 引入到《機甲大戰》中.518 21.7 補充內容:聯立方程組vs 斜率指定法 519 21.8 補充內容:不足之處 520 21.9 本章小結 523 第3部分 通往商業遊戲之路525 第 22章 高效的碰撞檢測 .526 22.1 低效的迴圈判斷方法 527 22.2 性能改善的基本思路 528 22.3 基

於排序的方法 531 22.4 依靠分割實現的方法 539 22.5 補充內容:改進等分切割法545 22.6 補充內容:空間分割的高級技巧 .548 22.7 本章小結 552 第 23章 數據載入 .554 23.1 為何載入時間越來越長.555 23.2 檔載入類 .556 23.3 通過合併檔提升性能.562 23.4 通過壓縮提升性能 .571 23.5 補充內容:多執行緒非同步處理579 23.6 補充內容:編碼技術 590 23.7 補充內容:用於加密的合併與壓縮 591 23.8 本章小結 592 第 24章 float 的用法 593 24.1 位數限制 594 24.2

 float 的實現 594 24.3 位數截斷帶來的誤差 596 24.4 誤差程度 597 24.5 減小誤差的方法 600 24.6 特別的數 606 24.7 本章小結 608 第 25章 隨書類庫概要 609 25.1 類庫中的類 .610 25.2 啟動設定 611 25.3 Framework 模組 613 25.4 WindowCreator 模組 614 25.5 FileIO 模組 614 25.6 Base 模組 615 25.7 Math 模組 616 25.8 Threading 模組 618 25.9 Input 模組 .620 25.10 Sound 模組 62

0 25.11 PseudoXml 模組 621 25.12 Graphics 模組 621 25.13 Scene 模組 628 25.14 抗鋸齒處理 630 25.15 將《機甲大戰》改用最終版類庫實現 631 25.16 X 文件 .633 25.17 本章小結 634 第 26章 bug 的應對方法 .635 26.1 防火與滅火 .636 26.2 bug 的種類 .636 26.3 bug 的預防 .641 26.4 bug 的處理 .654 26.5 《機甲大戰》的處理 656 26.6 補充內容:如何檢測記憶體溢出 657 26.7 本章小結 660 第 27章 進階方向

.662 27.1 應該學習什麼 663 27.2 工具開發 664 27.3 AI 667 27.4 網路 .667 27.5 shader 668 27.6 參考文獻 669 27.7 一些期待的書 672 後記 .675 致謝 .676