分類:AI人工智慧學習
本文要介紹的是一個 GPT2 的聊天機器人實現,參考的專案是 GPT2-chiachat。由於該作者同時還開發了幾個專案,也會在本頁面上做更新,所以看起來會有點亂。讀者可以直接找「 UPDATE 20
接下來的幾篇文章,都是比較利用網上分享的算法所產生的模型。但話可以說在前頭,效果都不太好。但做為學習的目的,還是直得研究一翻。第一個就是 GPT2 Chinese 的這個專案。 基本環境安裝 一些基本
本文參考自 WikiExtractor 專案 ,來將中文的Wiki下載下來,以做為語料訓練。由於其產生的資料格式與下一篇要提的 GPT2 Chinese 不同,所以再進行一些修改,以符合所需。 下載專
前一篇AI 學習紀錄 – 購入RTX4090主機 後,買了一台高級 128GB RAM 的主機後,如果只拿來算 AI,似忽有點浪費,所以接著在上面打起了虛擬機的主意。 要有真實的用途才會認真,回顧之前
「工欲善其事,必先利其器」,簡單的說,就是學東西前一定要先花一筆錢,尤其是AI算法這種極吃資源的東西。 以下就先曬一下我的單 選購原則 本著是學習 AI 的用途,最吃的還是 GPU 與 RAM,所以就
接著上一篇線性迴歸,這篇繼續學習分類問題,資料與影片同樣是參考這個 Youtube 。 參考影片是要將2類的圖點分類, 我把它改的簡單一點,就是分成2類,正數與負數。 程式碼
線性回歸(WiKi)學校上過,不過從來也沒搞懂是做什麼用的。簡單的說就是為一堆散落的點,找出一個最小差距的公式。 網路上對線性迴歸的機器學習範例比較多,所以就從這篇開始學習。另外一個是分類問題,也會再
憑著一時衝動,終於花了大錢下單了一台 RTX 4090 主機,來做為人工智慧的學習的機器。為了能夠遠端的進行學習和開發,研究了一下怎麼從遠端執行 IDE 程式。 一開始是看怎麼從遠端執行 Spyder
經過上一篇的學習紀錄,瞭解到了要利用一般平台進行 GPT 訓練,似乎是一項非常昂貴的任務,所以尋找了降級的辦法。所謂的降級辦法,就是把 fp16 改用成 int8 的方式,進一步降低 CPU RAM
用了 CHAT GPT 後,就斷斷續續看了一些基本的 AI 基本 library 的用途介紹,包含 pandas: 一維/二維陣列處理 numpy: 多維陣列處理、矩陣乘法 pillow: 圖型處理