目前的工作都是在設計自己的一些通訊協定,所以有時都會需要觀察封包收送的內容,但一直是利用 printk / printf 的方式來做。也曾經想過是不是要弄的高級一點,弄成相容於 tcpdump / w
在上一篇AI 學習紀錄 – 單步GPT推論 (2)實現在單步推論後,要回頭過來講訓練的過程。之前的文章沒細看其訓練的過程,所以在這就先從字典產生來看。 基本環境安裝 一些基本的環境 (如 anacon
接著上一篇的AI 學習紀錄 – 單步GPT推論, 網頁架設 (1),接下來就是做單步推論了。單步推論所需要安裝的東西,差不多跟完整的訓練差不多。所以還是 follow 之前的 AI 學習文章,儘量提供
最近生成式 AI 好像有點退燒,所以也少了一點研究,當然自己工作最近也忙了起來,比較沒時間。但最近隨著 Nvidia 股價噴出,多少還是要研究一點,不然貴森森的 RTX4090 就白花了。 之前研究的
很久以前有研究過破解 ZIP 的東西,其中一項就是利用 hashcat + GPU 來進行加速。那時的 GPU 還很弱,透過最近買的 NVIDA RTX 4090 ,算 PKZIP (ZipCrypt
本篇簡單使用一個語句相似型的模型,做為往後可利用的工具。這可以利用在檢查是否是同類文章或抄襲之類的,效果普普,不過也算是加減用,有需要再找更強大的。 基本環境安裝 一些基本的環境 (如 anacond
本篇簡單使用一個中英文翻譯的模型,做為往後可利用的工具。這樣大量翻譯,就不用再使用Google翻譯了! 基本環境安裝 一些基本的環境 (如 anaconda、共用 script) 的設定,已經寫在【共
本篇要介紹的是另一個語音識別專案 PPASR,一個基於飛槳的專案。由於之前試用的 ASRT 中文語音識別 效果不太好,用 sample 檔辨識不錯,但由我自己錄的聲音卻是一團糟。 今天介紹的這個 P
LXC 已經是目前工作上很常用到的技術了,不過都是基於 proxmox pve 的web介面來管理。換個 distribution 用 cli 來使用,我還真的不會。所以最近要在 Ubuntu 上弄
隨著用過的機器學習專案越來越多,開始感覺有點太混亂了,需要將各文章再整理一下。由於每個專案都有不同程度的套件相依性,自然而然需要為每個案子建立自己的虛擬環境。本文是後寫的,主要用於給前文當做參照,來安