close

TinyML集合數據並雲訓練與傳統機器學習,最大差異是模型訓練後階段模型的優化和部署。麥克風TinyML為了適應嵌入式終端的有限計算資源,深度壓縮必須深度壓縮,其通常包括模型蒸餾,量化(編碼),編碼(編碼)3進程,然後還將編譯部署到終端。

TinyML模型生成過程   模態精餾的目的是使模型更緊湊,並且記憶體較少,包括修剪和知識蒸餾兩種方法。 Twig嘗試去除對神經元輸出預測影響較小神經元,網路重新訓練並微調剪枝後。 通過複製大網絡的輸出路徑簡化了小網路,並且從而簡化了模型。

知識型整改過程    定量(Quantization)是(或者大量可能的離散取值)浮點模型張量數據定點近似為用於有限多個離散值,無線麥克風數據類型可用於近32位浮點型數據進行,從而減少模型大小,記憶體消耗並加速模型推理。 舉例來說在接受的精度損耗範圍內,8位整數量化可以減少模型體積75,並且推理速度增加4次。

在嵌入式終端上,張量數據定點近似為是操作模型的最後一步。動圈式麥克風只要模型量化和編碼,它將被轉換成一種格式,可以通過某種形式的小神經網路解釋器解釋,其中最受歡迎的可能是TF Lite500kb)和TF Lite微觀(約為)20kb)。該模型是編譯為C++C++(大多數微控制器可以有效地利用記憶體)並由設備的解釋操作。

TinyML應用程式工作流程

arrow
arrow
    創作者介紹
    創作者 baggthurman 的頭像
    baggthurman

    baggthurman的部落格

    baggthurman 發表在 痞客邦 留言(0) 人氣()