1 回答
斯蒂芬大帝
TA貢獻(xiàn)1827條經(jīng)驗(yàn) 獲得超8個贊
我認(rèn)為這取決于你的模型。如果您使用的是深度學(xué)習(xí)模型,例如LSTM或RNN,并且取決于您使用的庫,則可能是可能的。許多人使用預(yù)先訓(xùn)練的CNN來訓(xùn)練他們的圖像識別和生成模型。我不確定你會如何加入兩個已經(jīng)訓(xùn)練過的模型的權(quán)重。從頭開始,使用Keras,我會訓(xùn)練一個模型,保存權(quán)重,將權(quán)重加載到另一個模型中(假設(shè)它們具有相同的架構(gòu)和參數(shù),然后在其他20個單詞上訓(xùn)練第二個模型。此外,可能值得研究一些分布式學(xué)習(xí)解決方案。我只知道有哪家供應(yīng)商的產(chǎn)品(我沒有聽說過開源產(chǎn)品)提供集中模型權(quán)重的產(chǎn)品,并允許您在不同位置的不同數(shù)據(jù)上訓(xùn)練數(shù)據(jù),然后集中合并這些權(quán)重。例如,不同的醫(yī)院可以在不共享數(shù)據(jù)的情況下共享模型訓(xùn)練,這在考慮隱私時是非常有益的。
添加回答
舉報(bào)
0/150
提交
取消
