scaling laws for language transfer
1.0.0
來自博客文章縮放法的代碼和模型,用於語言傳輸學習
基於從縮放法律進行轉移的工作(Hernandez etal。2021),我的實驗重點是探索對非英語語言進行微調之間的關係,並試圖回答這個問題:當我們在不同語言上轉移時,在不同的語言中進行預培訓時,我們會隨著不同的語言和模型大小而變化?
此存儲庫包含:
所有英語預培訓模型均經過260億個令牌培訓,沒有重複: