tanuki- 2024-03-20 halfkp_1024x2-8-32 Fine-tuning Suisho10Mn_psv
実験内容
- nnue-pytorch で学習した halfkp_1024x2-8-32 ネットワークを、 Suisho10Mn_psv を用いて、やねうら王純正の学習器を用いて Fine-tuning する。
シャッフル条件
生成ルーチン | tanuki-シャッフルルーチン |
qsearch() | あり |
置換表 | 無効 |
min_progress | 0.1 |
機械学習
機械学習ルーチン | やねうら王機械学習ルーチン |
学習モデル | halfkp_1024x2-8-32 |
学習手法 | SGD ミニバッチ法 |
USI_Hash | 1024 |
Threads | 16 |
loop | 1000 |
batchsize | 1000000 |
lambda | 0.0 |
eta | eta1=1e-8 eta2=0.001 eta1_epoch=100 |
newbob_decay | 0.5 |
nn_batch_size | 1000 |
eval_save_interval | 500000000 |
loss_output_interval | 1000000 |
mirror_percentage | 50 |
eval_limit | 32000 |
weight_by_progress | 無効 |
次元下げ | K・P・相対KP |
学習データ内で重複した局面の除外 | バージョンのデフォルトに依存する |
初期ネットワークパラメーター | tanuki-.nnue-pytorch-2024-02-28 |
勝敗項の教師信号 | 0.999 |
レーティング測定
対局相手 | https://docs.google.com/document/d/1razZwLBDtB47gLhNsWQwNZqW9S1qC3S7ZVfEzGwaAxo/edit?usp=sharing tanuki-.nnue-pytorch-2024-02-28 |
思考時間 | 持ち時間 300 秒 + 1 手 2 秒加算 |
対局数 | 5000 |
同時対局数 | 64 |
ハッシュサイズ | 384 |
開始局面 | dlshogi 互角局面集の角換わりの割合が 10% になるよう間引いたもの |
実験結果
機械学習
レーティング測定
対局数=2000 同時対局数=64 ハッシュサイズ=384 開始手数=24 最大手数=320 開始局面ファイル=C:\Jenkins\workspace\TanukiColiseum.2023-04-16\TanukiColiseum\bishop_exchange.2023-06-25.sfen NUMAノード数=1 表示更新間隔(ms)=3600000
思考エンジン1 思考エンジン2
name YaneuraOu NNUE 7.63 64ZEN2 TOURNAMENT YaneuraOu NNUE 7.63 64ZEN2 TOURNAMENT
author by yaneurao by yaneurao
exeファイル C:\Jenkins\workspace\TanukiColiseum.2023-04-16\engine1\source\YaneuraOu-by-gcc.exe C:\Jenkins\workspace\TanukiColiseum.2023-04-16\engine2\source\YaneuraOu-by-gcc.exe
評価関数フォルダパス D:\hnoda\shogi\eval\tanuki-.nnue-pytorch-2024-02-28.Suisho10Mn_psv.min_progress=0.1\0 D:\hnoda\shogi\eval\tanuki-.nnue-pytorch-2024-02-28
定跡手数 256 256
定跡ファイル名 no_book no_book
思考ノード数 0 0
思考ノード数に加える乱数(%) 0 0
思考ノード数の乱数を1手毎に変化させる False False
持ち時間(ms) 300000 300000
秒読み時間(ms) 0 0
加算時間(ms) 2000 2000
乱数付き思考時間(ms) 0 0
スレッド数 1 1
BookEvalDiff 30 30
定跡の採択率を考慮する false false
定跡の手数を無視する false false
SlowMover 100 100
DrawValue -2 -2
BookEvalBlackLimit 0 0
BookEvalWhiteLimit -140 -140
FVScale 16 16
Depth=0 0
MinimumThinkingTime 1000 1000
対局数2000 先手勝ち901(47.6%) 後手勝ち990(52.4%) 引き分け109
engine1
勝ち559(29.6% R-141.6 +-16.5) 先手勝ち258(13.6%) 後手勝ち301(15.9%)
宣言勝ち42 先手宣言勝ち15 後手宣言勝ち27 先手引き分け53 後手引き分け56
engine2
勝ち1332(70.4%) 先手勝ち643(34.0%) 後手勝ち689(36.4%)
宣言勝ち9 先手宣言勝ち5 後手宣言勝ち4 先手引き分け56 後手引き分け53
559,109,1332
学習ロスと検証ロスは、学習が進むにつれて下がっていった。
検証ロスは途中で下げ止まり、学習率が下がった。
レーティングは、 tanuki-.nnue-pytorch-2024-02-28 に比べて有意に低かった。
考察
学習ロスト検証ロスは、 Fine-tuning を行うにあたり、学習率が高すぎることを表していると思う。
レーティングが有意に低かったのは、学習率が高すぎ、学習データに過学習しているためだと思う。
まとめ
nnue-pytorch で学習した halfkp_1024x2-8-32 ネットワークを、 Suisho10Mn_psv を用いて、やねうら王純正の学習器を用いて Fine-tuning した。
レーティングは、 tanuki-.nnue-pytorch-2024-02-28 に比べて有意に低かった。レーティングが有意に低かったのは、学習率が高すぎ、学習データに過学習しているためだと思う。
次回は、 nnue-pytorch を使い、学習率を大幅に下げて学習させ、レーティングを測定したい。