動画検索
関連広告
検索結果
投稿したエージェントが評価環境で実行された際にどの程度時間がかかったのかを分かるようにできないでしょうか?0.5秒制限にどの程度近い状態なのかを知りたいです。あるいはタイムアウトした場合はログに残りますか?
前日分の戦績のログの可視化の方法を教えて頂ければ幸いです
フォーラムに「シミュレータ内時間が1エピソードで最大300sですが、GUI描画無しで回せば現実時間20-30秒で終わります」との記述がありましたが、自分の環境ではこの10倍くらいエピソード生成に時間がかかっています。(16時間で5000エピソード程度しか進みません。) ただしworkerの数を1にすると、自分の環境でも300sのエピソード生成が現実時間20-30秒で終わることを確認しました。workerの数が増えるほど時間がかかるようです。 並列化が上手くいってないのかと思いましたが、CPUの負荷はしっかりとかかっており、またメモリ容量なども余裕がある状態です。 環境設定はDockerにより行っています。 なにか原因の心当たりがあれば教えていただきたいです。
強化学習でエピソード毎に初期配置を乱数的に設定することが可能ですか?
配布されたHandyRLのサンプルで学習を行ったところ、30エポックでメモリが足りなくなり止まってしまいました。メモリの使用量を抑えて学習を進める方法はありますか?
最初に摸倣学習を実施し、学習途中で摸倣学習を外せますか?もし可能なら、必要がありますか?またどんなタイミングですか?
callbackを独自で実装するときに、提供された本だとあまり書かれておらず、その方法を教えていただきたいです、特に、エージェントが取得できない情報をエージェントに渡すためのcallbackの構築についてお願いします
logを元にして模倣学習をする方法が分かりません。教えて頂けると嬉しいです。
模倣学習について、やり方について説明していただきたいです、特に、ポリシーの登録がよくわからなくて困っています
空戦コンペは今回が初参加なのですが、前回の1位2位3位のかたのやり方について教えていただきたいです
サンプルコードで強化学習したエージェントは低高度に向かうことが多いようですが、高高度に向かうようにどんな改善方法がありますか?
学習済みのR5_contest_sample_SモデルをInitialに登録する方法がありますか?