![見出し画像](https://assets.st-note.com/production/uploads/images/94566249/rectangle_large_type_2_076e2a6e6051e87bbdbd2a461aba2113.png?width=1200)
richman式を掘り下げる[コード付き]
こんばんは。Qです。今年ももう終わりですね。
最近richman式やら機械学習botterやらの単語があまりTLで見られなくなりました。
改めて今回は下記の3点をrichmanさんのgitから掘り下げてみたいと思います。
[参考]
疑問1.特徴量って多い方が良いの?
ohlcvから作成される特徴量は意味がないという話をよく聞きます。
何故なら特徴量はohlcvに既に含まれているのでそこから計算式を変えたところで劇的に変わるわけではないという議論です。
これは諸説あると思いますが、結論、厳密な方法じゃなくても良いので試してみると良いのでは?となりました。
疑問2.そもそも最近勝てないのってなんでなの?
一部の強強を除いてrichman式は最近勝てないと言われています。
そもそも勝てないのは何故でしょうか??
仮説を検討していきたいと思います。
仮説1 ATRの幅に変化があった
仮説2 ヒゲの長さに変化があった
疑問3.回帰と分類どっちがいいの?
そもそも正解ラベルが0が多いのが問題というのはrichman式でよく言われています。
実際に下記のnoteで分類の方が良いというのは言われています。
機械学習ボットにおける問題設定について|yseeker|note
というわけで上記を検討したコードとPDFを今年最後のノートにしたいと思います。
結果的な話ですが、最近はうまくやればまた勝てるタイミングではあるようです。
![](https://assets.st-note.com/img/1672490104644-FHPbixl8ZQ.png?width=1200)
下記コードとまとめPDF
ここから先は
0字
/
1ファイル
¥ 1,000
この記事が気に入ったらチップで応援してみませんか?