非エンジニアが毎月1万円のお小遣いの為に活用するデータ分析&RPA
この記事は、非エンジニアだけれどもデータ分析,RPAに関心がある人向けの記事です。
内容は、BisDevの私が基本的なデータ分析とRPAを使って、せどりで毎月1万円の利益を出している方法です。(作業時間は凡そ3時間程です。)
非エンジニアが難しいロジックやアルゴリズムは作れないかもしれないけれども、Techツールを実績へ変える橋渡しになれる事を書いています。
結論
仕入商品は感覚ではなくデータで決める
利益見込み調査は手作業ではなく自動化する
最後の判断だけは人間が行う
仕入商品は感覚ではなくデータに頼る
まずは仕入商品の選定です。市場原理に従えば、良く売れている+競争が激しくない商品を見つける事が重要です。
そこで利用するのが、楽天市場ランキングAPIです。
このAPIを使えば、楽天における売上ランキングを、順位を絞って取得する事が出来ます。ここで敢えて、1位~30位等の上位ではなく、90位~150位の商品を調べます。
90位~150位であれば、市場でまあまあ売れていて、かつ競争が激しくない商品を特定する事が出来ます。
私は仮想サーバーで毎日1回自動でAPIを走らせる仕組みを作りました。(未経験者でもネット上の情報を集めながら作れば、1週間ほどで出来ます。)
利益見込み調査は手作業ではなく自動化する
仕入候補の商品が決まった後は、”売ったら利益が出るか?”を調べます。例え売上ランキングでランクインしていても、市場に溢れていては利益が出せません。
そこで私は、メルカリ上の商品金額をスクレイピング取得する仕組みを作りました。
「仕入候補商品」「売りたい金額」をCSVリストにして取り込みするだけで、メルカリをスクレイピングする処理が走ります。
販売済みの商品数・販売中の商品数=需要と供給のバランスはどうか?(需要が供給に勝っているか?)
販売済み商品の中央値・平均値=凡そいくらで売れるのか?
販売中商品の中央値・平均値=今いくらで売られているのか?
これらが自動で分かります。一つひとつの商品をメルカリで調べると、1つ3分としても1時間で20商品しか調べられません。そして、そのような作業に何時間もかけるのは体力や気力的に大変です。
この仕組みはPythonのFlaskとSeleniumを使い、ネットで調べつつ、一部をCrowdworksで依頼して作りました(仮想サーバ設定とSeleniumは自分で作りました。FlaskとHTMLは外注しました。)
スクレイピングさせている間は読書などに時間を当てる事が出来るようになり、かなり作業が楽になりました。
最後の判断だけは人間が行う
仕入商品の候補が決まり、その中でも利益が出そうな商品が分かったら、最後の仕上げは人が行います。
あくまでスクレイピングは、検索ワードに該当する全商品の中央値,平均値をとっていますので、関係ない商品の金額も含まれている可能性があります。
利益が出そうだな、と目星がついた商品は最後に一つひとつ自分で調べて、最終判断を下します。この判断だけは人が介在する作業になります。機械と人の棲み分けですね。
上記の作業を行った結果、
・仕入商品の候補=凡そ200商品
・うち、利益が出そうな商品=凡そ20商品
・うち、目視確認で仕入れると判断した商品=凡そ6~10商品
とステップを踏んで、利益を出せる商品をできるだけを効率的に特定できるようになりました。
毎月1万円は大きな金額では無いかもしれません。しかし、データ分析とRPAを利益に繋げるという体験は金額以上の価値があり、本業にも活きそうな経験でした。
以上です。本記事が何かしらのインサイトに繋がれば幸いです。