使えるデータサイエンティスト
一昨年あたりから、ビッグデータを扱いたい、AIやIoTを導入したいと企業から相談が来ます。
全ての相談がそうだという訳ではないのですが、多くの場合テクノロジーありきで考えておられる場合が多いのです。
それはそれ自体が悪いことではなく、良いきっかけだと思いますし、テクノロジーにオープンであることは良いことです。
重要なことは、テクノロジーが(今まで解決できなかった)どのような問題を、どのように解決し、それによりどのような便益が得られるのか、そしてそれが経営戦略上どのような意義をどれだけ有するのかを、熟考することです。
実際の例として、経理の業務にRPAを導入したクライアントがいます。こちらがRPAを勧めたのではなく、既に相談される前に導入していたのですが、業務フローを見直すことなく導入し、何一つ効率化されてはいません。今のところ。
別のクライアントの例。中堅製造業様ですが、「とりあえずデータが大量にあるので、AIを使って何かできないか」とのこと。
IoTだビッグデータと騒がれるはるか前から、製造業ではSPC(統計的プロセス管理)を当たり前のようにやってきていますし、故障や不良のデータに基づく予兆検知も行われています。
最近のビッグデータマネジメントはこれと何が違うのでしょうか。ただ違うだけではなく、新たな付加価値を生むのでしょうか。
データサイエンティストは経営を科学することが使命ですから、現在そして今後意味のある仕事をするのであれば、まず、
①基本的な統計知識(Excelに標準装備の統計関数(検定を含む)やその使い方を理解していることは最低限の要件ですね。ビジネス数学検定を準備無しで受けてAA合格以上(80点以上)とれる)
②プログラミングのスキル(ただこれは必須ではないと思っています。プログラマーにアウトソースすれば済むので)
に加えて、
③OR(オペレーションズ・リサーチ)の各種手法も理解している
そして何より
④経営、ビジネスというものに興味があり、基本的な概念や用語はおさえている(しかしMBAを取得している必要はない)
これら4項目を満たすのが、自分が考える「使えるデータサイエンティスト」です。
ORは決して古くさい手法ではありません。
線形計画法、待ち行列(確率過程の理解が必要)、ゲーム理論など、既にビジネスで大いに活用されている重要な手法があります。
さいわいにも、自分のチームにはこういう人材が複数名いる(中にはバリバリに金融工学やっていた人間もいる)ので、チームとして社会の役に立つべく、絶賛作戦を練っているところです。
まとめると、テクノロジーリテラシーが高いだけではなく、ビジネスリテラシーもある程度あり、応用数学のリテラシーも必要ということです。複数リテラシーのかけ算で飛躍的に価値が高まるというのは自論ですが、使えるデータサイエンティストはまさにその好例です。
この記事が気に入ったらサポートをしてみませんか?