先日、Anthropic社のAIアシスタント「Claude」がアップデートされました。これを機に、ブラウザ上で動作するシンプルなゲームを作成させ、その性能を改めて確認してみることにしました。
試してみた感想としては、非常に気が利くAIになったという印象です。以前からClaudeは優秀でしたが、今回のバージョンでは、こちらが指示を出さなくてもタッチデバイスへの対応や画面サイズの調整が自然に組み込まれていました。これは、以前のClaude 3.5ではユーザーからの明確な指示が必要だった部分です。
確かに細かな改善が施されていて、その進化を実感できました。
出来上がったものとプロンプト
さて、プロンプトは非常にシンプルなものでした。以下の5つの指示を順に与えただけです。
こちらからの具体的な要件がない中——というか、自分の中にも明確な答えがない中で、Claudeはどんなゲームを生み出すのでしょうか。
早速ですが、完成したものが以下となります。
完成したは良いものの、ゲームの遊び方が少し不明だったため、Claudeにマニュアルを作成してもらいました。(こういうのも便利ですよね。AIに作ってもらって、AIに説明してもらう。)
マニュアル
問題点と課題
Claudeの進化には目を見張るものがありますが、従来同様にコードが長くなると後半部分の生成が止まるという課題も残っています。そのため、途中で「続きを生成して」と指示を出す必要がありました。(昔のChatGPTには「続きを生成」ボタンがあったことを思い出し、懐かしくなりました🤖)
この分断されたコードをマージしてあげるのに、一手間かかりますね。
まとめ
ゲームとしての完成度、面白さはともかく、ルール作りからコーディングまで一連の流れを短時間で完遂してくれるのはやはり驚異的です。今回のように、わずか10分程度のプロンプト操作でここまでのものが生成できるのは素晴らしい結果と言えるでしょう。
しかし、最終的な面白さを追求するのはやはり人間の役割です。AIのサポートを受けながら、人間がアイデアをブラッシュアップし、さらに改良を重ねていくことで、より優れた作品がスピーディーに仕上がることでしょう。
余談
さらに効率良く、品質を向上させたい場合、他のAIにコードのレビューを依頼するのも有効な手段です。もちろん、テストでバグを発見するのも一つの方法ですが、それよりも時間をかけずに安く仕上げるためには、適切なコードレビューが不可欠です。(根拠となるソースは下部に掲載。)
今回のケースではClaudeでゲームを作成したため、OpenAI o1-previewにコードをチェックしてもらうのが良さそうです。その後、Claudeにフィードバック内容を渡し、必要な部分だけ修正してもらうことで、手間を省きつつ品質も向上できます。
↑この連携、コードだけなんですよね。つまり、文法的なチェック(いわゆる静的コードレビュー)と、コードから類推される機能しかチェックしていません。
可能であれば、別途要件(やりたいこと)を連携してあげて、チェックしてもらえればさらに品質は上がりそうですね。
要するにゲームもそうですが、プレイヤーみんながデバッガー!的な発想は本当に良いのかい?という問いでもあります🙄
アプデでバグを潰せば良いや!は本当に安上がりな方法なのでしょうか。