見出し画像

ChatGPTに質問したい科学の話

今ChatGPTの有効な使い方の記事がたくさん登場しています。

使ってみた感想では、個人的には工夫次第ですごく便利だなと感じました。生産性向上という観点では、まだまだ留意点があるような気がしたので、その辺は別途書くとして、今回は「ChatGPTに宇宙や科学」について質問すると面白かったので、久々に note を書きました。

ChatGPTの利用において言うまでも無いこと

  • ChatGPTへの質問に個人情報や機密情報は絶対に記載しないこと

    • さらに「個人を特定可能ではないが…」「機密ではないかもしれないが…」というレベルでも絶対に記載しないこと

具体的な質問をする場合、シチュエーションやらデータは完全にサンプルを作る、あるいはシチュエーションやサンプルデータ自体もChatGPTに作成してもらってから質問する、などの配慮が必須です。

利用時の前提

どこかにガイドラインがあるのかもしれませんが、基本的に以下は前提となるはずです。

  • 高度な科学的知見を要する回答に正確性を求めてはいけない

  • とくに医療に関するもの、得られた情報の利活用における影響が大きい場合は、絶対に参考にしてはいけない

一方でエンタメという観点では(あくまでど素人が)宇宙などの科学的な疑問に対して、色々質問するのはエンタメとしてアリだなーと思いました。

少しだけ、質問例を紹介します!

質問例①

TED日本語 - ドナルド・ホフマン: 我々には現実がありのままに見えているのか? | デジタルキャスト (digitalcast.jp)

質問例②

当たり障りない回答にはなるものの、ど素人にとっては「やっぱそうなんかな~?」「なるほど~」と思う内容も多くて楽しめます。ここから更に質問を重ねて深掘っていくと「この辺が回答の限界か?」というのも見えてきます。

本来はQuoraのようなプラットフォームが、その役割を担うのでしょうが、匿名アカでは名指しで質問ができず、匿名だと全くレスがなかった経験もあり敬遠しがちでした(5年くらい前の話ですが)。

他にも色々質問しました。以前は英語で質問した方が精度が高いことがあったため、DeepLでシュッと翻訳した英語で質問したりします。

ループ量子重力理論とは何ですか?超ひも理論との違いを簡単に説明してください(What is loop quantum gravity theory? Can you briefly explain how it differs from string theory?)
量子力学におけるコペンハーゲン解釈と多世界解釈の違いについて教えてください。(Could you please explain the difference between the Copenhagen interpretation and the many-worlds interpretation in quantum mechanics?)
学習済みAIモデルの推論について質問です。推論時の演算では、Transformer以降の自然言語処理のモデル(たとえばBERTなど)の演算と、画像認識のモデル(たとえば、EfficientNetやMLP-Mixerなど)の演算は、本来は全く性質の異なる演算処理でしょうか?一方で、ViTのようなモデルでは、同じTransformerが利用されることで、計算の性質が近いものとなるでしょうか?(I have a question about inference of trained AI models. In terms of operations during inference, are the operations in models of natural language processing (e.g., BERT) after Transformer and those in models of image recognition (e.g., EfficientNet and MLP-Mixer) inherently quite different in nature?On the other hand, in a model like ViT, would the same Transformer be used so that the nature of the computation would be similar?)

こんな感じで、詳しい方(人間)に質問したら、"嘲笑われっちまう(!?)"ような質問もChatGPTは回答してくれます。もちろん、回答の正確性は保証されませんし、検証せず信頼するのはNGですが、エンタメとして楽しめば良いのです(まあ実際に正確だったとしても、理解できてないことの方が多いですし)。

ざっくりまとめると

  • 専門的な質問をするとChatGPTからは、無難な回答が返ってくる

    • しかし中には(ど素人にとっては)”へええぇ”と思える興味深い内容が返ってくる

  • 我らど素人は、仮に正確な情報であったとしても、間違えて解釈するか、そもそも理解できないか、来月の記憶にすら残らないことがほとんどなので、回答を得られたその瞬間を楽しめば良い

    • ただ、ChatGPTから回答を得ても、軽率に友人や知人に話してはいけないことには注意が必要(夜な夜なbotと対話してるやばいヤツだとバレる)

ChatGPTはGPT-3.5相当のモデルが採用されているとか。今後、GPT-4やドメインに特化した対話モデルが出るとさらに精度が良くなるかもしれません。

個人的には、SCISPACEのようなサービスに近い方向で応用ができるとめちゃくちゃ面白そうです

研究論文の発見、作成、公開 |タイプセットによるサイエンススペース (typeset.io)



いいなと思ったら応援しよう!