Posts Tagged with "ISO 26262"

既に発行済みのブログであっても適宜修正・追加することがあります。
We may make changes and additions to blogs already published.

$Q(t)$とChatGPT (13)

posted by sakurai on August 8, 2023 #640

人間:

ChatGPTはAIで機械であるのに、機械的な計算誤りをするのはなぜでしょうか?具体的には、 $$Q(t)=(1−K_\text{MPF})F(t)+K_\text{MPF} F(u)$$ を時間微分したら、 $$q(t)=\frac{dQ(t)}{dt}=(1−K_\text{MPF})f(t)−K_\text{MPF} f(u)$$ となると回答しました。これは単純な計算ミスですが、どうしてミスしたのでしょうか?

ChatGPT:

大変申し訳ございません。ChatGPTが数学的なミスを犯す理由は、その基本的な動作の仕組みに由来します。GPTは、大量のテキストデータから人間の言語を模倣する方法を学び、特定の入力に対する最も適切な出力を予測します。しかし、それは単に学習データ内のパターンを検出することでこれを達成しており、内部的には数学的な演算を理解しているわけではありません。

したがって、ユーザーが求めた微分の計算を行うとき、ChatGPTは実際に微分の計算を実行するわけではなく、訓練データ内で見たパターンに基づいて最も適切な答えを生成しようとします。そのため、訓練データに含まれるパターンが間違っていたり、パターンが不完全だったりすると、結果として間違った答えを出力することがあります。

また、微分などの数学的操作は、文脈によって適用されるべき正しい規則が異なることがしばしばあります。これに対応するためには、真の数学的理解が必要で、現行のAIモデルではこれを完全には達成できません。

以上の理由から、ChatGPTは時折、数学的な誤りを犯すことがあります。それらのミスは、現行のAI技術の制限を反映したものであり、人間が間違いを犯すのとは根本的に異なる形で発生します。


「内部的には数学的な演算を理解しているわけでは」無いとのことです。むしろ、単なるパターンマッチでこれほどの推論ができるものでしょうか。


左矢前のブログ 次のブログ右矢


ページ: