Skip to content

人間と生成AIを同一視すべきではない

個人的には生成AIは道具であって人格を持たないので、同一視すべきではないと思っている。

人間といえる要素は何なのか、知性とは何なのかについては難しい問いなので答えを持たないが、少なくとも自分の体感としては「経験を積み重ねられるか」が重要なんだと思う。「推論する生成AI」は実際には思考しているわけではなく、丸暗記した結果を返しているに過ぎないでは人の知能について以下のように言及があって、価値観は近い。

ヒトの知性的な思考プロセスというのは「過去に学んだパターンの中から普遍性を(自分なりに)見出して一般化&体系化する」ことで得られるものだと考えています

そういう意味では、例えばタスクを任せたときの結果が不安定なのは人間もAIも同じだけど、人間は経験を積み重ねられるので何度かやれば安定してくるし、やったことの結果から得られるものがあるし、そうでないとしても自分の中で「この程度は大丈夫」が分かってくる。しかしAIは、結果としては安定しないのは同じだが、過去の経験が残らないので、プロンプトを書くたびにリセットされていて安定しないの意味が異なる。結果の責任もAIは負わない。

私がバイブコーディングにあまり興味がない理由でもこのように書かれている。

AIの成果物に対する信頼性のなさは、本質的にはAIの人格のなさに起因すると思う。人間同士であれば、同僚・チームメイトとしての付き合いの中で互いの気心や力量は解っていく。「誰々さんはリファクタリングが得意だから、あの人がリファクタリングしたコードはいちいちレビューしなくてもまず大丈夫だろう」みたいな手抜きとか「ここは先週教えたあのデザインパターンで一発だから。あとは説明しなくてもわかるでしょ」みたいな雑な指示はお互いのことが解っているから成立する。それは共に作業してきたあらゆる経験の積み重ねであって、とても数十万トークン程度のコンテクストウィンドウに収まる情報量ではない。モデルをバージョンアップしたら受け答えの仕方ががらっと変ってしまうようなAIに人間の真似はできない。

なので、生成AIを使うとき、例えば「AIに作ってもらった」のように相手が存在するかのような表現をすることがあるのだけれど、少なくとも自分は言葉に思考が影響されがちなので、こういう表現をすると「人格がある」かのように思考が寄ってしまってあまり良くない。なので、例えば以下のような、なるべく道具を意識した表現を使うように気をつけている。

  • AIで生成した(LLMで生成した)
  • AIで調べた

同じことはAIはあくまで「言葉の計算機」に過ぎずユーザーが想像するような思考や推論はしていないと専門家が指摘で以下のように綴られている。

生成AIは人間の知識や行動、感情について非常にうまく言語化することができますが、これらの現象を直接体験したり感じたりしているわけではありません。あくまで統計的にそれらしい文字や言葉の羅列を生成しているだけです。

AI開発企業は生成AIについて説明する時、「計算」ではなく「思考」「推論」「探索」といった言葉で表現しがちであり、これによって多くのユーザーは「AIは自分たちのような思考や推論をしているのか」と信じてしまっています。しかし、実際のところ生成AIは「『私』と『あなた』という言葉は『好き』という言葉と一緒に使われる傾向が強い」と計算できるものの、「私」や「あなた」、「好き」について理解しているわけではありません。

別の側面では、AIは不適切な内容であってもユーザーの欲しい答えを返すので、思想が偏る危険性があるという。

そういえばサティア・ナデラCEOのAI観もそういう側面があった。