
なんとなく生成AIに「○○について書いてほしい」と依頼すると、なんとなくよさそうな文章が出来上がる。この体験をもとに記事を書いた結果、書いていることは論理的、構造もしっかりしているのに、誰が何を言っているのかがよくわからない。自分の経験やこの内容をもとに何かしようとすると、何か腑に落ちない、足りないといった想いが出てきたことはないでしょうか?
今回は、「AIに文章を書かせるとなぜつまらないものになるのか」を、コンテクストの内容ではなく、言語学的な視点から、つまらない≒わからないものと捉え、何か腑に落ちない、足りないといった要因になっていそうなものについてまとめてみました。
生成AIを使った場合に「発露」が変わるという問題
人は何か考えがあり、それを元に何か言葉を発する。その言葉を発する際の考えを「発露」とすると生成AIからみた「発露」は依頼された内容そのものとなります。
「依頼された内容そのもの」の中にユーザー自身の想いや考え(≒なぜそう考えたか、思ったかといったこと)があれば、それをベースに回答するので結果的に矛盾のない回答、文章が得られるはずです。 ところが、「○○について書いてほしい」、「○○についてどう思っているのか□□な人として答えて」と言ったところで、何に基づいてそのような質問や依頼をしているのか、AIは知る由がない。つまりそれについて一切考えないまま、回答・文章化してしまうため、その結果として、ユーザーが考えていたことではなく、依頼された内容そのものが「発露」として存在することになってしまいます。
いわゆるAIインフルエンサーがやる文章作成のアンチパターン
上で出した発露がユーザーがAIに依頼したことそのものになることで「誰が、何を考えて、それを言っているのか」の「誰が、何を考えて」≒「依頼されたこと」と認識した上で、文章が作られます。
Xであれば、それはコメントや引用ポストとして羅列されると、その度に発露が「依頼されたこと」となってしまうため、結局、このユーザーは何を考えて、コメントをしているのか引用ポストをしているのかという「発露」の根源の思考や思っていることがブレた存在、人ではないAIがなんとなく文章にしたものとして作り上げたものが出来上がります。
生成AIによる翻訳で変わってしまうナラティブ
今まで話してきた「発露」とともに人の会話で大事になるのは「人称」です。しかし、生成AIは特定の「人称」や「母語」を持っていません。
AIが日本語を生成するプロセスは、単純な翻訳(例:英語→日本語)ですらありません。それは、膨大な多言語データを一度抽象的な空間で処理し、再び日本語として組み上げるようなものです。
その結果生まれる文章は、時に、例えばロシア語のような格変化の多い言語を母語とする人が、一度中国語の文法フィルターを通して日本語を機械翻訳し、不自然さが残らないよう手直ししたかのような、奇妙な違和感を帯びることがあります。
日本語特有の助詞の扱いや、文脈に応じた敬語の使い分けに、文法的には間違っていなくても、日本人ならまず使わないような微妙な「ズレ」が生じます。
この「言語構造の違いからくるズレ」と「質問の都度変わる『発露』の影響」が組み合わさることで、主語や人称が一貫しなくなります。結果として、書き手が本来意図したはずの「ナラティブ」は喪失・変質してしまい、何を言いたいのか、行っているのかわからない、あの「腑に落ちない」状態が出来上がるのです。
では何が必要なのか
AIに任せることでより論理的で構造化された「もっともらしい文章」自体はできるものの、その結果、誰が何を伝えたいのか、自分が思い描いたナラティブといったものは「発露」や「人称」の移り変わりで喪失・変質してしまうと書きました。
それを防ぐ明瞭な方法は、依頼する際にナラティブや誰が何を伝える目的でやっているかといったことをしっかり伝えること、そして、できた文章を自ら手直ししていくことになるのでは?と考えています。
もしこれをしなくてもいいところまでAIが進化しているとすれば、AIに質問した内容を、AIは何を発露としてこの質問をしているかを理解した上で回答をしてくることになる、つまり、この話は無用になる・・・のでしょうか?
