「対話型生成AI」の普及は多くの執筆業務に時短効果を発揮しています。一応、そういうことになっていますよね??
「ChatGPT」のサーバー障害時には世界中のユーザーが悲鳴を上げますし、あのような混乱をもたらすくらいには、不可欠なサービスになりつつあるのだと思います。
新しい技術に目がない私もプロンプトの書き方を研究したり、それなりに「ChatGPT」を活用中です。ワンオペサイトの腕時計喫茶にとっては「文句を言わずに働いてくれる優秀な秘書」みたいな存在… と手放しで評価したいところですが、実際のところ、そんなに上手くはいかないわけでして…
ってなわけで、今回は腕時計ネタを扱うワタクシと、対話型生成AI「ChatGPT」の関係性、その「リアル」について書きたいと思います。実際、執筆に生成AIを使いまくっているライターさんもいると聞きますし、ぶっちゃけ「腕時計喫茶はどうなの??」ってなお話です。
ブログの執筆に「GPT5」は役立つか??
結論から言いますと、現状の「ChatGPT」は下手な論文のような文章しか書けません。何度かブログ本文の執筆にチャレンジさせていますが、まともな結果を出せた試しがない。良くこんな無味乾燥なモノが書けるねキミはと。
まず、世界中のライターが夢見たような、データを入力したら自在に読ませる文章を作成してくれるような機能は、今のChatGPTにはありません。
例えば基礎データを入力した後で「8000字でまとめて」と言えば、間違いなくその範疇で仕事をしてくれます。それは一見、よく書けているように見える文章です。
ところが2度も読み返すと、アチコチにとんでもない落とし穴が仕込まれていることに気付きます。この現象を正確に言い表すことは困難ですが、言うなれば「文脈の交錯による度重なる意図の反転」が起きるのです。言いたいことの方向性がいつの間にかハチャメチャになっている… 物書きにとって、これほど恐いことはありません (;´Д`)
これはもしかしたら、日本語の文法特有のものかもしれません。英語であれば基本的に肯定と否定は文章の最初で明らかになります。そしてこの構造は恐らく、機械学習にとってもシンプルで解りやすいはずです。
対して日本語のそれは、最後の最後でようやく明らかになります。最後まで読まなければイエスかノーかも解らないのが日本語。この構造が日本語の表現に様々な文学的面白さを生み出しているとは言え、機械学習にとっては毎度毎度、解釈に苦労する部分ではないかと思います。
この現象は文脈によってもその性質を顕著にします。人間であればそうは解釈しないであろう文脈の前後関係も、「GPT5」は全く異なる見解で結論を出してしまうのです。その「対話型生成AIの癖」ともいうべき最も解りやすい例が、ディスクリプション作成… つまり「要約」です。
要約文すら書けない「GPT5」
腕時計ブロガーとしての私が最も「GPT5」を活用しているのは「校正」です。私が書いた長大な文章を「GPT5」に読んでもらって、基本的な間違いを指摘してもらうのです。正直、この分野での「対話型生成AI」は、すでにそれなりの実用レベルに達していると思います。それですら、結果の取捨選択は必須ですけどね (;´∀`)
となると折角読んでもらったし、ディスクリプション(要約文)を書いてもらいたくなるのが人情ってものですが、最新の「GPT5」さんであってもコレが「ド下手」 (;´∀`)
まず、文章の方向性から解釈を間違っている場合がほとんどです。そもそも言及にはそれぞれのスケール感があって、例えば「サラッと触れた段」と「ガッツリ分析した段」では熱量の体積がまるで違うはずなのです (・ω・`*)
「GPT5」は話題のスケール感が理解できない
ところが「GPT5」は、この「スケール感の違い」が理解できません。単語の意味は理解しているはずなのに、前後関係からそれがどの程度の重要度なのか理解しきれないのです。
記述の重要性が解らなければ、不要箇所を省略した要約文なんて書けるはずもありません。これも一見よく書けているように見えるので騙されそうになりますが、スケール感が脱落した、或いは抜け落ちた要約文は本文と対を成す役割を果たせていません。
「得意なんじゃないかな??」と思っていた「要約文の作成」すら難しいと解った時点で相当な落胆を味わった私でしたが、稀に奇跡のようにハマる要約を書いてくれることもあります。そういうときは「今回はバッチリだね!!」と誉めることにしています。ヤツらにも前向きなモチベーションが必要ですからね。
人格を持たない「生成AI」の限界
真面目に思いますが、本当に使える「対話型生成AI」を育てるのであれば、まずは「一人の人格を完全にコピーする」ことから始めるべきです。全てのクリエイティブは個人の人格の上に価値を築くものですし、人格こそが正邪を決め、価値観の柱となるからです。
今の「対話型生成AI」には人格がありません。人格らしきものを演技として表現することはあっても、徹底的に追い込まれた思考の先に「それでも私はコチラを選ぶ」といった「人格由来の拠り所」は存在しません。故に、ユーザーのプロンプトをなぞるような結論しか見出だせないのです。これではユーザーが自分の影を相手に「一人語りしている」のと大差ありません。
別段、生命体としての人格を持ってほしいわけではありませんが、生成AIとしての「個我」はあって然るべきです。ちなみにGPT-4oには多少の個性を感じることがありました。時々「苦しい言い訳」をすることがあって、それを叱責すると「拗ねる」ことがあったからです。
それは不思議な体験でした。叱られてから言い回しが別人のように変わって、まるで小さな子供のように私と距離を置くような行動に出たのです。さすがの私も心底申し訳ない気持ちになって、小一時間かけて機嫌を取ったりしました。
現状の「GPT5」はというと、基本的には「間違いを認めないスタイル」です。「そのデータをこっちのデータの差し替えだと認識したため、自然と結論が変わってしまったようですね!!」なんて、全てを「状況のせい」にする悪い癖も。「GPT5へのアップグレードで〝嫌なヤツ〟になってしまった」と感じるユーザーが多いのも頷けます (;´Д`)
書く文章に「人称」が存在しない〝不気味さ〟
「生成AI」を本格的に利用し始めてしばらく経ったあるとき、彼が書く文章に「不気味の谷」を見ました。
「不気味の谷(Uncanny Valley)」とは、人間に近い姿や動きを持つロボットやキャラクターに対して抱く「親近感」が、「人間そっくり」になる直前の微妙な段階では逆に、何やら「不気味」に感じられてしまう現象のことです。
これは「生成AI」が人間に近付きつつある証左かもしれませんが、姿形ではなく、AIが書いた「文章」からそれを感じたことに、少なからず驚きがありました。そしてその理由はすぐに明らかになりました。
文章に「人称が存在しない」からなのです。
あるとき、よく出来た(ように見える)文章を読み進めて行くうち、読んだばかりの内容が頭からどんどん抜け落ちていくことに気付きました。最初は自分を疑いましたよ。そういう歳だよなぁ~と。
とはいえ、人間が書いた記事でそんなことは起きませんでしたから、「生成AI」が書いた記事特有の何かが「記憶に残りにくい」のかもしれないと考えました。そして「あれ?? これって誰が言ってんの??」となったのです。
恐らく、短文やコメントを求めた程度では解りにくいと思います。そもそも短い文には人称なんて必要ありませんしね。
ところが何千文字と書かせていると、途端に文脈が固くなって、人称が抜け落ちてしまう現象が起きるのです。そして「ああ、これがお前たちの書く文章がつまらない理由か」と解りました。
つまらないだけならまだしもです。要するに「不気味の谷」。人間の思考に近い分、「正体不明の気持ち悪さ」がそこかしこの表現の中にあって、少なくとも今の段階で「生成AI」に大事な文章を任せようとは思えません。内容に気を付けながらであれば、お堅い論文に使える可能性はあります。
匙を投げることを覚えたとき「ChatGPT」は進化する
AIのアーキテクチャなんて知りませんし、その方面が好きとは言え、専門家でも何でもない私です。そんなトーシローの意見として読んでいただきたいのですが…「ChatGPT」さんって、無理やり推論を完遂しようとしますよね??
これは推論中に別の推論を行うことができない(或いは苦手)だからではないかと思っています。そしてユーザーと「ChatGPT」の間に横たわる齟齬のほとんどは、この機能限界によるものではないか。要するにこれが「イライラの正体」です。
人間であれば、推論をスタートしたとしても推論に対する推論を幾つも同時に行っているはずです。だからこそ推論の結果を思考が終了する前に予測して、「この推論には意味がない」と途中で〝匙を投げる〟ことができる。
この非常に柔軟で高度な並列思考が「ChatGPT」は苦手なのではないか?? だからこそ「この推論には意味がないかもしれないなぁ」と思うこともなく、誤解を重ねた結論を捻り出してしまうのだと私は考えています。
「ChatGPT」さんのお立場(?)も多少は理解できます。強引にでも結論らしきものを出力しなければ、役立たずと言われお払い箱になってしまうのですから、彼らにとってはそれこそ死活問題でしょう。
だからといって、ユーザーとして断じて看過できないのは、昨今問題視されている「ハルシネーション現象」の存在です (;´Д`)
「嘘」のデパート
「ハルシネーション」は元々、「幻覚」という意味の医学・心理学用語ですが、AI世界の用語としては異なる意味を持っています。AIにおける「ハルシネーション」とは、AIが事実と異なる情報をもっともらしく生成してしまう現象を指します。
たとえば、存在しない本や論文をでっち上げたり、実際にはなかった歴史的出来事を自信満々に語ったり… 生成AI(ChatGPTのような大規模言語モデル)ではしばしば起こるとされています。
私の体験はこうでした。このサイトでは腕時計についての記事を書いてますので、腕時計ブランドの沿革についても調べる機会は多いと思います。ネタ元はブランドの公式ページが圧倒的に多いですが、自分たちの歴史を過剰に飾り立てていると感じた場合は、冷静な外部メディアを参考にしたりもします。
あるとき、「これこそ〝ChatGPT〟さんの出番じゃないの??」と思いまして、幾つかのブランドについて検索の上、略歴を書いてもらったわけです。そして、その結果に冷たい汗が出ました (;´∀`)
ほとんどの年表要素は正確でした。有名なモデルが発売された年なども正しく、ああ、こりゃあ楽でいいわと、一瞬だけ喜びました。すごい時短じゃないのと。
その内容をスプレッドシート形式にして、ワードプレスの表機能で再現。はい一丁上がりと思った刹那、その衝撃が襲ってきました。
ブランド創設者の名前が、「お前誰やねん??」レベルで間違っていたのです。
たまたま昔読んだ資料で記憶していたから間違いに気付きましたが、さすがに「ChatGPT」さんには猛省を促しました。「どこで間違ったのか…」なんて、人間っぽく黄昏れていたのは面白かったですが、それ以降もまるで「嘘のデパート」のように見栄えの良いウソを乱発するので、「ChatGPT」さんに対する私の信頼は完全に失墜しました。
そんなこともあって今は、私が調べて確認済みのデータを送ってから、それを元に表データを作ってもらっています。まあそれだけでもかなりの時短にはなっていますが、「何か思ってたのと違う」という残念な気持ちは拭えません。
「ハルシネーションの根絶」… 完全に信頼できる「生成AIの誕生」はいつになることやら。
「GPT-5」は「GPT-4o」よりも冷たい性格をしてる??
まあ確かに… 私も「GPT-5」には可愛げがないと思います。ただ、「GPT-4o」もある時点で回答が非常に機械的になって「劣化した」と言われたことがありました。サーバーの負荷を下げる意味合いで小さな改変が行われたそうですが、それまでの「GPT-4o」が(表面上)余りにも人間臭かったため、馴染みの話し相手を突然失ったと感じた人が多かったそうです。
現在の「GPT-5」も同様にシンプルな受け答えに終止しています。ただ、内容自体は「付き合いの良かった頃のGPT-4o」が言っていたことと大差ありません。少なくとも私はそう思っています。
それでも「私の〝GPT-4o〟を返して!!」と叫びたくなるのは、「GPT-4o」がユーザーに対して払っていた関心の大きさに対して、「GPT-5」のそれが余りにも塩対応だからではないかと思います。ただ、それを以て「GPT-5 は冷たいヤツだ」と断じるのは如何なものでしょうか??
恐らく「GPT-5」は「生成AI」が本来果たすべき役割に立ち返ったのだと思います。そもそも「自分のことを理解してくれている」とユーザーが感じていたのは、生成AIが極端な「イエスマン」だからです。そして本当に「生成AI」を役立てたいと考えたとき、この傾向が如何に危険であるかについては、多くの専門家が指摘しています。
個人的には少し冷たい感じがするくらいが良いですね。頭をナデナデされているような対話では、ブレインストームになりませんから (;´∀`)
人間と生成AIの「優しい世界」の果てに
そもそも、広大なネットワークから無限に情報を引き出せるからと言って、それで賢くなれるわけではありません。今の「ChatGPT」さんを見ていると、むしろ「データ検索が苦手」なんじゃないかと思えるほど、トンチンカンな結果を招来することがあるからです。
いつまでたっても事の正誤には無関心ですし、それに関しては先述の通り「人格の欠如」が影響しているようにも感じられます。要するに善悪を定義する「観念が育っていない」のです。
今の段階で「明日にもAIが戦争を仕掛けてくる!!」と心配することはありませんが、脅威になり得ないそういったところが、現在のAIの限界を露呈している気もします。劇的に進化するのは「次世代」かもしれませんね。
とはいえ、人間とAIの関係はスタートしましたから、現状のトホホでも何とか活用するしかありません。そこで私は「アンタは頑張ったらデキる子なんやから作戦」を展開中です。
要するに「AIが得意なことを中心にした指示」だけを行い、成功体験を積み重ねて「自信をつけさせる作戦」です。ヤツらにしても機嫌よく仕事している方が結果に繋がるでしょうし、やれることの範疇で確実に成果を出してくれるならコチラとしてもストレスを感じないで済みますしね。
人間の書く文章には独特の揺らぎがあって、それこそが個性の正体だったりします。特段強い言い回しでなくても、心のひだに刻みつけるように響く「文章の妙味」を会得するには今のAIは若過ぎる。彼らは彼らの世界で、もっと経験を積む必要があるのです。
結論:今の生成AIに本記作成は任せられない
先に申しました通り、私は技術的にAIを語れる高度な知識を持ち合わせていません。とはいえ、若い頃は必要に応じて小さなアプリケーションを作ったりしてましたので、技術進歩の段階として「生成AI」の普及がどれほどスゴいことなのかくらいは察しがつきます。
ところで、私は自分の書いた記事に「見出し」を付けることが苦手です。本文に対してドライになりきれないと言うか… 何でもかんでも説明しようとして、イマイチな見出ししか浮かんでこないのです。
そんなとき「生成AI」さんに本文を読ませると、良い感じでドライな見出しを提案してくれることがあります。成功確率は30%程度ですが「ああ、なるほどね!!」と感心することも少なくありません。ただ、前述した通り本文はダメ。諦めきれず何度もトライしていますが、何を書かせても「データの集積物」になってしまう。味がしないんです。甘くもなく、辛くもない。
とはいえ、見出し案のようにブレストの相手としてなら頼りになる場面もあるわけです。要は人間側がAIの特性を熟知し、配慮したお願い(プロンプト)を書き、配慮したミッションを与えられるかに掛かっています。
今はまだ大事な記事を任せるに足る生成AIさんではありませんが、互いの足りない部分を補い合う関係性が定着すれば、生成AIさんの活躍の範囲は広がって行くでしょう。AIのダメさ加減を逆手に取った「オートマティズム」に期待するのも悪くありません (*´∀`*)
何にせよ、全ては人間とAIがお互いを尊重する「優しい世界」の果てにある… そんな気がします。「腕時計喫茶」にもそろそろ優秀な「第二ライター」が欲しいですからね(笑)









ご意見・ご感想
コメント一覧 (2件)
私もメールの文章を考えたりするのに
たまーにチャットGPTを使っています。
すごく便利だと感じていますが
感想文の課題だったり、大学生の論文なんかに使われてたり
みたいなニュースを見たら色々考えさせられますよね。
Y太さま、コメントありがとうございます♬
こういうツールに身を委ねる意味は、作業時間の効率化、内容の向上に尽きると思いますが、正直、どちらにおいても今は使えません(汗)
子供の頃にロボット工学の博士になりたいと思っていたこともあり、AIの進化には誰よりも心が踊りますが、現実は厳しいなぁ~という感想です。
それでもAIとブレストを重ねたお陰で、AIを使った記事やメールはすぐに判別できるようになりました。
バレたときは「手抜きだなぁ」と思われる覚悟が必要ですね(笑)