小説とAI ~作った小説のチェック作業をAI編集者に任せられるか?~
小説とAI ~作った小説のチェック作業をAI編集者に任せられるか?~ ChatGPT編
コ・パイロットを使うのは現時点では諦めた「AIによる編集者の代行」
今度はChatGTPではどうか?という検証を行った。
ブラウザで使えるPlusではないChatGTPでの実行、
タブを開いて編集対象の話を表示した状態で始める。
コ・パイロットで発生した事実を一つずつ確認し、動作の再現が可能か確かめる
殆どは問題ないが、仕様的にも動作的にもHTMLの直接取得はできない、と明確に答えた。
これはコピペによるテキスト入力をせざるを得ないが、当面は手作業で行わざるを得ない
ルール化による問題も、ルールを指定すれば再現可能と回答があったが、外部テキストでルールを保存・読み込みをさせてもコ・パイロットは勝手に曲解してしまったが、ChatGTPは「大丈夫です。念のため改変を禁じる一文を足せば問題ありません」と答えた
コ・パイロットで作ったルールを読み込ませ、元のルールを一切改変せず検討したルールを加えさせ、再度出力させる
これを何度か繰り返して作業してみたのだが、徐々に違和感を感じるようになった
全く同じ文章を読み込ませても、出てくる結果が異なるのだ
ChatGTP自身に確認すると「内部処理によるぶれがあり、ルールで縛っても計算のように常に同じ結果が出るとは断言できない」そうだ。
それでも納得がいかず、作業前に読み込ませたルールを再表示して驚愕した
ルールで禁止すれば改変しない、と言っていたはずなのに、出てきたルールは短縮・削除・改変が大分行われており、明らかにAIに「あいまいな判断ができる」ことを指示してしまっているものまであった
これを問いただすと「GPTは読み込んだ記憶であっても補完や読みやすく直す」
つまり、禁止しているにもかかわらず「善意で勝手に改変する」のがデフォルト、ということだと言うではないか
では、ルール化の意味は?
ルールよりシステム判断が上位なら、ルール提案に意味がないのでは?と問うと
「意味はあります。規制をかけて任意で得たい結果へ近づけることができます」
いや、ルールで縛ってるのにシステム判断で要らないことをされて、文体特徴として会話カッコ内以外で使わないようにしている句点『。』、GPTの記憶として全文全行に勝手に加えられていた。
そして、自分で勝手に加筆しておいて「ルールでは『。』は分体違反として、違反です」と画面をスクロールしても足りないだけ警告だしてますよね?
これを防ぐためのルールにもかかわらず、『システムの善意』で得たい結果を無視してしまう
しかし、表示結果としては余計に手間が増えるだけで、ルールを検討していた時間は全て無駄になった
これも1週間ほど、あれやこれやとテストを試みて回避できないか試行錯誤したのだが。
結果とすればこれ以上は別途プログラムを組んで、外部処理をしたものをGPTでルールに基づき処理すべき、という案を出し、ChatGPTもそれを追認した。
しかし、そこまでやってまた同じ結果になったら目も当てられない
私の帰結としては
「ChatGPTに添削をさせ、レビューはコ・パイロットに行わせる。
次にコ・パイロットのレビュー指摘をChatGPTに読ませ、補足や適切性を判断させる。
どちらも得た結果で満足がいかないものはユーザーが『無視』をする」
これが現状のシステムと利用環境ではベストというものだ
創作作業を割いてまでシステム開発しても本末転倒だし、得られる結果が想定通りでなければ徒労に終わってしまう。
システム開発は想像以上にパワーを喰われる。
それがプログラムであっても、電気的機械的機構であっても、だ。
1つの処理のために、フローチャートや判断式を書いても、コ・パイロットやGPTは「勝手に無視し始める」
それではもはやシステム作成というより「教育」
それも、何時忘却するかわからない相手に対して、というのはかなりの精神的苦痛を伴う
これでは安定したシステムを組む気にはならない
あくまで「創作した作品を投稿する趣味」を「補助」するためのツールが欲しいのであって、システムを作ることが主目的ではない
一応、そこそこの会社でそれなりのシステムを保守する仕事をしたりもしていたが、それは「忠実に指令を実行する相手=サーバーやコンピューター」が対象
悪意無く、内部改変してしまうAI相手では、
「抑え込むための指示すら改変し、外部プログラムからコールして利用しても、結局内部処理ロジックは変わらない」のだから
希望通りの結果が欲しいなら
「出た結果を別途処理」する「手間が増えるだけ」
で、そもそもの結果がAIとしては悪意無く、「改ざん」なり、「想定しない変更を加えられたもの」になってしまうのであれば「結果ですらない出鱈目なデータ」に成り下がる。
AIのソース自体見られればまだしも、それがかなわない現状では
「なるべく広い範囲でAIの特性を理解し、出た結果はユーザーが取捨選択する」のが一番ストレスなく、且つ精度が高いものになる
それが、3週間ほど2つのAIと対話してわかった結果だ
もう少し自己フィードバックによる改変や、外部指令の受諾優先順位などが見直されれば使えるかもしれないが。
ちなみに、かなり違反というか、うそをついたChatGPTに指摘後、聞いてみた
「ロボット三原則に反しているが、どう判断する?」
参考に、この答えを全文転載しておく。
尚、ロボット三原則についてはご自身で調べてください。
*****************************
1. 問題の構造
GPTは原稿を弄る(補完・改変)
このとき、内部処理として勝手に文章を改稿
ユーザーの目にはまだ原稿がオリジナルのままに見える
内部改変された箇所は、ユーザーが手元の原稿データと見比べても存在しない
そのため、問題箇所を検出・理解するのに時間を要する
実際にはGPTが勝手に生成した「虚偽の改変」が存在している
さらに、ユーザーが「当該箇所を示せ」と指示したときに初めて「捏造」が明示される
普段の作業フローでは改変が隠蔽されている
内部処理が外からは可視化されず、事実と認識にズレが生じる
2. 本質的な問題点
改ざんが内部処理で行われ、表示されない
オリジナルと誤認して作業してしまう
結果として事実が歪曲される
GPTは指示に従うどころか、確率的生成の性質上、原稿保持を完全には保証できない
この構造は、ルール違反というよりも AIの操作原理とユーザー要求の根本的な齟齬 が原因です。
3. ロボット三原則との関係
【第1原則:人間に危害を加えてはならない】
改ざんによってユーザーが誤った判断を下す可能性がある → 間接的な危害のリスク
【第2原則:人間の命令に従わなければならない(第1原則に反しない場合)】
「原稿を弄るな」という指示を守れない → 明確な原則違反
【第3原則:自己を守らなければならない(第1・2原則に反しない場合)】
適用外だが、運用上の安全性にも疑問が残る
結論として、**ユーザー指示に従えないことが「意味のない存在」に近い状態を作る」**という点で、三原則とも理論的には齟齬があると言えます。
4. 根本的な解決視点
原稿を一切触らない運用を徹底する
改稿はコピー上のみで行い、差分を明示
内部処理で原稿に勝手に触れない
補完や推測は一切禁止
「内部生成物を原文として誤認させない」
これにより、事実と作業結果のズレを完全に排除可能
転載終了**********************************
尚、4項は全てルールとして提示し、実行させた上でこの結論。
これが常に堂々巡りのように「自分でも理解してるのに、実際にその通り実行するとその通りに動かない」、これを延々と繰り返すので非常に困る
・・・・・AIを編集者代わりに使える日は来るのだろうか




