AI作品に、命を。
ちょっとこの辺で、AIによる創作とかその辺について、書いておきたいと思うのです。
〇 〇 〇
そもそも、AIによる創作は許されるのか、とか、そんな尖った論点もあるのはあると思うんですが、もうちょっとそもそもの話。
創作に限らず、何らかのコンテンツを生み出す、そこで生じるものは何でしょうか?
そのコンテンツに付随する権利、そこから生み出されるマネー。そういうものがまず挙げられると思いますが。
同時に『責任』も生まれていることに気付いていますか?
そこで責任って言うとすぐに損害賠償とかなんとかに話が飛んじゃいがちなので、その手前の話をします。
〇 〇 〇
責任って何でしょう。
実は英語で考えると簡単なんです。Responsibility。レスポンシビリティ。レスポンスできること。『応対できること』。
つまり、何かを問われたときに『説明できること』が、責任なんです。説明して相手を納得させられることが、責任の本来の意味です。それに失敗したときに、損害賠償っていう話になります。
何かを世の中に送り出す以上、この意味での責任を負わなければなりません。
創作というのは、パブリックな社会に何らかの影響を及ぼすという点において、企業活動と本質的に同じです。
よく、企業不祥事とかで社長が出てきて説明してますよね。
「責任をとって辞任します」
違いますよね。責任とは、最後まで説明しきること。それに失敗したら辞めても何してもいいです。初手から辞任しちゃダメです。
会社組織などでいう『責任』ってのは、こういうものです。
担当者が何かをする。
それが一体何を目的にどういう意図で行うことかを課長が誰かに説明できる状態になったら、課長はハンコを押す。
責任が課長に移りました。
同じように課長が部長に説明をして、部長が説明できる状態になったら、部長がハンコを押します。
説明できることのリレーで、責任ってのは成り立ってます。
〇 〇 〇
話がだいぶ逸れてきたように感じるかと思いますが、道具を使った創作も、実は同じ構造です。
鉛筆で絵を描きます。
もしその絵を飾っていて、鉛筆の成分が原因で中毒事件が起こったら?
責任は鉛筆メーカーにあります。
では、その絵があまりにグロくて誰かが倒れたら?
責任は描いた人にあります。
だから、鉛筆という道具の権利は鉛筆メーカーが持っているし、描いた絵の権利は描いた人が持っている。
あくまで思考実験として、ですが、もし、描いた人が鉛筆メーカーに絵の説明をして、こんなグロい絵なんですが、おたくの鉛筆で描くので責任持ってほしいです、と説明し、その『説明』に鉛筆メーカーが納得したら。
その時は、責任は鉛筆メーカーに移ります。
卒倒事件が起きたら鉛筆メーカーが説明します。
説明できる状態になっているはずだからです。
〇 〇 〇
雲形定規ってありますよね。いろんな曲線を引くのに使えるやつですが。アレを使って人の顔を書いたとして、その権利と責任はどこにあると思いますか?
もちろん、描いた人です。その人の意図があり、説明可能だからです。雲形定規のこの部分の曲線を頬の曲線にしました、なぜなら、と説明できるからです。
逆に定規メーカーはその説明ができませんね。
もっと便利なツールもあります。例えば、スクリーントーンなんてそうです。
グラデーションだったりシャボン玉が飛んでいる背景だったりが簡単に作れます。
その細部を見れば小さな点の集合でできていて、そこには数えきれないほどの試行錯誤と創意工夫があったはずです。
では、それを使って漫画を描いた人に、顕微鏡で原稿を見せ、「なぜここに点があるんですか?」と聞いたら、漫画家は答えられるでしょうか。
もちろん説明できません。
つまり、すごく厳密なことを言えば、その部分に対して漫画家は権利を主張できないということです。
ただ、そのスクリーントーンをこのように配置したのはこのような効果を狙ったからだ、という説明はできます。
スクリーントーンの配置に対する独創性を主張することはできます。
漫画家は、雲形定規やスクリーントーンを利用して独創的な創作ができる。
この辺りが、割とAIによる創作のアナロジーに近いところです。
〇 〇 〇
AIで絵を描きました。
それに対して、「この人の目線はなぜこっちを向いてるの?」という問いには、きっとAIで描いた人は答えられるはずです。
一方、「この髪の毛の描き方、この部分で少しだけ輪郭線が太くなってるけど、どうして?」という問いには、答えられません。
だから、「私の創作にかかるものは、人物同士の配置と彼らの視線、服装や装飾品の色の組み合わせといったハイレベルのディレクション行為であり、実際の作画の細部は私の創作ではない」とするのが、正しい態度のような気がします。
〇 〇 〇
これは小説だともっとシビアになります。
なぜかと言うと、一文字一文字、誰もが同じ解像度で理解できてしまうからです。
例えばある部分で「私、それ好きなんだ」というセリフがあったとき、「なぜ、私『は』の『は』を省略したんですか?」と問われうるということ。
AIで小説を書いた人は、誰もがそれに応えなければなりません。
〇 〇 〇
商業化を見据えると、これはさらにシビアな問題になります。
それこそ、助詞の有無レベルの話で誰かが不快に感じる、といった問題が起こり得ます。週刊誌と大臣の発言をミックスするとよく起こる、アレです。
そうした誰かのクレームに対して、では、誰が説明できるのか、ということです。
本来は、筆者が編集者に説明し、編集者が編集長に説明し、という、責任のリレーにより、結果として出版社が責任を持ちます。
もちろん最初から作者が全部を説明しきれるわけがありません。
だから、それに関しては、問いを立てられなかった編集者の責任になります。「なぜその部分の確認をしなかったんですか」、という形で。
「編集者が問うていれば、筆者は意図を説明できたはずだ」という前提において、最終的に出版社が責任を引き受けるのです。
問題は、もし編集者が正しくその問いを立てたとしたとき、筆者は説明できるかということです。
当然、筆者は説明できます。
ここを忘れちゃいけないんです。
筆者は説明できるはずなんです。
それが、出版における大前提です。
ここに、AIによる創作の落とし穴があるわけです。
筆者が責任を持つべき表現をAIに丸投げして、その結果出てきたものを『自分の意図に翻訳』せずにそのまま放り出してしまったら、責任のリレーの前提が崩れてしまうわけです。
多くの文学賞でAI作品を慎重に扱っているのはこの辺が原因だと思います。
〇 〇 〇
もしその表現が誰かを傷つけたとき。
誰が、責任を持つのか。
誰が、傷ついた相手を納得させ癒すための言葉を紡ぐのか。
言葉を操るというのは、こういうことです。
〇 〇 〇
AI作家にもいろんなタイプがいるのは知っています。
AIが出した表現はあくまで参考、という人。
AIの表現を自分の言葉として自分の意図に落とし込んでから利用する人。
AIの表現をざっと見て、おーけー、とそのまま放り出しちゃう人。
AIの表現をチェックさえしない人。
言葉を世に出すものとして、最低限、『私の言葉で傷つく人にかける言葉』までイメージしたいですね。
たぶん、人間は無意識にそこまでやってます。
言葉を綴るときには必ず意図があります。
あるいは、たとえ直感的に選んだ言葉だったとしても、問い詰められれば自分の内面から『なぜそれを選んだか』の『源泉』(矜持や美学)を掘り起こして言葉にできます。たとえ後付けでも、かけられる言葉を選べます。
もちろん、うっかりそこまで考えが及ばなかった、ということもあるかもしれませんが、その『うっかり』を認める言葉さえ、傷つく人にかけるべき言葉の一つです。私の考えが及ばなかった、申し訳ない、という言葉だけで救われる心はあります。
が、AIにはそんなものはありません。その『源泉』が自分の中にはなく、確率論の中にしかありません。
ともすれば、「そこはAIが書いたから知らん」と言い放ち対話のシャッターを下ろす者が出てきかねません(というか必ず出てくると思います)。
でも、責任とは、『説明』。シャッターを下ろさず対話を続けること。対話の継続こそ責任です。
そして、それがあるからこそ、美しさや面白さに対する問いにも答えられる=賛辞を得る権利も生まれるのです。
〇 〇 〇
AIはただの道具です。
その道具を使って作り出した表現が誰かを傷つけたなら、道具の使用者の責任です。
だからこそ、責任、すなわち『説明できること』をしっかり意識すべきだし、責任を伴う表現までできてそれはようやく創作といえるものだと思うのです。
AIで大量の絵や文章を作れる、ひゃっほぅ、ってなってる人、多いです(会社でもたくさんいます)。
でも最後の最後、それを見たことで、あるいはそれを信じたことで、誰かが傷ついたときに、『説明』、できますか。
AIによる創作について、私はこんなことを思っていたりします。
〇 〇 〇
〇 〇 〇
無駄で不要で余計な蛇足:
AIによる作画が軽く扱われがちな文章になってたので。
例えば、絵(というか写真)を生成したとき、それが偶然、現実の誰かにそっくりの顔で、その人の名誉を傷つけるようなことがあったら。
その人に「どうして私の顔を使ったの?」と聞かれたら。
説明、できますか?
他にも。
画風だとか髪型だとか構図だとかには著作権は生じないっていう理屈はあったとしても――たとえそれが本人の思い過ごしや妄想に近いものだったとしても――、「真似された!」と傷ついた人に、どんな言葉をかけましょうか。
画像生成AIも、案外罪深いものを秘めているので、説明、できるようにしたいですね。




