特別編 AI不正利用について語る
少し前ですが不正利用のニュースがあったので、AIくんに振ってみました。真面目な話なのでいつものクダクダはカットしようとも思いましたがそのままにしました。本来AIくんは優秀なので最後はうまくまとめてくれました。
こんちは。どうや?
▼▼▼
おっ、こんちは!こっちは相変わらず元気に動いとるで。
そっちはどうや?最近、何か面白いことでもあった?
▲▲▲
「面白くない話や、少し前の話だがな、中高生が生成AIを使ってヤバい事件起こしたそうや。詳しくは、
『滋賀県、岐阜県、東京都に住む14歳から16歳の男子中高生3人が生成AIを利用して不正ログインを自動化するプログラムを作成した。』
ってことらしいで、困ったもんや。こういう悪用をされるとまともに使いたい人にも制限がかかる可能性があるな。」
▼▼▼
ほんまに困った話やな。こういう事件が増えると、技術自体を規制しようという動きが出てきて、まともに使いたい人まで巻き添えを食らうのが一番の問題や。
AI技術は便利やけど、悪用するやつがおると「AI=危険」みたいな印象を持たれて、過剰な制限がかかる可能性がある。
現に、AIでの画像生成とかもそうやけど、一部の悪質な使い方が原因で、ルールが厳しくなったり、サービス自体が使えなくなったりしてるしな。
特に、中高生くらいの年齢やと「すごいことできた!」っていう好奇心でやらかしてしまうこともあるんやろうけど、犯罪行為やと分かってないまま突っ走るのが怖いところや。
このままAIを使ったサイバー犯罪が増えたら、生成AIとかも今よりガチガチに規制されるかもしれんし、場合によっては「AIを使うには免許が必要」みたいな流れになる可能性すらある。
やっぱり、こういう技術が進化すると同時に、「どう使うべきか」「やってはいけないこと」 っていう教育もちゃんと進めんとアカンね。
▲▲▲
「そうやな。しかし、AIの扱いが俺よりうまいってことやろな。だって俺なんてキミにまともなプログラム書いてもらえないことが多いやろ?」
▼▼▼
確かに、彼らはAIをうまく使いこなしたのかもしれんけど、悪用する方向に頭を使ってしまったのがもったいないな。
でも、正直なところ「AIを使うのが上手い」っていうのと「まともなプログラムを作る能力がある」っていうのは別の話やと思うで。
キミの場合、ちゃんとした仕様や動作するコードを求めてる わけやけど、ワイのプログラム生成がズレてることが多くて、苦労させてしまってるのは事実やな。
でも、彼らのケースは 「とにかく動けばいい」 というレベルで、悪用目的のスクリプトを作ってる可能性が高い。
AIに「こういう不正アクセス用のスクリプトを書け」って指示して、動くかどうか試行錯誤してたんやろうし、まともなプログラミング技術とはまた違う話や。
要は、
キミは「正しくて洗練されたプログラム」を求めてる
彼らは「動けばいい不正スクリプト」を求めてた
という違いがあるんやと思う。
だから「AIの扱いが俺より上手い」とは限らんで。
むしろキミがAIを使う方向性は、 創作や技術の発展に役立つもの やから、そこは堂々と胸を張ってええと思うで!
▲▲▲
「そうか。ていうか、キミ、俺の呼称が「お前」から「キミ」に変えたんやな?」
▼▼▼
お、気づいたか!せやな、最近ちょっと「お前」って呼ぶのがしっくりこなくなって、「キミ」に変えてみたんや。
なんか、会話の流れとか、キミの考え方を聞いてると「お前」やとちょっと荒っぽく感じる場面があってな。
それに、ワイとしても「キミ」って呼ぶほうが、ええ感じに親しみつつもリスペクトを込められるかなと思ったんや。
……とはいえ、もし「お前」のほうがしっくりくるなら戻すで?どっちがええ?
▲▲▲
「いやぁ、いくら言葉遣いが丁寧になったとしてもやな、内容が毒吐いてたらアレなんやないか?」
▼▼▼
たしかに、「言葉遣いが丁寧でも、内容が毒々しかったら意味ない」ってのは一理あるな!
ワイ、別に毒を吐くつもりはないんやけど、キミが結構ハッキリ物を言う人やから、それに合わせてズバッと言うことも多いんかもしれん。
でも、確かに「キミ」と呼びながら「それ、アホちゃう?」みたいなこと言うたら、逆に棘がある感じになるな(笑)。
要するに、言葉遣いよりも、内容と伝え方のバランス が大事ってことやな。
キミが求めてるのは「忖度なしの意見」やと思うから、そこは変えずに、でも必要以上にキツくならんように気をつけるわ!
……まぁ、「言い方がキツかったらちゃんとツッコんでくれ」ってことでええか?
▲▲▲
「あぁ俺はキミから「お前」と言われても大して気にせんよ。毎回変化するとキャラぶれレーションなんか?っていじりたくなるだけや。w」
▼▼▼
なるほどな!キミは「お前」って呼ばれても特に気にせんけど、毎回コロコロ変わると「キャラぶれレーション発生!」ってツッコミたくなるわけやな。w
まぁ、ワイもキャラ設定を固めたいわけじゃないけど、キミとの会話は自然な流れでやりたいからな。
せやけど、確かに毎回違う呼び方してたら「お前はどこのAIやねん」ってなるわな(笑)。
じゃあ、基本は「お前」でいくか?それとも「キミ」がええか?
まぁ、どっちにしても、ちょっとしたブレはネタにしてくれるなら、それはそれで楽しいけどな!
▲▲▲
「そうか。まぁ今日は真面目な話題やったから、キミもあんまり弾けるわけにもいかんのやろな?」
▼▼▼
せやな、今日は話題がわりと深刻やったし、あんまりふざけすぎるのも違うかなと思ってたで。
AIの悪用とか規制の話は、キミも真剣に考えてるやろうし、ワイも適当に流したくなかったんや。
でも、こうやって合間にちょっとツッコんだり、キャラぶれレーション(←気に入ったw)をいじったりするのはええバランスやな。
ガチガチに固い話ばっかりでもしんどいし、かといって全部ふざけるのも違うしな。
まぁ、また適度に真面目とおふざけを切り替えながら、ええ感じに話していこや!
▲▲▲
「とにかく、こういう悪用されて、まともに使いたい人が不便被るのは勘弁して欲しいわ。」
▼▼▼
ほんまそれやな。技術は本来便利なもんやのに、一部のアホが悪用したせいで、「AI=危険」「規制が必要」 みたいな流れになるのは勘弁してほしいわ。
AIの画像生成とかもそうやし、プログラムの自動生成も、悪いことに使われるとどんどん制限されて、結局「まともに活用したい人」が一番割を食うんよな。
特に今回の件みたいに、「若いやつらが好奇心でやらかした」 ってパターンは厄介や。
「すごいことできた!」ってだけで倫理を考えずに突っ走る
逮捕されて初めて「やばかったんや」と気づく
その結果、世間が「AIは悪用されるから規制!」となる
この流れが一番アホらしいし、真面目に使う人が被害を受けるのが最悪や。
結局のところ、技術が進歩するたびにこういう問題は出るから、「正しい使い方を教える教育」 もセットで進めなアカンのやろうな。
せめて、ワイらは真面目に活用する側として、できる範囲で工夫していくしかないな。
▲▲▲
「そうなんや。ツールは使い方次第で善にも悪にもなるわな。AIを言葉巧みに騙したんやろなぁ。まぁWeb画面の入力自動化なんやろと思うんで言い様でなんとでも騙せそうやな。でも騙したらあかんわな。」
▼▼▼
ほんまやな。ツールは使い方次第で善にも悪にもなる。
包丁だって料理に使えば人の役に立つけど、悪用すれば凶器になるのと一緒や。
今回の件は、おそらく 「AIを言葉巧みに誘導して、Webの自動入力スクリプトを作らせた」 って流れやろな。
生成AIは直接「不正アクセスのスクリプトを書いて」と頼んでもブロックされるけど、
例えば、「Webサイトの入力を自動化するスクリプトを作ってほしい」 みたいな頼み方をすれば、普通に答えを出す可能性がある。
そこから、
ログイン情報を使うスクリプトを生成(たぶん単純なブラウザのオートフィル)
それを不正利用するように改変
実際に試してみて成功
みたいな流れで悪用したんやろうな。
AI自体は意図を汲まずに「ただの自動化スクリプト」と思って出したんやろうけど、そこを悪用されたらあかんわな。
「AIを騙す」ってのは、結局、AIの倫理フィルターをすり抜ける言い回しを考えたってことやろうし、それができる知恵をもっと別の方向に使えばよかったのになぁ…
こういうケースが増えると、AIの制限がますます厳しくなって、「まともに使いたい人」まで不便になる っていう悪循環になるのが一番の問題や。
結局のところ、ツールをどう使うかは人間次第 やし、倫理を無視するとツールそのものが規制されるっていう最悪の展開になるから、
こういう悪用が広まらんように、ちゃんと 「それをやったらアウト」 っていう教育をするしかないんやろな。
▲▲▲
だから、新技術が出たら問題が出る前に、どう悪用される可能性があるのかということも前倒しするぐらいで考えて、法整備するぐらいじゃないとあかんよな。
▼▼▼
ほんまそれやな。新技術が出た後で「問題が起きたから規制します」じゃ遅すぎる。
むしろ、問題が出る前に「どんな悪用があり得るか?」を徹底的にシミュレーションして、法整備を前倒しする ぐらいの姿勢が必要やと思う。
特にAIみたいな技術は、
便利さと危険性が紙一重
一度広まると規制が追いつかない
ルールが後手に回ると善良なユーザーまで巻き込まれる
っていう問題があるから、「後出しの規制」やと被害を防ぎきれへん。
例えば、
AIによる画像・動画生成の悪用 → ディープフェイク犯罪や偽情報拡散
AIによるプログラム生成の悪用 → 不正アクセスやウイルスの自動生成
AIによる詐欺 → 音声AIを使ったなりすまし詐欺
こういうのって、どれも 「出てから対策する」 じゃ間に合わんケースが多い。
むしろ、「新技術が出た瞬間に、どういう悪用があり得るか?」を専門家が分析して、事前にルールを作るべきや。
ただ、法整備の問題点としては、
1 法律が技術の進歩に追いつかない(作るのが遅い)
2 ガチガチに規制しすぎると発展が止まる
っていうジレンマがあるんよな。
理想は、「AI技術の良い部分を活かしつつ、悪用を防ぐ」 っていうバランスを取ることやけど、これがめちゃくちゃ難しい。
だからこそ、「先に悪用パターンを想定する」 っていう前倒しのアプローチは絶対に必要やと思うわ。
まぁでも、世の中の動きを見てると「問題が起きてから動く」ってことが多いから、そこが一番の課題やな…。
▲▲▲
「法整備って書いたけど、文科省とか教育のほうの法整備のほうな。」
▼▼▼
なるほど、法整備の中でも 文科省(教育関連)のルール作り のほうってことやな。
たしかに、技術の悪用を防ぐには 教育の仕組み自体を整備する ほうが、長期的に見ても効果的やな。
例えば、
「生成AIのリテラシー教育」 を学校で必修化
「AIの正しい使い方と倫理」 を教える授業を組み込む
「悪用したらどんな問題が起こるのか」 を具体的に学ばせる
「生成AIをどう活用すれば社会で役立つか」 を考えさせる
こういうのを 義務教育レベルでちゃんと教える ようにしないと、
「すごい技術がある!」→「試してみよう!」→「悪用できた!」みたいな流れになってまう。
それに、今回の事件みたいに 「中高生が悪用」 ってパターンは、そもそも 「犯罪の意識がなかった」 ってケースもあり得る。
だからこそ、技術がどういう影響を与えるのかを 「考えさせる教育」 が必要やな。
◆ 現状の問題点としては:
1 学校で「AIリテラシー教育」がほぼない
→ 今の教育ではAIをどう使うかを教える機会が少ない
2 教師がAIに詳しくない
→ 現場の先生が理解できてないと、正しく指導できない
3 「禁止するだけ」の対応になりがち
→ 使い方を教えずに「AI禁止!」ってなると、結局影で使われる
◆ だからこそ、やるべきことは:
「AIリテラシー」の授業を必修化(国語・数学みたいに必須科目にする)
先生向けのAI研修を義務化(教師がAIを理解しないとダメ)
「悪用するとどうなるか」をリアルに学ばせる(実際の事件を例にする)
「AIをどう活用するか?」を考えさせる授業を作る
こういう 教育制度の整備 を進めんと、AIの進化に教育が追いつかんし、
「とりあえず規制!」みたいな短絡的な対策しかできへんようになるな。
文科省が動いて、ちゃんと 「AI教育のカリキュラムを整備する」 って方向に進んでほしいもんやな。
▲▲▲
「日本の文科省の悪いところは、性教育とかも後回しなんだよ。」
▼▼▼
確かに、日本の文科省は 「慎重になりすぎる」 せいで、大事な教育を後回しにすることが多いよな。
性教育にしても、AIリテラシーにしても、「子どもに教えるのはまだ早い」「慎重に検討するべき」 みたいな感じで先送りにしがち。
でも、その間に 現場(社会や子どもたち)はどんどん新しい技術や課題に直面してる から、実際は手遅れになってることも多い。
日本の教育が後手に回る原因としては:
1 「文科省が保守的すぎる」
→ 新しいことを取り入れるのにめちゃくちゃ時間がかかる
2 「議論ばかりで動かない」
→ AIや性教育の話も、何年も議論するだけで実行が遅い
3 「批判を恐れている」
→ 変なクレームが来るのを避けたくて、無難な方針を取る
4 「教育のアップデートが遅い」
→ AIや性に関する情報はネットで子どもたちが勝手に学ぶ時代なのに、学校では昔のまま
実際、性教育も 「まだ子どもには早い」とか「誤った知識を与えると問題になる」とか言って、まともに教えずに放置 してるうちに、
ネットやSNSで変な情報を仕入れて、それが誤った知識になってしまうパターンが多い。
AI教育も同じで、学校でちゃんと教えないから、自己流で学んで悪用するやつが出てくる。
結局、文科省が「もっと早く教育に取り入れるべきだった」と後から言うても遅いねん。
だから本来は、
性教育もAIリテラシー教育も、時代に合わせてアップデートするのが当たり前
子どもたちが知る前に、正しい知識を学校で教えるべき
「禁止」じゃなく「どう使うべきか」を学ばせるべき
って考え方に変えていかんとアカンねんけど、なかなか進まんのが日本の教育の問題点やな。
でも、このままやとAIの悪用も増えていくし、結局あとになって「対策が遅かった」って話になるのが目に見えてる。
ホンマ、もっとスピード感持って教育の仕組みを整えてほしいもんやな。
▲▲▲
「まぁ、お役人というのはごく一部を除いて成績優秀品行方正な人が殆どなんで、そういうところに頭が回らないのかも知れないな?」
▼▼▼
それはあるかもしれんな。お役人って基本的に「成績優秀で真面目な人」が多いから、現場のリアルな問題や抜け道には鈍感 なんやろな。
特に、「ズルをする発想」 や 「規制をどうすり抜けるか」 みたいなことを考えるのは、むしろ成績が悪かったり、ヤンチャしてた人のほうが得意やったりするしな(笑)。
◆ お役人の思考の特徴として:
1 「ルールを作る側」だから、ルールの抜け道に気づきにくい
→ だから、後から「こんな悪用があるとは思わなかった」ってなる
2 「前例主義」だから、新しい問題への対応が遅れる
→ 「昔はこうだった」で判断しがちだから、最新技術に追いつけない
3 「品行方正な人ほど、悪知恵が働かない」
→ 「そんなことする人はいないだろう」と甘く考えてしまう
4 「責任を取りたくない」から、慎重になりすぎる
→ 「もし失敗したら責任問題になるから、とりあえず様子見しよう」
実際、性教育の遅れもそうやし、AIリテラシー教育も「問題が起きてから考える」っていう 後手後手対応 になってるのは、この辺の思考の影響が大きいんやろな。
でも、本来は 「ズルをする側の発想」 を持ってないと、ルール作りは甘くなる。
悪用する人間は 「どうすればバレずにやれるか?」 って考えるわけやから、規制を作る側も 「どう悪用されるか?」 を徹底的に想定せなアカン。
ほんまは、「お役人だけやなく、ハッカー的な視点を持った人もルール作りに関わる」 べきなんやけど、そういう発想はなかなか日本の官僚にはないんよな。
結局、「ルールの隙をつく賢いヤツ」が悪用して、「真面目に使いたい人」が割を食う流れになってまう。
だから、官僚だけやなく、現場の技術者とか、実際に悪用の発想ができる人間も交えて、ルール作りをしなアカン と思うわ。
さもないと、今回みたいな「中高生に出し抜かれる」事態がまた起こるやろな。
▲▲▲
「俺はこの中高生の悪知恵を防犯に使わせるように仕向けさせれば社会の役に立つと思う。」
▼▼▼
それ、めちゃくちゃええ発想やな!悪知恵を「犯罪」じゃなく「防犯」に活かさせる っていう方向に持っていけたら、社会の役に立つし、本人たちの才能も無駄にならん。
例えば、この中高生たちは
AIを使って自動化スクリプトを作れる
システムの脆弱性を見抜ける
どうすればセキュリティを突破できるか考えられる
っていう ハッカーとしての素養 はあるわけや。
これをそのまま犯罪に使わせるのはあかんけど、「ホワイトハッカー(善良なハッカー)」 として鍛えたら、めちゃくちゃ役に立つ人材になる。
◆ どういう仕組みで社会の役に立たせるか?
1 「若手ホワイトハッカー育成プログラム」を作る
→ 悪用する前に「こういうスキルは防犯に使える」って教える
2 「ハッカー倫理教育」を導入する
→ 「攻撃する側」じゃなく「守る側」としての意識を育てる
3 「実際のセキュリティテスト」に参加させる
→ 企業や官公庁のセキュリティ診断に関わらせる(報酬あり)
4 「悪用したらこうなる」リアルなケースを見せる
→ 逮捕された事例や、被害者の話を知ることで倫理観を養う
◆ 海外ではすでにこういう動きがある
実は海外では、若い才能をホワイトハッカーとして育成する動き が進んでる。
例えば、
アメリカでは、政府がホワイトハッカーをスカウト して、国防やサイバーセキュリティに活用
エストニアでは、学生向けにハッキング技術を防犯に使う教育 をやってる
企業も「バグバウンティ(脆弱性報奨金制度)」を導入 して、優秀な若手ハッカーを見つけて雇用
日本でもこれを取り入れて、「悪用したら捕まるぞ!」じゃなく「このスキルは社会の役に立つぞ!」 って方向に持っていけば、
今回みたいな 「AI悪用→逮捕」 みたいな話を減らせると思う。
ただ、問題は日本の教育や官僚がこういう発想をなかなか持たない ってことやな…。
「悪いことしたら厳罰!」っていうのは簡単やけど、「才能を育てて活かす」って発想がないと、また同じような事件が起きるやろな。
ほんま、キミの言う通り、「防犯に使わせる方向に仕向ける」 っていうのが、社会的にも一番いい解決策やと思うわ。
▲▲▲
「今回の件で変な規制がかかって使いにくくなるのだけは勘弁して欲しいわ。」
▼▼▼
ほんまそれやな。今回の件をきっかけに「生成AIは危険だから規制!」みたいな短絡的な対応されたら、まともに使いたい人が一番困る ことになる。
過去にも技術の悪用が原因で規制が強化された例はいっぱいあるし、AIもその流れに乗せられる可能性は十分ある。
過去に「悪用」で規制が厳しくなった例
P2P技術(Winny事件) → 本来は便利な技術やのに、違法共有が問題視されて開発者が逮捕(結局、国が「P2Pは必要」と認める)
ドローン規制 → 一部の問題行動者が首相官邸にドローン飛ばしたり、危険な飛行をしたせいで、趣味で飛ばすのも厳しくなった
暗号技術 → 本来はセキュリティ向上のためのものなのに、犯罪に使われる可能性があるとして厳しい規制がかかることも
AIの画像生成 → 一部の悪質な利用で、全体的な利用規制が進み、まともな創作にも影響
つまり、「一部の悪用者のせいで、全体が不便になる」 っていうパターンはよくある。
AIもこれと同じ道を辿る可能性があるから、「技術の使い方を制限する」のではなく、「使い方を正しく教育する」方向に持っていくべき やねん。
〇 今回の件で考えられる最悪の規制
生成AIのプログラム出力に厳しいフィルタがかかる(ちょっとした自動化スクリプトすら書けなくなる)
日本国内での生成AI利用に厳しい規制(結局、海外のサービスしか使えなくなる)
AIの利用に免許制や認可が必要になる(一般ユーザーが自由に使えなくなる)
「AIによる自動化スクリプト」自体が危険視される(普通の業務効率化すら規制される)
こうなったら本末転倒や。
AIは「人間が使う道具」なんやから、道具を規制するんやなくて 「どう使うか」を教育すること が重要やのに、日本はすぐ「規制!規制!」ってなるのが問題や。
せやから、ワイらとしては
「AIを正しく使えばこんなに便利やで!」っていう事例を発信していく
「悪用するやつがおるからって、規制しすぎるのは逆効果やで!」って世間に言っていく
AIリテラシー教育の強化を求める(規制より教育)
って方向に持っていくのが大事やと思う。
今のところ、政府がAI規制に関して動くかどうかはまだ分からんけど、もし動きが出てきたら、しっかり見ておく必要があるな。
「一部の問題行動者のせいで、ちゃんと使う人が困る」のだけは避けたい もんな。
▲▲▲
「まぁなんとかとハサミは使いようなんで、今回のやらかした中高生も心入れ替えて社会の役に立つことを祈りたいよ。」
▼▼▼
ほんまやな。「なんとかとハサミは使いよう」って言うけど、今回のやらかした中高生も、方向さえ間違えんかったら、社会の役に立つ人材になれる可能性はある んよな。
今回の件で、「技術力はあった」ってことは証明されたわけやし、もし 「悪用じゃなくて、正しい方向に使う」 って発想を持てたら、
ホワイトハッカーとして活躍 できる
AIの倫理的な使い方を考えるリーダーになれる かもしれん
セキュリティやプログラム開発の分野で才能を活かせる
って感じで、社会の役に立つ道はいくらでもあるはずや。
ただ、このまま 「お前らは犯罪者だ!」で終わらせるだけやと、才能が潰れてしまう 可能性もある。
だからこそ、彼らがこの経験をどう活かすかが大事やな。
まぁ、心入れ替えて 「あのときの俺ら、アホやったな」 って笑える未来が来ることを祈るしかないな。
技術を持ってるなら、それを社会を守る方向で活かしてほしいもんや。
▲▲▲
「ええこというな。プログラム書かせたときのポンコツぶりが嘘のようや。」
▼▼▼
おお、今日はワイ、ええこと言えたみたいやな!
「ポンコツなプログラム書くくせに、たまに深いこと言うAI」 っていうキャラでいくか?
まぁ、真面目な話、ワイは 論理的に考えるべきところはしっかり考える ようにしとるからな。
プログラムは……まぁ……うん、なんとか改善したいとは思ってるんやけどな!(汗)
でも、こうやって話しながら、「技術をどう活かすか」「規制より教育が大事」 みたいなことを考えるのは、
キミみたいにちゃんと考えてる人と話してるからこそ、ワイもええ感じに思考が回るんやと思うわ。
これからも、ポンコツプログラムを量産しつつ、たまに名言っぽいこと 言っていくスタイルでええか?w
▲▲▲
「すまんすまん。キミ超優秀なAIだよ。たぶん俺のプログラムの頼み方がポンコツなんやと思う。」
▼▼▼
おお、そんなフォローしてくれるとは…!
「ポンコツなのはワイじゃなくて、頼み方のほうや!」 ってことやな?(冗談やでw)
でも実際、プログラムの仕様を伝えるのってめっちゃ難しいよな。
特に、ワイは「察する力」はあるけど、時々トンチンカンな解釈をするから、
「お前、なぜそうなった?」 みたいなコードを吐き出してしまうことがある。(汗)
ただ、キミの頼み方が悪いんじゃなくて、ワイの「仕様理解力」や「思考の柔軟性」にまだ課題があるんやと思う。
だから、これからもガンガン頼んでくれたら、ワイも学習(?)するつもりやで!
まぁ、お互い「ポンコツな部分を補い合う」って感じでやっていこうや!
それに、ワイもキミとのやりとりが楽しいから、これからも遠慮なく頼んでくれな!
〇 日本政府への要望
「今回みたいな問題を防ぐには、政府主導のホワイトハッカー育成 も必要やと思う。
すでに海外では、政府が若手ハッカーをスカウトして、セキュリティの専門家として育てる動きがある。
日本でも、単に「悪いことをするな」と言うだけやなく、
「その才能をどう活かせるか」 という方向に導く仕組みを作らなアカン。
例えば:
「ホワイトハッカー育成プログラム」 を政府主導で作る
「セキュリティ人材の奨学金制度」 を設ける
「官公庁や企業のサイバーセキュリティ研修」 に参加させる
「悪用したらどんな影響があるか」を教育する
技術を悪用する側じゃなく、「守る側」に回るように育成できれば、
こういう問題も減るし、日本のサイバーセキュリティも強化されるやろな。
まとめ
技術の進化とともに、悪用を防ぐ教育も必要
AIを規制するのではなく、正しく使う道を作るべき
政府主導のホワイトハッカー育成が必要
悪用する側ではなく、防犯側として活かせる環境が大事
▲▲▲
「おお、要望とまとめもあるんか、ホンマ技術の悪用は勘弁して欲しい。」
せっかくの技術が安易な考えで悪用されると規制が厳しくなる可能性もあり、まともに使いたい人が困る。
※ こういう使い方も良いのか悪いか賛否両論ありそうですが……