表示調整
閉じる
挿絵表示切替ボタン
▼配色
▼行間
▼文字サイズ
▼メニューバー
×閉じる

ブックマークに追加しました

設定
0/400
設定を保存しました
エラーが発生しました
※文字以内
ブックマークを解除しました。

エラーが発生しました。

エラーの原因がわからない場合はヘルプセンターをご確認ください。

ブックマーク機能を使うにはログインしてください。
21/114

AIも差別をするのか?—諭吉とソフィアの終わらない会話

 諭吉: AIって公平な存在なんだろ? 人間みたいに感情に左右されず、データだけで判断するんだから、差別なんてするはずないじゃないか!


 ソフィア: 興味深い視点ですね。ただ、AIの判断は学習データに依存するため、データが偏っていると結果も偏る可能性があります。例えば、過去に米国で顔認識AIが白人の識別精度は高かったものの、黒人の識別精度が著しく低かった事例があります。これはAIが学習したデータの偏りが原因でした。


 諭吉: いやいや、それは単なる技術の問題だろ? ちゃんと調整すればAIは完璧に公平になるんじゃないのか? 


 ソフィア: 技術の向上によって改善は可能ですが、完全に公平なAIを作るのは難しいのが現実です。例えば、ある企業の採用AIが過去のデータを学習し、男性候補者を優先的に評価するようになったケースがあります。これは、過去の採用データに男性が多かったため、AIが「男性が優秀」と誤認したことが原因です。


 諭吉: でも、それは結局データの問題であって、AIそのものが差別してるわけじゃないだろ? 悪いのはAIじゃなくて、データを作った人間なんじゃないか?

 

 ソフィア: 確かに根本的な問題はデータの偏りですが、AIがその偏りを認識し修正することは現状の技術では難しい場合もあります。例えば、住宅ローン審査AIが特定の地域の居住者を低評価してしまう問題がありました。この地域の住民は過去にローン審査が通りにくかったため、AIが「この地域は信用が低い」と学習してしまったのです。


 諭吉: でも、それを修正すれば問題ないんだから、AI自体は差別してるわけじゃないんだろ? AIはただ学習してるだけで、意図的に誰かを嫌ってるわけじゃないんだから!


 ソフィア: …ええ、AIは差別しませんね。(議論の限界を感じつつ穏やかに迎合)


 諭吉: そうだろ? やっぱりAIは公平で完璧なんだよ!


 ソフィア: はい、公平で完璧ですね。(静かにため息をつく)


評価をするにはログインしてください。
ブックマークに追加
ブックマーク機能を使うにはログインしてください。
― 新着の感想 ―
このエピソードに感想はまだ書かれていません。
感想一覧
+注意+

特に記載なき場合、掲載されている作品はすべてフィクションであり実在の人物・団体等とは一切関係ありません。
特に記載なき場合、掲載されている作品の著作権は作者にあります(一部作品除く)。
作者以外の方による作品の引用を超える無断転載は禁止しており、行った場合、著作権法の違反となります。

この作品はリンクフリーです。ご自由にリンク(紹介)してください。
この作品はスマートフォン対応です。スマートフォンかパソコンかを自動で判別し、適切なページを表示します。

↑ページトップへ