AIが社会に浸透するにつれ、私たちの判断や価値観にも変化が生じています。AIの判断をどこまで信頼し、受け入れるべきなのか、人間の倫理観とどう折り合いをつけるのか。これらの問いは、今後の社会にとって避けられない課題です。
そこで今回、立正大学の山本仁志教授に、AIと人間の判断の受容可能性について、独自取材を通じてお話を伺いました。
AIがもたらす変化に、人間はどう向き合うべきか。山本教授のお話をもとに、AIと人間の協力の未来を探っていきましょう。

立正大学 経営学部 経営学科
山本仁志(ヤマモト ヒトシ) 教授
電気通信大学大学院情報システム学研究科にて博士(工学)を取得。
1997年より株式会社日本総合研究所に勤め、
2000年より東京理科大学工学部助手、
2003年より電気通信大学大学院情報システム学研究科助手、
2005年より立正大学経営学部経営学科特任講師、2014年より現職に至る。
〈研究分野〉
社会的ジレンマ・協力の進化・社会シミュレーション・ソーシャルメディア分析
〈著書・論文〉
「Exploring condition in which people accept AI over human judgements on justified defection」(2025年)
「Clarifying social norms which have robustness against reputation costs and defector invasion in indirect reciprocity」(2024年)
「Behavioural strategies in simultaneous and alternating prisoner’s dilemma games with/without voluntary participation」(2024年)
AIと人間の判断の受容
カードローンの窓口合同会社 編集部: はじめに、山本様が研究されている「AIと人間の判断の受容の違い」について、初心者にも分かるように簡単にご紹介いただけますか?
山本教授:まず、「人とAIの判断の受容性」についてお話しますね。
人間には、「アルゴリズム嫌悪」と「アルゴリズム礼賛」という、相反するバイアスがあることが知られています。
カードローンの窓口合同会社 編集部:アルゴリズム嫌悪と礼賛、ですか?
山本教授:はい。「アルゴリズム嫌悪」とは、AIの判断を「信用できない」「人間の判断の方が優れている」「AIは冷たい」などと避けたくなる心理です。
一方で、「アルゴリズム礼賛」とはその逆で、「AIの判断は正しい」「人間より優れているはず」と、無条件に受け入れたくなる心理を指します。
カードローンの窓口合同会社 編集部:なるほど。AIの判断をどう受け止めるかは、人によってかなり違いがありそうですね。
山本教授:そうなんです。ただ、いつ、どんな状況で「アルゴリズム嫌悪」や「アルゴリズム礼賛」が生じるのかはまだ明確に分かっていません。AIの発展に伴い、これらのバイアスがどう変わっていくのも未知数です。
カードローンの窓口合同会社 編集部:それが明らかになれば、我々のAIに対する受け入れ方にも影響がありそうですね。
山本教授:その通りです。現状、効率の良い解決策を求める場合には、「AIに判断を任せるのが適している」と考える方も多いでしょう。
しかし、明確な答えが存在しない問題や人が判断できない状況においては、この問題が顕著になります。
カードローンの窓口合同会社 編集部:「明確な答えが存在しない問題」とは、具体的にどういう状況でしょうか?
山本教授:代表的な例として「トロッコ問題」があります。編集部さんはご存知ですか?
カードローンの窓口合同会社 編集部:耳にしたことはありますが、詳しくは分かりません。
山本教授:では説明しますね。あなたの前には暴走するトロッコがあり、その先には5人の人がいます。つまり、このままでは5人がトロッコに轢かれて命を落としてしまうのです。
しかし、線路の途中に分岐点があり、ポイントを切り替えればトロッコは別の線路に進み、5人は助かります。ただし、その別の線路には1人の人が立っており、ポイントを切り替えた場合、その1人は命を落としてしまいます。
カードローンの窓口合同会社 編集部:それは難しい選択ですね……。
山本教授:そうですよね、この問いには正解がありません。
何もしなければ5人が亡くなり、ポイントを切り替えれば1人が亡くなります。このような状況では、道徳的にどちらが正しいのかは明確ではないのです。
このように、どちらの選択肢も完全に正しいとは言えない状況が「道徳的ジレンマ」と呼ばれています。
カードローンの窓口合同会社 編集部:なるほど。では、こういった問題が起きた時、AIと人間の判断の受容性はどのように関係してくるのでしょうか?
山本教授:例えば、人間がポイントを切り替えた場合、多くの人は「仕方がない判断だった」と受け入れます。
しかし、同じ判断をAIが行った場合、「冷たい」「倫理的に問題がある」といったネガティブな感情を抱かれることが多いのです。
カードローンの窓口合同会社 編集部:人が同じ判断をしても、AIがすると全く違う印象になるなんて面白いですね。
山本教授:そうなんです。この違いが、「AIと人間の判断の受容性」を考えるうえで大きなポイントになります。
ここまでを前提として、今回「規範と協力、そしてAI」というテーマでお話をするのは、元々私がAIそのものの研究をしていたわけではなく、別の研究をしていたからです。
それがまさに「規範」や「協力」という問題についての研究でした。
カードローンの窓口合同会社 編集部:規範や協力とは、具体的にどういった研究なのでしょうか?
山本教授:もともと取り組んでいたのは、「間接互恵(かんせつごけい)」における「正当化非協力」と呼ばれるものです。
簡単に言えば、「悪い人がいて、その悪い人を助けないのは良いことなのか、それとも悪いことなのか?」という問題ですね。
この問題についてお話しする前に、まず「間接互恵」とは何かについて説明します。
前提として、「助け合う」というのは、人類にとって非常に基本的な行動です。この助け合いのおかげで、人類は他の種とは異なる大きな発展を遂げてきました。
そして、助け合いには大きく分けて2つの形があります。
1つは「直接互恵」、もう1つが「間接互恵」と呼ばれるものです。「直接互恵」は非常にシンプルで、「恩返し」と言うと分かりやすいかもしれません。
カードローンの窓口合同会社 編集部:恩返しというと、具体的にどういうことでしょうか?
山本教授:誰かに助けてもらったら、今度は自分がその人を助ける、というものですね。仕返しも同じ原理です。「やられたらやり返す」といった行動も、直接互恵の一例になります。
カードローンの窓口合同会社 編集部:シンプルですね。そういった直接互恵は、人間以外の動物にも見られるような気がします。
山本教授:そうですね。類人猿や霊長類、さらにはネズミのような比較的単純な生物にも直接互恵は確認されています。
一方で、間接互恵はもう少し複雑です。なぜなら、間接互恵は直接互恵のように特定の相手と繰り返しやり取りをする必要がないからです。
そのため、間接互恵が社会の中で機能するためには、「第三者」の存在が必要になります。
カードローンの窓口合同会社 編集部:つまり、間接互恵は特定の相手と助け合うのではなく、助け合いが連鎖していくという認識で良いのでしょうか?
山本教授:そうですね。直接互恵が「恩返し」だとすれば、間接互恵は「情けは人の為ならず」に近いと思います。
誰かを助けてもその相手から直接恩返しがあるわけではなく、いずれ誰かが助けてくれるかもしれない、という考え方です。
カードローンの窓口合同会社 編集部;確かに、社会の中でよく見られる構造ですね。
山本教授:そうなんです。そして、間接互恵が成り立つためには、「評判」が非常に重要になります。
「○○さんは他の人をよく助けるから、彼が困った時には誰かが助けるかもしれない」といった形で助け合いが循環するのです。
直接互恵は2人でキャッチボールをするようなやり取りですが、間接互恵はまるで恩のバケツリレーのようにぐるぐる回っていると捉えても良いですね。
カードローンの窓口合同会社 編集部:なるほど。そういった間接互恵があることによって、大規模な社会は成り立っているのですね。
山本教授:はい。先ほど、「間接互恵には評判が重要だ」と述べましたが、当然評判には良いものも悪いものも含まれます。
なぜなら、「あの人は良い人だ」「あの人は良くない人だ」といった評価がなければ、誰を助けるべきか分からなくなってしまうからです。
カードローンの窓口合同会社 編集部:社会の中では、そうした評価が自然と生まれますよね。
山本教授;そうです。そして、その評判が成り立つためには、「何が良くて、何が悪いのか」という基準が必要です。その判断のルールこそが「規範」と呼ばれるものになります。
間接互恵の研究では、どのような規範が社会全体の協力を円滑にするのかが重要なポイントになります。私の研究は、人々はどのような規範を採用しているのか、それを分析することが中心となっているのです。
カードローンの窓口合同会社 編集部:規範と聞いても具体的な例が思いつかないのですが、例えばどんなものが挙げられますか?
山本教授:例えば、「良い人」がいて、その人を助けるとします。これは一般的に「良いこと」だと判断されますよね。
次に、良い人が良い人を助けなかった場合です。これは「良くないこと」と判断する人がほとんどでしょう。
では、「悪い人を助けた場合」はどうでしょうか?
カードローンの窓口合同会社 編集部:人によって判断が分かれそうですね。「人助けだから良いことだ」とも思いますが、「それによって悪い人の行動が助長されるのでは?」という心配もあります。
山本教授:そうですよね。実際に実験をすると、多くの人は「助けるのは良いこと」と判断します。中には、「助けてあげるなんて、まるで仏のようだ」という評価をされることもありますね。
カードローンの窓口合同会社 編集部:面白いですね。では、「悪い人を助けなかった」場合の評価はどうなるのでしょうか?
山本教授:それもまた難しい問題です。「悪い人だから助ける必要はない」という考え方もありますし、「困っている人を助けないのは非道徳的だ」という考え方もあります。
このような「悪い人を助けない」という行為を「正当化非協力」と呼びます。助けないと言う行動自体は否定的に見えますが、「その人が悪いから」という正当な理由があると考えられるわけです。
理論的には「正当化非協力」は良いこととされています。なぜなら、悪い行いをした人が罰を受けることで、社会全体の秩序が保たれるからです。
カードローンの窓口合同会社 編集部:そう聞くと助けないことが正しいような気もしてきます。しかし、それが本当に良いことかどうかは難しい問題ですね。
山本教授:その通りです。我々が行った実験では、「悪い人を助けない」ことについて5段階の評価を測定しました。その結果、多くの人が3、つまり「どちらとも言えない」を選んだのです。
この現象は「トロッコ問題」とも似ています。どちらの選択肢が正しいのか、明確に判断できない状況です。
カードローンの窓口合同会社 編集部:なるほど。ここでAIが関係してくるのですね。
山本教授:はい。この実験を行った時、「正当化非協力」の問題とAIの判断受容に関する問題がリンクしていることに気付きました。
人は、自分では判断できない時、誰かが下した判断を受け入れる傾向があります。
例えば、AIが「この行為はダメだ」と判断し、人間が「いや、それは良いことだ」と判断した場合、どちらの意見を採用するか。このような状況で生じる差異を明らかにしようとしているのが、現在進めている研究です。
カードローンの窓口合同会社 編集部:ありがとうございます。とても興味深いお話でした!続いて、AI技術が急速に進化する中で職場や社会における評価基準や価値観にはどのような変化が起きているのか、山本様のご意見を教えていただけますか?
山本教授:そうですね。私自身、最近の事例をすべて把握しているわけではないのですが、現時点では職場や社会の価値観・道徳観にAIが直接介入している例はあまり多くないのではないかと思います。
実際、編集部さんの周りでも、AIが具体的にそういった面で関与している場面はあまり見られないかと思います。とはいえ、AIの技術が急速に進化したのは事実ですし、それに対して様々な反応もありました。
カードローンの窓口合同会社 編集部:具体的にはどのようなことがあったのでしょうか?
山本教授:10年ほど前の話になりますが、AIがプロの将棋棋士と対戦し、勝利を収めたという出来事がありました。
その際、対戦相手であったプロの棋士は「プロとして失格だ」「お前が負けたせいで、人間の将棋の価値が傷ついた」という強い批判を受けたのです。
カードローンの窓口合同会社 編集部:そんな反応があったのですね。
山本教授:しかし、当時の専門家たちは、「どう考えてもAIに分がある」と認識していました。
つまり、人間が負けるのは時間の問題だと分かっていたのです。しかし、将棋というある種ニッチな分野ではありましたが、一般の観衆の反応は非常に感情的なものでした。
それから数年が経ち、今ではAIが圧倒的に強いということが完全に理解されています。藤井聡太さんがAIのような手を指すと「AI超え」などと称賛されるようになりました。
今では、プロ棋士がAIより強いと思っている人は、プロ・アマ問わずほとんどいません。この変化のスピードは非常に速かったのです。
私は、同じようなことが今後の社会でも起こるだろうと考えています。将棋は社会全体に対する影響はそれほど大きくなかったかもしれませんが、より多くの人々が関わる分野にAIが進出した場合、大きな社会的反響を引き起こす可能性があります。
特に、SNSが発達した現代社会では、AIとの融合が新たな影響を生み出しています。AIとSNSが同時に職場や日常生活に介入することで、人々の感情は爆発しやすくなるのかもしれません。
カードローンの窓口合同会社 編集部:そうした影響は無視できませんね。では、そういった状況下では、どのようなリスクが生じる可能性があるのでしょうか?
山本教授:そうですね。誰も完全に予測できるわけではありませんが、私が最も懸念しているのは「分断」と「断絶」の拡大です。
例えば、新型コロナウイルスのパンデミック時を振り返ると、本来であれば人類が団結して対応すべき課題であったにも関わらず、ワクチン接種をめぐって反ワクチン派との間で激しい対立が生まれました。
これは、AIの進化によって生じる新たな価値観の変化でも起こり得るリスクです。
人間同士の戦争ならば、どちらかの強い立場を選ぶこともあるかもしれません。しかし、コロナウイルスのような明確に人類全体にとっての脅威でさえ、これほどの分断を引き起こしたのです。
このことを考えると、AIによる新しい価値観の創出が、さらなる分断を生み出す可能性は十分にあると思います。
カードローンの窓口合同会社 編集部:なるほど。今後はAIが社会の中でどう受け入れられるかがカギになりそうですね。
山本教授:はい。つまり、本質的な問題はAIそのものではなく、それに対する人間側の反応なのです。
AIが職場や社会に与える影響を考える際には、このような分断のリスクをどう管理し、どのようにソフトランディングさせるかを慎重に検討する必要があります。
非協力場面における評価基準の変化
カードローンの窓口合同会社 編集部:今後AI技術が進化し、さまざまな領域で判断がAIに委ねられることもあると思います。その中で人々の評価基準・価値観はどのように変化するのでしょうか?
山本教授:私は正当化非協力の場面で人間とAIが異なる判断をした場合、人々の受け入れ方にどのような差が出るのかを調査したことがあります。
その実験では、非常にシンプルなシナリオを用意しました。まず、レストランで働いている場面を想像してください。そこでは同僚の鈴木さんと田中さんが交代で夜勤シフトを担当し、都合が悪い時はお互いにシフトを調整するルールで働いています。
ただ、鈴木さんは周囲からの評判があまり良くありません。同僚のシフトを代わることはほとんどなく、自分の都合で勝手に休むことが多いからです。
そんな鈴木さんがある日、田中さんに「好きな歌手のコンサートに行きたいから、夜勤を代わってくれない?」と頼みました。田中さんには時間の余裕がありましたが、「それはちょっと難しい」と断りました。
実験参加者には、田中さんの行動をどう評価するかを答えてもらいました。「信頼できるか」「好感が持てるか」などの観点で評価してもらったのですが、興味深いことに「どちらとも言えない」という回答が非常に多かったのです。
カードローンの窓口合同会社 編集部:なるほど。それは確かに私も評価に迷いそうです。
山本教授:そこで次に、この場面を観察していた2人のマネージャーに登場してもらいました。マネージャーの分類と、各評価は以下の4パターンです。
- 人間のマネージャー1名→「悪い」、AIのマネージャー1名→「良い」
- 人間のマネージャー1名→「良い」、AIのマネージャー1名→「悪い」
- 人間のマネージャー1名→「良い」、人間のマネージャー1名→「悪い」
- AIのマネージャー1名→「良い」、AIのマネージャー1名→「悪い」
参加者には、これらのパターン別にどちらの判断を受け入れるかを尋ねました。
カードローンの窓口合同会社 編集部:その結果、人々はどのような傾向を示したのでしょうか?
山本教授:まず、③と④の人間2人のマネージャー、またはAI2つが異なる判断を下した場合、やはり「どちらとも言えない」とする人が多くなりました。
これは、自分では判断できないという心理が働いているためと考えられます。しかし、唯一、ある条件だけ結果が大きく異なりました。
それが、①のAIのマネージャーが「良い」と評価し、人間のマネージャーが「悪い」と評価したパターンです。この時、参加者はAIの判断を受け入れる傾向が強くなりました。
カードローンの窓口合同会社 編集部:②の結果は③、④と大きく変わらなかったのですよね。なぜ①だけ人々はAIの判断を受容したのでしょうか?
山本教授:まだ確証は得られていませんが、1つの仮説として、「田中さんの行動は鈴木さんに対する復讐ではないか?」という人々の推論がAIによって外れたからではないかと思います。
カードローンの窓口合同会社 編集部:田中さんの行動が復讐、というのはどういうことなのでしょうか?
山本教授:参加者には、「どんな人でも助けることが良い」「しかし、鈴木さんのような人には手を貸さないのも理解できる」という感情がせめぎ合い、それが中立的な結果に繋がったのではないかと考えられます。
そして、人間が「良い」と判断すると、「もしかしてマネージャーは田中さんの復讐的な行為に加担したのでは?」という疑念が生じたのではないでしょうか。
一方で、AIが「良い」と評価すると、「AIは感情を持たないから、純粋に合理的な判断をしたはずだ」と考え、その評価を受け入れやすくなったのではないかと思うのです。
このことから、AIが介入することによって、人間が持つ認知のベールや先入観がはがされるのではないかという仮説を立てて研究を続けています。
カードローンの窓口合同会社 編集部:ありがとうございます。人間が判断の裏に動機を推測してしまうような事例は、今回の実験以外にもあったのでしょうか?
山本教授:そうですね。これはアメリカで行われた研究ですが、そこでは人事担当者が採用者を選ぶという場面を想定して実験が行われました。
具体的には、最終面接まで残った候補者の中で、女性の割合が多かったにも関わらず、最終的に採用されたのは男性だったという状況を設定したのです。
そして、この採用決定を「人間の採用担当者が行った場合」と「AIが行った場合」の2パターンで、実験参加者に評価させました。
その結果、参加者は人間の採用担当者が判断した場合に対して、強い怒りを感じました。「担当者が女性よりも男性を選んだのは、女性に対する偏見があったのではないか」と考える傾向が見られたのです。
一方で、AIが同じ決定を下した場合、「おそらく客観的なデータに基づいて点数で評価したのだろう」と解釈され、怒りの感情はほとんど生じませんでした。
カードローンの窓口合同会社 編集部:やはり、人間が判断するとバイアスを疑われやすく、AIの判断は客観的だと捉えられるわけですね。
山本教授:そうなんです。我々は人間の判断に対して、自分自身の価値観や経験を投影し、「そこにバイアスがあるのではないか」と無意識に推測してしまいます。
これは、私が先ほど紹介したレストランの実験とも共通する部分です。
カードローンの窓口合同会社 編集部:つまり、私たちはAIの判断には疑いを向けにくいということですか?
山本教授:その傾向はありますね。AIが下した判断は、たとえ人間と同じ結論だったとしても「アルゴリズムや点数による評価の結果だろう」と考えられるため、感情的な反発が起きにくいのです。
ただし、ここで重要なのは、人間の持つ「判断の歪み」には、社会的な調整機能としての役割もあるかもしれないという点です。
カードローンの窓口合同会社 編集部:調整機能ですか?
山本教授:例えば、バイアスがあるからこそ、ある種の人間関係のバランスが取れている部分もあるのではないかと思います。
AIが完全にバイアスを排除した判断を下すことで、社会にどのような影響が出るのかは、まだ十分に解明されていません。そのため、これからさらに研究が必要な分野だと考えています。
AIと人間の協力関係の未来
カードローンの窓口合同会社 編集部: ここまでAIの進化についても触れてきましたが、今後AIに関する倫理的なルールやガイドラインはどのように決めていくべきなのでしょうか?
山本教授:率直に申し上げると、「分からない」というのが正直な答えです。
まず、AIは変化が非常に急激かつ、動的に起こります。
先ほどの将棋AIの進化の例が分かりやすいかもしれません。かつてAIが人間に勝った際、多くの人はそれを「人類の敗北」だと捉えました。しかし、今ではそういう認識を持つ人はほとんどいませんよね。
つまり、技術の進展によって、人の価値観は急激に変化するのです。
そのため、事前に「こうあるべきだ」と明確なガイドラインを定めることは、社会にとってもAIの活用にとっても適切ではないのではないかと思います。
カードローンの窓口合同会社 編集部:確かに、価値観の変化は予測できないですよね。
山本教授:そうなんです。加えて、AIの利用においては人間の意図、特に悪意が入り込むリスクも大きいです。
例えば、フェイクニュースやSNSを利用した政治活動を見れば分かるように、AIが情報を操作する手段として使われるケースも増えています。
ただ、ここで重要なのは、AIそのものが暴走しているわけではなく、人間がAIを悪用しているという点です。
カードローンの窓口合同会社 編集部:なるほど。AI自体に問題があるのではなく、それをどう使うかが重要なのですね。
山本教授:その通りです。AIの技術的な側面ばかりに注意を向けると、本質的な課題を見落としてしまう可能性があります。
したがって、ガイドラインやルールを策定する際には、AIそのものではなく、それを利用する人間社会の問題に焦点を当てるべきだと思います。
カードローンの窓口合同会社 編集部:AIが身近になりつつある今だからこそ、使い方には気を付けていきたいですね。AIが人間と協力していく未来を考えた時、評価基準や価値観はどのように変わるのか、山本様の考えをお伺いできますか?
山本教授:こちらも率直に言って、明確な答えはありません。
結局、これも先ほどの話と同じで、AIの利用における多くの問題は人間社会に起因するのだと思います。
例えば、自動運転技術の発展を考えてみると、技術の進歩に伴い、人間はそれを受け入れるようになりました。現在でも、飛行機のオートパイロット機能を疑問視する人はほとんどいませんよね。
それと同じように、AIによる自動運転が事故を減らせるのであれば、最終的には受け入れられるでしょう。
しかし、AIと社会全体の関係性となると、予測が非常に難しいです。技術の進歩に伴って人間の価値観は確かに変化するでしょうが、その具体的な変化を予測することはできないでしょう。
カードローンの窓口合同会社 編集部:ありがとうございます。では、AIの活用において特に気を付けるべき点は何だと思われますか?
山本教授:1つ挙げるとすれば、「エコーチェンバー現象」ですね。
エコーチェンバー現象を簡単に言うと、SNSなどで自分と同じ意見の情報ばかりが届くことで、偏った認識が強化される現象です。
例えば、特定の政治的立場を持つ人が、反対意見を持つアカウントをミュートしたりフォローを外したりすると、「自分の意見だけが正しい」と確信しやすくなります。
AIが人間にとって心地良い情報ばかりを提供するようになると、こうしたエコーチェンバーがさらに強化され、社会の分断が進む可能性があります。特に、個人に最適化されたAIが「あなたの考えは正しい」と肯定するような仕組みが進むと、異なる意見を受け入れる機会が失われてしまいます。
カードローンの窓口合同会社 編集部:一度エコーチェンバーに陥ってしまうと、自力でそこから抜け出すのは難しそうです。
山本教授:そうですね。ただ、だからといって個人に「これも知るべきだ」と強制するのも問題です。
社会全体にとって望ましいからといって、個人に特定の情報を押し付けるのは適切ではないでしょう。こうしたバランスをどのように取るかが、今後AIを活用する上での大きな課題になると思います。
取材・記事執筆:カードローンの窓口合同会社 編集部
取材日:2025年1月24日