中小企業診断士 過去問
令和6年度(2024年)
問185 (経営情報システム 問24)
問題文
このページは閲覧用ページです。
履歴を残すには、 「新しく出題する(ここをクリック)」 をご利用ください。
問題
中小企業診断士試験 令和6年度(2024年) 問185(経営情報システム 問24) (訂正依頼・報告はこちら)
- AIが生成したデータをAI自らが学習することで、言語モデルの精度が低下したり多様性が失われたりする現象のこと。
- 事実に基づかない情報や実際には存在しない情報をAIが生成する現象のこと。
- 人間がAIとの対話中に、そのAIが感情や意図を持っているかのように感じる現象のこと。
- 人間がAIを反復的に利用することで、特定の意見や思想が正しいと信じ込むようになる現象のこと。
- モデル訓練時の入力データの統計的分布と、テスト時/本番環境での入力データの統計的分布が、何らかの変化によってズレてくる現象のこと。
正解!素晴らしいです
残念...
この過去問の解説 (3件)
01
生成AIが文章や画像を作るとき、本来ないはずのことを作り出してしまう場合があります。
このような現象は「ハルシネーション」と呼ばれ、AIの信頼性に関わる重要な問題です。
→ これは「ハルシネーション」ではなく、「モデルの退化(モデル崩壊 / model collapse)」や「再学習による精度劣化」と呼ばれる現象です。
生成AIが自分で作ったデータを繰り返し学習し続けると、似たような内容ばかりになって、情報の偏りや内容の劣化が起こります。
→ これが「ハルシネーション(hallucination)」と呼ばれる現象の説明です。
たとえば、AIに「歴史的に存在した人物について教えて」と質問したときに、実在しない人物の名前やエピソードをあたかも本当のように出力することがあります。
このように、でたらめな内容をもっともらしく出力してしまうのがハルシネーションの特徴です。
会話AIだけでなく、画像生成AIなどでも、現実に存在しない建物や風景を自然に作り出してしまうことがあります。
→ これは「擬人化(anthropomorphism)」という人間側の心理的反応です。
たとえば、AIの返答が優しく感じられたり、共感してくれたように思えると、AIに感情があるように思ってしまうことがあります。
これはAIの出力内容が事実と違うという問題ではなく、人間がAIに対して感じる印象や解釈の話なので、ハルシネーションとは別の現象です。
→ これは「フィルターバブル(filter bubble)」や「エコーチェンバー(echo chamber)」と呼ばれる現象に近いです。
特定の傾向の情報だけが繰り返し表示されると、人は他の考えを受け入れにくくなり、自分の考えが正しいと強く信じ込むようになります。
→ これは「データドリフト(data drift)」または「概念ドリフト(concept drift)」と呼ばれます。
AIが訓練されたときと違う種類のデータが本番で入力されると、性能が下がることがあります。
たとえば、天気予報モデルが夏のデータばかりで訓練されていて、冬に使うとうまく予測できないような場合です。
参考になった数19
この解説の修正を提案する
02
生成AIに見られる現象の1つである、ハルシネーションに関する問題です。
英語で、ハルシネーション(Hallucination)とは「幻覚」を意味します。そこから転じて、ユーザーの質問に対して生成AIが事実とは異なる情報をもとに回答を生成することをいいます。
AIが生成したデータをAI自らが学習することで、言語モデルの精度が低下したり多様性が失われたりすることはモデル崩壊現象の記述であるため不適切な選択肢です。
事実に基づかない情報や実際には存在しない情報をAIが生成する現象のことは、ハルシネーションに関する記述として最も適切であり正解の選択肢となります。
本選択肢は、ハルシネーションに関する記述ではないため不適切な選択肢です。
AIが感情や意図を持っているかのように人間が感じることを、不気味な谷現象といいます。
本選択肢は、ハルシネーションに関する記述ではないため不適切な選択肢です。
人間が特定の意見や思想が正しいと信じ込むようになることを、エコーチェンバー現象といいます。
また、自身が興味をもつ対象や好みに合うような情報だけがフィルタリングされて発信され、それ以外の情報が遮断されてしまう現象をフィルターバブルといいます。
モデル訓練時の入力データの統計的分布と、テスト時/本番環境での入力データの統計的分布が何らかの変化によってズレてくることはデータドリフト(Data drift)現象の記述であるため不適切な選択肢です。
【補足】
エコーチェンバーについては、2021年にアメリカで発生した連邦議会乱入事件や、日本においてもSNSを駆使して選挙結果に影響を及ぼす例が出てきており、中小企業診断士試験において出題される可能性があると考えます。
また、フィルターバブルは過去に出題履歴があり、過去問題でSNS関連の用語の復習は必須です。
参考になった数7
この解説の修正を提案する
03
生成AIに関する出題です。
本問では、生成AIが抱える問題としてハルシネーションを挙げています。
ハルシネーションは、「幻覚」を意味する言葉として使われますが、
生成AIが事実に基づかない誤った情報をもっともらしく生成することを指します。
不適切
社会全体で生成AIによるデータが使われ続けることにより、
本肢に挙げられているような課題が指摘されています。
ただし、これはハルシネーションを指すものではありません。
適切
冒頭の解説より適切です。
不適切
本肢はイライザ効果に関する記述となっています。
これは人間側の心理現象であり、
生成AIが誤った情報を生成することであるハルシネーションとは異なります。
不適切
本肢はエコーチェンバー現象に関する記述となっています。
エコーチェンバー(反響室)のように、
同じ意見を持つ人々が自分たちの意見を強化し合うことで、
自分の意見を間違いないものと信じ込み、
多様な視点に触れることができなくなってしまう現象のことをいいます。
不適切
本肢はデータドリフトに関する記述となっています。
時間経過による精度低下を指しており、ハルシネーションとは異なります。
参考になった数1
この解説の修正を提案する
前の問題(問184)へ
令和6年度(2024年) 問題一覧
次の問題(問186)へ