中小企業診断士 過去問
令和5年度 再試験(2023年)
問156 (経営情報システム 問9)
問題文
このページは閲覧用ページです。
履歴を残すには、 「新しく出題する(ここをクリック)」 をご利用ください。
問題
中小企業診断士試験 第1次試験 経営情報システム 令和5年度 再試験(2023年) 問156(経営情報システム 問9) (訂正依頼・報告はこちら)
- Webサイトからデジタルデータを抽出するプロセスを自動化し、効率化を図るようにした処理をWebスクレイピングという。
- 刻々と発生するデータに対し、あらかじめ処理条件を定めておき、それに合致した場合に決められたアクションを即座に行う方法をETL処理という。
- 大容量のデータをバッチ処理するために、データを複数台のサーバに分散・蓄積しておき処理を行う方法をストリームデータ処理という。
- デジタル機器に搭載されたセンサーから得られたデータから必要な部分を抽出し、使いやすい形に加工する処理を複合イベント処理という。
- 日本語テキストデータの分析に先立ち、意味を持つ最小の言語単位にテキストを分け、品詞を判別する事前処理をデータクレンジングという。
正解!素晴らしいです
残念...
この過去問の解説 (1件)
01
この問題を解くためのポイントは、各技術用語の正確な定義を理解し、文脈に適用することです。
(正)
Webスクレイピングとは、プログラムを用いてWebページからデータを自動的に取得する技術のことです。
例えば、Pythonの「BeautifulSoup」や「Scrapy」などのライブラリを使用して、特定のWebサイトから情報を収集・解析し、データを整理する処理を指します。
(誤)
ETL(Extract, Transform, Load)は、データを抽出(Extract)、変換(Transform)、格納(Load)する処理のことで、リアルタイムではなく、主にバッチ処理で利用されます。
リアルタイムデータ処理には、CEP(Complex Event Processing)やストリーム処理が適しています。
(誤)
ストリームデータ処理は、データをリアルタイムで継続的に処理する手法であり、大容量データをバッチ処理するものではありません。
大容量データをバッチ処理する方法としては「Hadoop」などの分散処理技術が一般的です。
(誤)
複合イベント処理(CEP: Complex Event Processing)は、リアルタイムで発生する複数のイベントを分析し、パターンを検出する技術です。
センサーデータの抽出・加工は、データプレパレーションやデータクレンジングといった処理の一部に該当します。
(誤)
この処理は形態素解析(morphological analysis)と呼ばれ、代表的なツールに「MeCab」や「Janome」などがあります。
データクレンジングは、誤字の修正や不要なデータの削除などを指します。
問題文には、Webスクレイピング、ETL処理、ストリームデータ処理、複合イベント処理、データクレンジングといったデータ処理技術が含まれています。それぞれの定義を理解しておけば、選択肢を素早く見分けられます。
・Webスクレイピング:Webサイトのデータを自動的に取得する技術
・ETL処理(Extract, Transform, Load):データを抽出・変換・格納するプロセス(主にバッチ処理)
・ストリームデータ処理:リアルタイムで連続的にデータを処理する方法
・複合イベント処理(CEP):複数のイベントを分析し、特定のパターンを見つけるリアルタイム処理
・データクレンジング:データの誤りを修正し、整形する前処理
参考になった数1
この解説の修正を提案する
前の問題(問155)へ
令和5年度 再試験(2023年) 問題一覧
次の問題(問157)へ