テクノロジーとビッグデータの影響
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/02/10 08:10 UTC 版)
「予測分析」の記事における「テクノロジーとビッグデータの影響」の解説
ビッグデータは、従来のデータベース管理ツールを使用して作業するのが困難になるほど大規模で複雑なデータセットの集合体である。ビッグデータを扱う上で、その量、多様性、速度の観点から、獲得、保存、検索、共有、分析、および視覚化に関してさまざまな課題をもたらした。ビッグデータの情報源の例には、 Webログ、 RFID 、センサーデータ、ソーシャルネットワーク、インターネット検索インデックス、通話詳細記録、軍事監視、天文科学、生物地球化学、ゲノミクス、大気科学などの複雑なデータがある。ビッグデータは、IT組織が提供するほとんどの予測分析サービスの中核をなしている。 コンピューター・ハードウェアの技術的進歩(より高速なCPU、より安価なメモリ、 MPPアーキテクチャ)と、ビッグデータを処理するための分散処理(例:Hadoop 、 MapReduce)、データベース内分析およびテキスト分析などの新技術のおかげで、構造化データと非構造化データを大量に収集、分析、マイニングして新たな洞察を得ることが可能になった。 ストリーミングデータに対して予測アルゴリズムを実行することも可能である。 今日では、ビッグデータの探索と予測分析の使用は、これまでになく多くの組織の手の届くところにあり、そのようなデータセットを処理できる新しい方法が提案されている。
※この「テクノロジーとビッグデータの影響」の解説は、「予測分析」の解説の一部です。
「テクノロジーとビッグデータの影響」を含む「予測分析」の記事については、「予測分析」の概要を参照ください。
- テクノロジーとビッグデータの影響のページへのリンク