ビックデータとアナリティクス 近年の計算機に保管されているデータ量の増大は凄まじく,計算機の速度の増加を予測したMooreの法則を大きく上回っている.サプライ・チェインにおいても同様であり,関連データの増大に伴い,ビッグデータに対応したサプライ・チェイン最適化が必要になってきている. ここでは,このようなビッグデータ時代のサプライ・チェイン最適化について概観していく. ビッグデータの定義 ビッグデータの定義には様々なものがあるが,その特徴は,以下のようにまとめられる. 名前の通りサイズが大きい (volume).たとえば,2008年の段階でGoogleは1日に20ペタバイトのデータの処理を行っており, 2020年には全世界でのデータ保管量は35ゼタバイトになると予測されていた(実際には59ゼタバイトを超えていた). ちなみに,ペタはテラの1000倍で,その上(さらに1000倍ずつ)が順にエ