- 記事
- 人気
科学にとってビッグデータが意味するものとは?
数十年前までは、科学は主に、相関しあう次の3つのパラダイムの産物でした。
実験パラダイム、理論パラダイム、計算論パラダイム。 インターネットとコンピュータ使用の出現により、データの収集・貯蔵・共有のキャパシティが格段に広がりました。その結果、データ生成のスピードは加速化し、 科学的データのアウトプットが、年間30%の割合で増加し、2年ごとに大きさが倍になっているほどです。 この大量のデータが「ビッグデータ」といわれています。
ビッグデータ(data deluge 、tsunamiとも呼ばれる)には、インターネット、スマホ、科学的研究、企業、政府、その他のソースから発生するすべてのデータが含まれています。この大量データは科学的探究の道をいくつか開いてきましたので、学会は歓迎していました。喜んできました。実際にビッグデータは、大量のデータ収集・分析にもとづく、もう一つの科学パラダイムと考えられています。
ビッグデータは、その量のせいだけでなく、その効用のために専門用語となっています。大量のデータが利用できるようになったため、科学そのものの質に変化が生じました。科学の進歩は今では、以前よりデータ駆動型、データ集約型になっています。
学問領域を超えて 研究者は、ビッグデータの潜在力が標準的な科学的手法と科学的プロセスに変わっていくのを目の当たりにしているのです
統計学者のDavid Rossell博士は、科学がいかにしてビッグデータから恩恵を得ているかを示す事例を示しています。博士によりますと、ビッグデータはテーラーメイドの医療に対し前例のない好機を与えてくれるということです。複雑な病気の分子レベルでの特性解析と、病歴・治療歴、診断検査・画像検査と結び付けることが可能になります。物理学の理論を検証するため1秒あたり4千万回データを記録する大型ハドロン衝突型加速器は、ビッグデータの応用を示すもう一つの例です。
大量のデータセットにより、都市や天然資源の管理、気候変動の研究、政治政策の立案、理念がいかに浸透するかに関する研究も可能になっています。それ以外にも、データを世界中で利用できることになったため、科学的研究の水平線が広がり、研究者にとって、データの公開や共同研究が以前より容易になりました。
科学者が多くのデータへのアクセスしやすさをポジティヴにとらえているのに対し、多くの統計学者は、ビッグデータには否定的側面もたくさんあるため、科学者は慎重になるべきだと考えています。ビッグデータを扱う仕事をする際の一番の課題は、ビッグデータを効率的に保存・管理することです。
ビッグデータはあまりに複雑なため、伝統的なデータ処理方法を使った分析ができません。そのほかにも、注意深い検討・分析なしに、研究が純粋にデータから引き起こされている場合は、ビッグデータがだめな科学をもたらしすおそれもあります。
ビッグデータだからといって良いデータといえるでしょうか?
ビッグデータを操作するとき、研究者はどんな課題に直面するのでしょうか?
こうした疑問については、別の記事で詳しく議論したいと思います。
お楽しみに!
コメントを見る