寻找系外行星,人工数据挖掘太不给力( 二 )

数据如山倒 , 分析如抽丝

热点

分析海量数据 , 究竟要面对多大压力?

以开普勒太空望远镜为例 , 其在2009年发射升空 , 是世界首个用于探测太阳系外类地行星的飞行器 。 仅在起初3年半的任务期内 , 开普勒望远镜就对超过15万个恒星系统展开不断监控 , 从而产生了庞大的数据集 。 这些数据首先要经由计算机处理 , 但当计算机识别出一定的信号时 , 又必须依靠人工分析 , 判断其是否为行星轨道所产生 , 这项巨大的筛查工作单靠NASA的科学家甚至科学小组 , 都没有非常有效的方法完成 。

曾经 , NASA尝试了将所有数据公之于众的做法 。 该机构成立了名为“系外行星探索者”的新项目 , 让成千上万的公民科学家在注册后访问开普勒任务所记录的信息 , 并有效地进行数据挖掘 。


推荐阅读