参天奇闻|一张“黑洞”照片需半吨重硬盘?更逆天的操作还有这些……( 二 )


黑洞照片是如何“冲洗”出来的?
要将?EHT?产生的海量数据转换成图像的关键之一是 , 需要开发一种新的、复杂的算法 。 这些算法不仅需要将数据组合起来 , 还需要滤除由大气湿度等因素引起的噪声 , 因为噪声会使无线电波产生扭曲 。 还需要逐波精确同步远距离望远镜捕获的信号 。 但是 , EHT?收集来的数据仍然有很多地方需要填补 。
Bouman?提出算法后 , 进行了一系列精心设计的测试 , 旨在确保?EHT?的图像不是某种形式的技术故障或侥幸造成的 。 为了保证结果的准确性 , 在最终数据处理的时候 , 严谨的科学家们在两个不同的地方分别处理、分别验证 。 全世界范围内设立了两个数据中心 , 一个是位于美国的麻省理工学院 , 另外一个是位于德国的马普射电所 , 二者彼此独立地处理数据 , 也彼此验证和校对 , 保证了最终结果的准确可靠 。
前面说过 , EHT?收集到的数据仍然有很多空白 , 这就是?Bouman?的算法以及其他几个算法的用武之地 。 利用?Bouman?的算法 , 研究人员创建了三个脚本代码管道来拼合图像 。
由于这次观测得到的数据高达?10PB , EHT?将这些数据装到硬盘空运到美国马萨诸塞州天文台和德国伯恩天文研究所进行处理 , 由超级计算机把所有的数据进行集成 , 超级计算机需要获取相同的信号到达两个望远镜的时刻差(时延)以及时延随着时间的变化快慢(时延率) , 校正射电波抵达不同望远镜的时间差 , 最后综合两个望远镜的位置信息、信号的强度以及上述两个参数?——?时延、时延率 , 经过校准的资料被用来合成黑洞照片 , 但面对如此海量的数据 , 即便是超级计算机浮点计算能达到每秒?14?亿亿次 , 也划了一年多的时间才完成“冲洗”的工作 。 虽然人类首张照片是计算合成而得 , 但也是最为接近真实的照片了 。
【参天奇闻|一张“黑洞”照片需半吨重硬盘?更逆天的操作还有这些……】
参天奇闻|一张“黑洞”照片需半吨重硬盘?更逆天的操作还有这些……
本文插图

由此可见 , 人类为了首张黑洞照片 , 除了需要海量观测数据 , 还需要高性能的计算存储能力、相关算法和大数据技术等支撑 。
拍摄黑洞的相关算法涉及到了大量(稀疏)图像处理、统计理论、非凸优化算法、混合高斯模型、隐马尔科夫模型、贝叶斯推断的问题 。 通过查阅资料 , 我发现 , 给黑洞拍照其实对统计学、计算机科学和运筹学?/?优化理论这些领域实际上也带来了很多有意思的、具有挑战性的问题 。
当然 , 黑洞照片的背后也有着人工智能的影子 。 从本质上来说 , 这次黑洞成像的问题就是如何通过有随机噪声的稀疏信号去进行图像重构 , Katie?Bouman?等人的高斯隐马尔科夫模型当然是一种成功的思路 , 但针对不同的问题 , 我们是否还可以设计出更好的统计模型呢?针对这种超大规模的图像重构问题我们是否可以有更好的训练算法呢?这些都需要我们的计算机科学家、算法工程师们继续付出努力 。
作为计算机信息技术的从业人员 , 最激动的就是这人类首张黑洞照片背后的数学原理和算法实现 。 黑洞成像的成功不仅让物理学家们感到激动 , 对于从事图像处理、统计、大数据、计算机科学、优化算法等个方向的研究者们来说也是更加激动的事情 。
还记得我们的征途吗?我们的征途是星辰和大海!正是有了全世界的计算机科学家和算法工程师、程序员的工作 , 凭借计算机信息技术的加持 , 我们人类才能踏上征途……


推荐阅读