最新进展 | 深度学习在天气预测中的应用

谷歌研究员提出使用机器学习方法预测未来短时间内的天气。此方法虽然处于早期发展阶段,但效果已经优于传统模型。

前言

天气总是会或轻或重地影响人们的日常生活,而天气预报的准确性会极大影响人们应对天气的方式。天气预报可以告知人们是否应当选取一条不同的上班路线、是否应该重新安排周末野餐的计划、是否因为一场风暴的来袭而撤离住所。但对于局部风暴或是雷暴等以每小时为时间尺度演化的天气事件,做出准确的预测是极具挑战性的。

在论文《Machine Learning for Precipitation Nowcasting from Radar Images》中,研究人员在降水短时预测问题上提出了基于机器学习模型的新研究,该模型主要是对未来短时间内的天气进行高度局部化的「非物理」预测。

机器学习一个很显著的优势在于如果提供已经训练好的模型,那么推断过程的计算成本会很小。这使得在输入数据后的预测几乎是实时的,并且结果具有原始高分辨率。这种聚焦于 0-6 小时短时降水预测方法可以在总延迟仅为 5-10 分钟的情况下生成 1km 分辨率的预测结果,这其中还包括了数据采集的延迟。

该方法虽然还处于早期发展阶段,但已经优于传统模型。

超越传统天气预报方法

世界各地的气象机构都有大量的监控设施,例如,多普勒雷达可以实时测量降水量;气象卫星可以提供多光谱成像;地面气象站可以直接测量风速、风向和降水量等。下图比较了美国大陆表示降水的假彩色雷达成像以及地球同步卫星所提供的云层成像,以阐释多来源天气信息的重要性。降水的存在和云的存在相关,但又不完全相关,所以单纯从卫星遥感图像中推断降水情况是很有挑战性的。

上图:图像显示了地球同步卫星观测到的云的位置。下图:图像显示了多普勒雷达观测站观测到的降水位置。

不幸的是,这些测量手段并非在全球范围内都适用。例如,雷达数据大多来源于地面观测站,而这在海洋上通常不可行。此外,测量的覆盖范围因地理位置而异,有些地方即使具有良好的卫星覆盖率,雷达覆盖率也可能很小。

即便如此,有如此海量的观测数据,同时数据还有繁多的种类,以至于天气预测系统很难将它们全部纳入其中。在美国,由美国海洋与大气管理局 (https://www.noaa.gov/)(NOAA)收集的遥感数据规模增长速度已经达到了每天 100TB。NOAA 将这些数据提供给运行在超级计算机上的天气预测引擎,以提供未来 1-10 天的全球气象预测。这些引擎在过去的半个世纪中不断发展,它们基于数值方法,可以直接模拟物理过程,包括大气动力学和大量效应,如热辐射,植被、湖泊、海洋效应等等。

然而,计算资源的可用性在多个层面限制了基于数值的天气预报方法的能力。例如,计算力的需求将空间分辨率限制在约 5km 的范围内,这不足以用来分析市区和农田内的天气模式。数值方法还需要数个小时来运行。如果 6 小时才能完成一次预测的计算,那么每天只能进行 3-4 次预测,导致每次预测基于的是 6 小时前的旧数据,这会限制对于当前正在发生情况的了解。相比之下,短时预测对于交通路线选择和疏散计划等即时决策场景来说比较适用。

雷达到雷达的预测

作为系统可以生成预测类型的一个典型事例,研究者考虑一个雷达到雷达的预测问题:给定过去一小时的雷达图序列,预测从现在开始 N 小时内的雷达图,其中 N 一般为 0-6 小时之间。由于雷达数据已经被转换成了图像,可以将这种预测视为一个计算机视觉问题,从输入图像序列去推测气象的演变。在这样短的时间尺度下,演变主要由两种物理过程控制:平流导致云的运动,对流导致云的形成,两者都受局部地形和地理条件的影响。

上排(从左到右):前三张图展示了当前时间之前 60 分钟、30 分钟以及 0 分钟(即需要进行预测的时间点)的雷达图。最右图展示了当前时间之后 60 分钟的雷达图,也就是短时预测的真实值。下左图:对上排前三张图应用光流(OF)算法得到的矢量场(作为比较)。光流法是在 20 世纪 40 年代发展起来的一种计算机视觉方法,常用于预测短期天气变化。下右图:由光流方法进行预测的结果示例。可以注意到,它很好地追踪了图中左下角降水的运动,但没能考虑风暴强度的衰减。

研究者使用的是一种数据驱动的无物理方法,这意味着神经网络仅仅从训练样本中学习如何拟合大气的物理变化,而没有引入任何关于大气如何工作的先验知识。将天气预测问题视为一个图像到图像的转换问题,并且利用目前图像分析中最先进的卷积神经网络(CNNs)技术来解决。

CNNs 通常由线性的层序列构成,其中每层都是将某些输入图像转换成新的输出图像的一组操作。通常,卷积神经网络层除了会使用一组卷积核对图像进行卷积操作外,还会改变图像的通道数和整体分辨率。这些卷积核本身是小图像(对于我们来说的小图像,通常 3x3 或 5x5)。卷积核给 CNN 提供了大部分的威力,并且带来了边缘检测、识别有意义的图案等操作。

U-Net 是一种特别有效的 CNN。U-Net 首先是一组被排列成编码阶段的层序列,其中逐层降低输入图像的分辨率;接着是解码阶段,在该阶段,编码器生成的图像的低维表示被扩展回更高的分辨率。下图展示了特定的 U-Net 结构中的所有层。

(A)U-Net 的整体结构。蓝色方框对应着基础 CNN 层;粉色方框对应下采样层;绿色方框对应上采样层。实线表示层间输入连接关系;虚线表示跨越了编码和解码阶段的长跳跃连接;点线表示各个层中的短跳跃连接。(B)基础层中的操作。(C)上采样层中的操作。

U-Net 的输入是一张图像,过去一小时的观测序列中每张多光谱卫星图像都占据其中一个通道。例如,如果过去一小时采集了 10 张卫星图像,每张多光谱图像都成像于 10 个不同的波长,那么模型的输入将是一张由 100 个通道组成的图像。对于雷达图到雷达图的预测,输入是由过去一小时内 30 张雷达观测组成的序列,相隔 2 分钟一张;输出包含从现在开始 N 小时后的预测结果。对于美国的初步工作中,研究者使用美国大陆 2017-2019 年的历史观测数据进行网络的训练。数据以四周为周期进行分割,每个周期的前三周作为训练数据,第四周用于效果评估。

结果

研究者将结果与三个广泛使用的模型进行了比较。首先,是 NOAA 的高分辨率快速刷新 (HRRR)数值预测方法。HRRR 包含了对于许多不同气候量的预测,这里研究者将结果与 1 小时地面累积总降水量预测进行比较,因为这是质量最高的 1 小时降水量预测指标。第二个是基于光流(OF)的算法,该方法试图通过一系列图像追踪移动的物体。这是一个常被用于天气预测的方法,即使它作出了一个显然不成立的假设——一个较大区域内的总降水量在预测时间段内是恒定不变的。第三个,所谓的持续性模型,这是一个平凡的模型,它假设某个地点未来也会像当前时刻一样在以同样的程度降水,即降水的模式并不会改变。这可能看上去是一种过度简化的模型,但鉴于天气预测的困难程度,这也是一种常见的做法。

对大约一天时间内所做预测的可视化。左图:1 小时 HRRR 在每小时开始时所作的预测,该方法局限在于 HRRR 提供预测的间隔。中图:真实情况,即想要预测的情况。右图:研究者模型所做出的预测。可以每两分钟进行一次预测(这里展示了每 15 分钟的结果),预测区域的分辨率约为 HRRR 方法的 10 倍。可以注意到此方法捕捉到了风暴整体的运动和形态。

研究者使用准确率-召回率(PR)图像来进行模型的比较。由于可以直接获取到模型分类器的结果,因此提供了完整的 PR 曲线(下图中的蓝线)。然而,研究者不能直接获取 HRRR 的模型,并且持续性模型和基于光流的模型都没有在准确率和召回率间进行折中权衡的能力,因此这些模型只能由单点来表示。可以看到,研究者神经网络预测方法的质量高于其他三个模型(因为蓝线在其他模型表示的点之上)。值得注意的是,当预测范围达到 5-6 小时的时候,HRRR 模型的结果开始超过当下的结果。

准确率-召回率(PR)曲线 (https://en.wikipedia.org/wiki/Precision_and_recall) 将方法的结果(蓝线)和以下三个方法进行比较:基于光流(OF)的方法、持续性模型、HRRR 的 1 小时预测。因为无法直接获取到它们的分类器,因此无法提供完整的 PR 曲线。左图:对于小雨的预测结果。右图:对于中雨的预测结果。

基于机器学习方法的一大优势在于预测结果是实时有效的,这意味着预测可以基于实时的新数据,而 HRRR 会受到 1-3 小时计算延迟的影响。这使得基于计算机视觉的方法可以为超短时预测提供更好的结果。相比之下 HRRR 使用的数值模型可以提供更长期的预测,这一部分是因为它使用了完整的 3D 物理模型——云的形成很难从 2D 图像中观察到,所以基于机器学习的方法更难学习到对流的过程。将两个系统相结合——使用机器学习模型用于快速的预测,使用 HRRR 进行长期预测——可以在整体上产生更好的结果,这是一个未来工作可以关注的重点。研究者也在考虑将机器学习直接用于 3D 观测数据。无论如何,即时预测都是实时规划、辅助决策和改善生活的关键工具。

原文链接:https://ai.googleblog.com/2020/01/using-machine-learning-to-nowcast.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/480849.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

快速上手笔记,PyTorch模型训练实用教程(附代码)

前言自 2017 年 1 月 PyTorch 推出以来,其热度持续上升,一度有赶超 TensorFlow 的趋势。PyTorch 能在短时间内被众多研究人员和工程师接受并推崇是因为其有着诸多优点,如采用 Python 语言、动态图机制、网络构建灵活以及拥有强大的社群等。因…

领域应用 | 中医临床术语系统V2.0在线发布啦!

本文转载自公众号:中医药知识组织与标准。中医临床术语系统V2.0在线发布中医临床术语系统(Traditional Chinese Medicine Clinical Terminological Systems, TCMCTS)是由中国中医科学院中医药信息研究所研制的,用来描述健康状况和…

NLP Subword三大算法原理:BPE、WordPiece、ULM

Subword算法如今已经成为了一个重要的NLP模型性能提升方法。自从2018年BERT横空出世横扫NLP界各大排行榜之后,各路预训练语言模型如同雨后春笋般涌现,其中Subword算法在其中已经成为标配。且与传统空格分隔tokenization技术的对比有很大的优势~~ E.g. 模…

【小程序】微信小程序开发实践

版权声明&#xff1a;本文为博主原创文章&#xff0c;未经博主允许不得转载。 https://blog.csdn.net/diandianxiyu/article/details/53068012 </div><link rel"stylesheet" href"https://csdnimg.cn/release/phoenix/template/css/ck…

技术人如何提升自己的核心竞争力

互联网行业是一个发展非常快&#xff0c;变化也快的行业&#xff0c;在这个行业&#xff0c;总是让人感觉既兴奋又不安。 兴奋的是你总能看到无数新奇的事物&#xff0c;甚至亲身参与到一场变革中去&#xff0c;而不安的则是&#xff0c;任凭你如何NB&#xff0c;你也无法保证哪…

AAAI 2018经典论文获奖者演讲:本体论的昨天和今天

本文转自公众号&#xff1a;AI科技评论。AI 科技评论按&#xff1a;正在美国新奥尔良召开的 AAAI 2018 的经典论文奖颁给了《Algorithm and Tool for Automated Ontology Merging and Alignment》。这篇论文发表在 2000 年的第 17 届 AAAI 大会上。这次颁奖是为了表彰这篇论文在…

ICLR2020 | 如何判断两个神经网络学到的知识是否一致

人工智能顶会 ICLR 2020 将于 4 月 26 日于埃塞俄比亚首都亚的斯亚贝巴举行。在最终提交的 2594 篇论文中&#xff0c;有 687 篇被接收&#xff0c;接收率为 26.5%。本文介绍了上海交通大学张拳石团队的一篇接收论文——《Knowledge Consistency between Neural Networks and B…

7张图学会SQL

第1周&#xff1a;SQL入门 学习SQL语句的书写语法和规则从零学会SQL&#xff1a;入门​www.zhihu.com 第2周&#xff1a;查询基础 Select查询语句是SQL中最基础也是最重要的语句&#xff0c;这周我们就来利用Select来对表中的数据进行查询。从零学会SQL&#xff1a;简单查询​w…

大公司稳定工作和创业之间如何选择?

“ 是留在大公司&#xff0c;还是加入小型创业公司&#xff0c;还是自己创业&#xff0c;面对房价每年高涨的趋势&#xff0c;面对未来的不确定&#xff0c;应该怎样选择。 作为一个亲历者&#xff0c;希望你看完后能有所启发。 本文作者&#xff0c;陈睿 优知学院创始人 优知…

论文浅尝 |「知识表示学习」专题论文推荐

本文转载自公众号&#xff1a;PaperWeekly。本期论文清单来自清华大学博士生韩旭和北师大本科生曹书林&#xff0c;涵盖了近年知识表示学习方向的重要论文。[ 综述类 ]■ 论文 | Representation Learning: A Review and New Perspectives■ 链接 | https://www.paperweekly.sit…

如何选择一家公司

不管是刚毕业的大学生还是工作几年的职场朋友&#xff0c;每个人都会面临选择公司和行业的困扰&#xff0c;我也相信每个人都还记忆犹新你的第一份工作以及让你无比难忘的一家公司。有时候我们也盲目的所求&#xff0c;其实&#xff0c;偶尔停下来思考下你真想去的地方&#xf…

LightGBM最强解析,从算法原理到代码实现~

1 LightGBM简介 GBDT (Gradient Boosting Decision Tree) 是机器学习中一个长盛不衰的模型&#xff0c;其主要思想是利用弱分类器&#xff08;决策树&#xff09;迭代训练以得到最优模型&#xff0c;该模型具有训练效果好、不易过拟合等优点。GBDT不仅在工业界应用广泛&#xf…

数据分析师基本技能——SQL

我们做数据分析工作时&#xff0c;多数数据来源于数据库&#xff0c;SQL非常方便我们访问和查询数据库。 SQL 作为数据分析师的基本技能&#xff0c;那么需要掌握哪些SQL核心技能 理解数据库SQL基础重点知识&#xff1a;查询&#xff0c;更新&#xff0c;提取&#xff0c;插入&…

论文浅尝 | 基于置信度的知识图谱表示学习框架

本文转载自公众号&#xff1a;PaperWeekly。作者丨谢若冰单位丨腾讯微信搜索应用部研究方向丨知识表示学习知识图谱被广泛地用来描述世界上的实体和实体之间的关系&#xff0c;一般使用三元组&#xff08;h,r,t&#xff09;&#xff08;head entity, relation, trail entity&am…

史上最强Java架构师的13大技术能力讲解! | 附架构师能力图谱

从程序员进阶成为架构师&#xff0c;并非一蹴而就&#xff0c;需要系统化、阶段性地学习&#xff0c;在实战项目中融会贯通&#xff0c;这如同打怪通关&#xff0c;我们得一关一关突破&#xff0c;每攻破一个关口&#xff0c;就能得到更精良的装备&#xff0c;技能值也随之不断…

写给运营同学和初学者的SQL入门教程

作者简介 多肉&#xff0c;饿了么资深python工程师。曾在17年担任饿了么即时配送众包系统的研发经理&#xff0c;这篇文章最早的版本就诞生于那段时间&#xff0c;目前负责配送相关业务系统的整体稳定性建设。个人比较喜欢c和python&#xff0c;最近有点迷rust&#xff0c;同时…

强化学习,路在何方?

▌一、深度强化学习的泡沫 2015年&#xff0c;DeepMind的Volodymyr Mnih等研究员在《自然》杂志上发表论文Human-level control through deep reinforcement learning[1]&#xff0c;该论文提出了一个结合深度学习&#xff08;DL&#xff09;技术和强化学习&#xff08;RL&…

论文浅尝 | 基于神经网络的实体识别和关系抽取联合学习

本文转载自公众号&#xff1a;PaperWeekly。作者丨罗凌学校丨大连理工大学博士生研究方向丨深度学习&#xff0c;文本分类&#xff0c;实体识别联合学习&#xff08;Joint learning&#xff09;一词并不是一个最近才出现的术语&#xff0c;在自然语言处理领域&#xff0c;很早就…

一篇文章搞懂架构师的核心技能

“ 这是架构师系列的第一篇&#xff1a;核心技能&#xff0c;希望这个系列能完全揭示架构师这个职位&#xff1a;我先从核心技能开始&#xff0c;后续还有架构师之路&#xff0c;架构实战等架构师系列文章。 本文作者 陈睿 优知学院创始人&#xff0c;前携程定制旅游CTO,在互联…

史上最全的分词算法与工具介绍

分词&#xff08;word tokenization&#xff09;&#xff0c;也叫切词&#xff0c;即通过某种方式将句子中的各个词语识别并分离开来&#xff0c;使得文本从“字序列”的表示升级为“词序列”表示。分词技术不仅仅适用于中文&#xff0c;对于英文、日文、韩文等语言也同样适用。…