怎么做非法彩票网站吗/今日国际重大新闻

怎么做非法彩票网站吗,今日国际重大新闻,国外网站访问速度慢,网页设计基础题库大家好,我们是 BTC.com 团队。2020 年,我们有幸接触到了 Flink 和 PyFlink 生态,从团队自身需求出发,完善了团队内实时计算的任务和需求,搭建了流批一体的计算环境。 在实现实时计算的过程中,我们在实践中…

大家好,我们是 BTC.com 团队。2020 年,我们有幸接触到了 Flink 和 PyFlink 生态,从团队自身需求出发,完善了团队内实时计算的任务和需求,搭建了流批一体的计算环境。

在实现实时计算的过程中,我们在实践中收获了一些经验,在此分享一些这方面的心路历程。主要分享的大纲如下:

  • 困惑 • 描述 • 思考 • 行动
  • 流批一体的架构
  • 架构
  • 效果
  • Zeppelin、PyFlink on K8S 等实践
  • Zeppelin
  • PyFlink on K8S
  • 区块链领域实践
  • 展望 • 总结

01 困惑 • 描述 • 思考 • 行动

作为工程师,我们每天都在不断地了解需求,研发业务。

有一天,我们被拉到了一次团队总结会议上,收到了以下的需求:

销售总监 A:

我们想要知道销售的历史和实时转化率、销售额,能不能统计一下实时的 TOP5 的商品,还有就是大促时候,用户实时访问、商品实时浏览量 TOP5 的情况呢,可以根据他历史访问的记录实时推荐相关的吗?

市场总监 B:

我们想要知道市场推广的效果,每次活动的实时数据,不然我们的市场投放无法准确评估效果,及时反馈啊。

研发总监 C:

有些用户的 Bug 无法复现,日志可以再实时一点吗?传统日志分析,需要一定的梳理,可不可以直接清洗 / 处理相关的数据?

采购总监 D:

这些年是不是流行数字化,采购这边想预测采购需求,做一下实时分类和管理支出,预测未来供应来源,完善一下成本。这个有办法做吗?还有有些供应商不太稳定啊,能监控到他们的情况吗?

运维总监 E:

网站有时候访问比较慢,没有地方可以看到实时的机器情况,搞个什么监控大屏,这个有办法解决吗?

部门领导 F:

可以实现上面的人的需求吗。

做以上的了解之后,才发现,大家对于数据需求的渴望程度,使用方不仅需要历史的数据,而且还需要实时性的数据。

在电商、金融、制造等行业,数据有着迅猛的增长,诸多的企业面临着新的挑战,数据分析的实时处理框架,比如说做一些实时数据分析报表、实时数据处理计算等。

和大多数企业类似,在此之前,我们是没有实时计算这方面的经验和积累的。这时,就开始困惑了,怎样可以更好地做上面的需求,在成本和效果之间取得平衡,如何设计相关的架构?

1-1.jpg

穷则思变,在有了困惑以后,我们就开始准备梳理已有的条件和我们到底需要什么。

我们的业务范围主要在区块链浏览器与数据服务、区块链矿池、多币种钱包等。在区块链浏览器的业务里,BTC.com 目前已是全球领先的区块链数据服务平台,矿池业务在业内排行第一,区块链浏览器也是全球前三大浏览器之一。

首先,我们通过 parser 解析区块链上的数据,得到各方面的数据信息,可以分析出每个币种的地址活跃度、地址交易情况、交易流向、参与程度等内容。目前,BTC.com 区块链浏览器与行业内各大矿池和交易所等公司都有相关合作,可以更好地实现一些数据的统计、整理、归纳、输出等。

面向的用户,不仅有专业的区块链开发人员,也有各样的 B 端和 C 端用户,C 端用户可以进行区块链地址的标注,智能合约的运行,查看智能合约相关内容等,以及链上数据的检索和查看。B 端用户则有更专业的支持和指导,提供 API、区块链节点等一些的定制以及交易加速、链上的业务合作、数据定制等。

从数据量级来讲,截至目前,比特币大概有 5 亿笔交易,3000 多万地址,22 亿输出(output:每笔交易的输出),并且还在不断增长中。以太坊的话,则更多。而 BTC.com 的矿池和区块链浏览器都支持多币种,各币种的总数据量级约为几十 T。

矿池是矿工购买矿机设备后连接到的服务平台,矿工可以通过连接矿池从而获取更稳定的收益。这是一个需要保证 7 * 24 小时稳定的服务,里面有矿机不断地提交其计算好的矿池下发的任务的解,矿池将达到网络难度的解进行广播。这个过程也可以认为是近乎是实时的,矿机通过提交到服务器,服务器内部再提交到 Kafka 消息队列,同时有一些组件监听这些消息进行消费。而这些提交上来的解可以从中分析出矿机的工作状态、算力、连接情况等。

在业务上,我们需要进行历史数据和实时数据的计算。

历史数据要关联一些币价,历史交易信息,而这些交易信息需要一直保存,是一种典型的批处理任务。

每当有新区块的确认,就有一些数据可以得到处理和分析,比如某个地址在这个区块里发生了一笔交易,那么可以从其交易流向去分析是什么样的交易,挖掘交易相关性。或者是在这个区块里有一些特殊的交易,比如 segwit 的交易、比如闪电网络的交易,就是有一些这个币种特有的东西可以进行解析分析和统计。并且在新区块确认时的难度预测也有所变化。

还有就是大额交易的监控,通过新区块的确认和未确认交易,锁定一些大额交易,结合地址的一些标注,锁定交易流向,更好地进行数据分析。

还有是一些区块链方面的 OLAP 方面的需求。

1-2.jpg

总结了在数据统计方面的需求和问题以后,我们就开始进行思考:什么是最合适的架构,如何让人员参与少、成本低?

解决问题,无非就是提出假设,通过度量,然后刷新认知。

1-3.jpg

在浏览了一些资料以后,我们认为,大部分的计算框架都是通过输入,进行处理,然后得到输出。首先,我们要获取到数据,这里数据可以从 MySQL 也可以从 Kafka,然后进行计算,这里计算可以是聚合,也可以是 TOP 5 类型的,在实时的话,可能还会有窗口类型的。在计算完之后,将结果做下发,下发到消息渠道和存储,发送到微信或者钉钉,落地到 MySQL 等。

团队一开始尝试了 Spark,搭建了 Yarn,使用了 Airflow 作为调度框架,通过做 MySQL 的集成导入,开发了一些批处理任务,有着离线任务的特点,数据固定、量大、计算周期长,需要做一些复杂操作。

在一些批处理任务上,这种架构是稳定的,但是随着业务的发展,有了越来越多的实时的需求,并且实时的数据并不能保证按顺序到达,按时间戳排序,消息的时间字段是允许前后有差距的。在数据模型上,需求驱动式的开发,成本相对来说,Spark 的方式对于当时来说较高,对于状态的处理不是很好,导致影响一部分的效率。

其实在 2019 年的时候,就有在调研一些实时计算的事情,关注到了 Flink 框架,当时还是以 Java 为主,整体框架概念上和 Spark 不同,认为批处理是一种特殊的流,但是因为团队没有 Java 方面的基因和沉淀,使用 Flink 作为实时计算的架构,在当时就暂告一个段落。

在 2020 年初的时候,不管是 Flink 社区 还是 InfoQ,还是 B 站,都有在推广 PyFlink,而且当时尤其是程鹤群[1]和孙金城[2]的视频以及孙金城老师的博客[3]的印象深刻。于是就想尝试 PyFlink,其有着流批一体的优势,而且还支持 Python 的一些函数,支持 pandas,甚至以后还可以支持 Tensorflow、Keras,这对我们的吸引力是巨大的。在之后,就在构思我们的在 PyFlink 上的流批一体的架构。

02 流批一体的架构

架构

首先我们要梳理数据,要清楚数据从哪里来。在以 Spark 为主的时期,数据是定期从数据源加载(增量)数据,通过一定的转换逻辑,然后写入目的地,由于数据量和业务需要,延迟通常在小时级别,而实时的话,需要尽可能短的延迟,因此将数据源进行了分类,整体分成了几部分,一部分是传统的数据我们存放在 MySQL 持久化做保存,这部分之后可以直接作为批处理的计算,也可以导入 Hive,做进一步的计算。实时的部分,实际上是有很多思路,一种方式是通过 MySQL 的 Binlog 做解析,还有就是 MySQL 的 CDC 功能,在多方考量下,最后我们选择了 Kafka,不仅是因为其是优秀的分布式流式平台,而且团队也有对其的技术沉淀。

并且实际上在本地开发的时候,安装 Kafka 也比较方便,只需要 Brew Install Kafka,而且通过 Conduktor 客户端,也可以方便的看到每个 Topic 的情况。于是就对现有的 Parser 进行改造,使其支持 Kafka,在当收到新的区块时,会立即向 Kafka 发送一个消息,然后进行处理。

大概是在 2018 年的时候,团队将整体的业务迁移到了 Kubernetes 上,在业务不断发展的过程中,其对开发和运维上来说,减轻了很多负担,所以建议有一定规模的业务,最好是迁移到 Kubernetes,其对成本的优化,DevOps,以及高可用的支持,都是其他平台和传统方式无法比拟的。

在开发作业的过程中,我们在尽可能的使用 Flink SQL,同时结合一些 Java、Python 的 UDF、UDAF、UDTF。每个作业通过初始化类似于以下的语句,形成一定的模式:

self.source_ddl = '''CREATE TABLE SourceTable (xxx int) WITH 
'''
self.sink_ddl = '''CREATE TABLE SinkTable (xxx int) WITH 
'''
self.transform_ddl = '''INSERT INTO SinkTableSELECT udf(xxx)FROM SourceTableGROUP BY FROM_UNIXTIME(`timestamp`, 'yyyyMMdd')
'''

在未来的话,会针对性地将数据进行分层,按照业界通用的 ODS、DWD、DWS、ADS,分出原始层,明细层和汇总层,进一步做好数据的治理。

效果

最终我们团队基于 PyFlink 开发快速地完成了已有的任务,部分是批处理作业,处理过去几天的数据,部分是实时作业,根据 Kafka 的消息进行消费,目前还算比较稳定。

部署时选择了 Kubernetes,具体下面会进行分享。在 K8S 部署了 Jobmanager 和 Taskmanager,并且使用 Kubernetes 的 job 功能作为批处理作业的部署,之后考虑接入一些监控平台,比如 Prometheus 之类的。

在成本方面,由于是使用的 Kubernetes 集群,因此在机器上只有扩展主机的成本,在这种方式上,成本要比传统的 Yarn 部署方式要低,并且之后 Kuberntes 会支持原生部署,在扩展 Jobmanager 和 Taskmanager 上面会更加方便。

03 Zeppelin、PyFlink on K8S 等实践

Zeppelin 是我们用来进行数据探索和逻辑验证,有些数据在本地不是真实数据,利用 Zeppelin 连接实际的链上数据,进行计算的逻辑验证,当验证完成后,便可转换成生产需要的代码进行部署。

1-4.jpg

一、Kubernetes 上搭建 PyFlink 和 Zeppelin

1. 整理后的部署 Demo 在 github,可以参阅相关链接[4]。
2. 关于配置文件,修改以下配置的作用。

(1). 修改 configmap 的 flink-conf.yaml 文件的 taskmanager 配置。

taskmanager.numberOfTaskSlots: 10

调整 Taskmanager 可以调整运行的 job 的数量。

(2). 在 Zeppelin 的 dockerfile 中修改 zeppelin-site.xml 文件。

cp conf/zeppelin-site.xml.template conf/zeppelin-site.xml; \
sed -i 's#<value>127.0.0.1</value>#<value>0.0.0.0</value>#g' conf/zeppelin-site.xml; \
sed -i 's#<value>auto</value>#<value>local</value>#g' conf/zeppelin-site.xml
  • 修改请求来源为 0.0.0.0,如果是线上环境,建议开启白名单,加上 auth 认证。
  • 修改 interpreter 的启动模式为 local,auto 会导致在集群启动时,以 K8s 的模式启动,目前 K8s 模式只支持 Spark,local 模式可以理解为,Zeppelin 将在本地启动一个连接 Flink 的 interpreter 进程。
  • Zeppelin 和在本地提交 Flink 作业类似,也需要 PyFlink 的基础环境,所以需要将 Flink 对应版本的 jar 包放入镜像内。

3. Zeppelin 的 ingress 中添加 websocket 配置。

nginx.ingress.kubernetes.io/configuration-snippet: |proxy_set_header Upgrade "websocket";proxy_set_header Connection "Upgrade";

Zeppelin 在浏览器需要和 server 端建立 socket 连接,需要在 ingress 添加 websocket 配置。

4.Flink 和 Zeppelin 数据持久化的作用。

volumeMounts:
- mountPath: /zeppelin/notebook/name: data
volumes:
- name: datapersistentVolumeClaim:claimName: zeppelin-pvc
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:name: zeppelin-pvc
spec:storageClassName: efs-scaccessModes:- ReadWriteOnceresources:requests:storage: 1Gi
  • 对 Flink 的 /opt/flink/lib 目录做持久化的目的,是当我们需要新的 jar 包时,可以直接进入 Flink 的 pod 进行下载,并存放到 lib 目录,保证 jobmanager 和 taskmanager 的 jar 版本一致,同时也无需更换镜像。
  • Zeppelin 的任务作业代码会存放在 /zeppelin/notebook/ 目录下,目的是方便保存编写好的代码。

5. Flink 命令提交 job 作业的方式。

(1). 本地安装 PyFlink,Python 需要3.5及以上版本。

$ pip3 install apache-flink==1.11.1

(2). 测试 Demo

def word_count():env = StreamExecutionEnvironment.get_execution_environment()t_env = StreamTableEnvironment.create(env,environment_settings=EnvironmentSettings.new_instance().use_blink_planner().build())sink_ddl = """create table Results (word VARCHAR, `count` BIGINT) with ( 'connector' = 'print')"""t_env.sql_update(sink_ddl)elements = [(word, 1) for word in content.split(" ")]# 这里也可以通过 Flink SQLt_env.from_elements(elements, ["word", "count"]) \.group_by("word") \.select("word, count(1) as count") \.insert_into("Results")t_env.execute("word_count")if __name__ == '__main__':logging.basicConfig(stream=sys.stdout, level=logging.INFO, format="%(message)s")word_count()

或者是实时处理的 Demo:

def handle_kafka_message():s_env = StreamExecutionEnvironment.get_execution_environment()# s_env.set_stream_time_characteristic(TimeCharacteristic.EventTime)s_env.set_parallelism(1)st_env = StreamTableEnvironment \.create(s_env, environment_settings=EnvironmentSettings.new_instance().in_streaming_mode().use_blink_planner().build())source_ddl = '''CREATE TABLE SourceTable (word string) WITH ('connector.type' = 'kafka','connector.version' = 'universal','connector.topic' = 'Topic','connector.properties.bootstrap.servers' = 'localhost:9092','connector.properties.zookeeper.connect' = 'localhost:2121','format.type' = 'json','format.derive-schema' = 'true')'''sink_ddl = """create table Results (word VARCHAR) with ('connector' = 'print')"""st_env.sql_update(sink_ddl)st_env.sql_update(source_ddl)st_env.from_path("source").insert_into("sink")st_env.execute("KafkaTest")if __name__ == '__main__':handle_kafka_message()

(3). 本地测试 Flink 命令提交 job 作业。

$ flink run -m localhost:8081 -py word_count.py
python/table/batch/word_count.py
Job has been submitted with JobID 0a31b61c2f974bcc3f344f57829fc5d5
Program execution finished
Job with JobID 0a31b61c2f974bcc3f344f57829fc5d5 has finished.
Job Runtime: 741 ms

(4). 如果存在多个 Python 文件,可以先 zip 打包后再进行提交作业。

$ zip -r flinkdemo.zip ./*
$ flink run -m localhost:8081 -pyfs flinkdemo.zip -pym main

(5). Kubernetes 通过集群的 CronJob 定时调度来提交 Job,之后会做自研一些 UI 后台界面做作业管理与监控。

04 在区块链领域实践

随着区块链技术的越来越成熟,应用越来越多,行业标准化、规范化的趋势也开始显现,也越来越依赖于云计算、大数据,毕竟是数字经济的产物。BTC.com 也在扎根于区块链技术基础设施,为各类公司各类应用提供数据和业务上的支持。

近些年,有个词火遍了 IT 业界,中台,不管是大公司还是创业公司,都喜欢扯上这个概念,号称自己业务中台,数据中台等。我们的理解中,中台是一种整合各方面资源的能力,从传统的单兵作战,到提升武器装备后勤保障,提升作战能力。在数据上打破数据孤岛,在需求快速变化的前台和日趋稳定的后台中取得平衡。而中台更重要的是服务,最终还是要回馈到客户,回馈到合作伙伴。

在区块链领域,BTC.com 有着深厚的行业技术积累,可以提供各方面数据化的能力。比如在利用机器学习进行链上数据的预估,预估 eth 的 gas price,还有最佳手续费等,利用 keras 深度学习的能力,进行一些回归计算,在之后也会将 Flink、机器学习和区块链结合起来,对外提供更多预测类和规范化分类的数据样本,之前是在用定时任务不断训练模型,与 Flink 结合之后,会更加实时。在这方面,以后也会提供更多的课题,比如币价与 Defi,舆情,市场等的关系,区块链地址与交易的标注和分类。甚至于将机器学习训练的模型,放于 IPFS 网络中,通过去中心化的代币进行训练,提供方便调用样本和模型的能力。

在目前,BTC.com 推出了一些通过数据挖掘实现的能力,包括交易推送、OLAP 链上分析报表等,改善和提升相关行业和开发者实际的体验。我们在各种链上都有监控节点,监控各区块链网络的可用性、去中心化程度,监控智能合约。在接入一些联盟链、隐私加密货币,可以为联盟链、隐私加密货币提供这方面的数据能力。

BTC.com 将为区块链产业生态发展做出更多努力,以科技公司的本质,以技术发展为第一驱动力,以市场和客户为导向,开发创新和融合应用,做好基础设施。

05 展望与总结

从实时计算的趋势,到流批一体的架构,通过对 PyFlink 和 Flink 的学习,稳定在线上运行了多种作业任务,对接了实际业务需求。并且搭建了 Zeppelin 平台,使得业务开发上更加方便。在计算上尽可能地依赖 SQL,方便各方面的集成与调试。

在社区方面,PyFlink 也是没有令我们失望的,较快的响应能力,不断完善的文档。在 Confluence[5]上也可以看到一些 Flink Improvement Proposals,其中也有一些是 PyFlink 相关的,在不远的将来,还会支持 Pandas UDAF,DataStream API,ML API,也期望在之后可以支持 Joblistener,总之,在这里也非常感谢相关团队。

未来的展望,总结起来就是,通过业务实现数据的价值化。而数据中台的终局,是将数据变现。

 

 

 

原文链接
本文为阿里云原创内容,未经允许不得转载。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/514973.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

当数据中台遇见云原生,智领云看到企业数据转型新方向

编辑 | 宋慧 出品 | CSDN云计算 头图 | 智领云2021年合作伙伴沙龙现场图 2021年5月14日&#xff0c;智领云2021年合作伙伴沙龙在北京维景国际大酒店隆重召开。本次沙龙以“数据驱动 智领未来”为主题&#xff0c;来自全国各地的合作伙伴、企业用户以及媒体代表等100多位嘉宾出…

随时随地查看业务数据,DataV移动端新功能上新

简介&#xff1a; 随时随地监控业务数据&#xff0c;及时对焦管理策略&#xff0c;让数据推动业务。 在有手机就能活的今天&#xff0c;还只在电脑面前看报表吗&#xff1f; BOSS们每天处理无数的消息和邮件&#xff0c;还要四处奔波开会&#xff0c;没有办法时时刻刻在电脑前…

MaxCompute full outer join改写left anti join实践

简介&#xff1a; ods层数据同步时经常会遇到增全量合并的模型&#xff0c;即T-1天增量表 T-2全量表 T-1全量表。可以通过full outer join脚本来完成合并&#xff0c;但是数据量很大时非常消耗资源。本文将为您介绍在做增量数据的增加、更新时如何通过full outer join改写lef…

数据中台 VS 传统大数据平台,这 8 点区别要了解

作者 | 彭锋 宋文欣 孙浩峰来源 | 大数据DT头图 | 下载于视觉中国传统大数据平台和数据仓库是数据中台的数据来源&#xff0c;建设数据中台是为了更好地服务于业务部门。下图展示了信息化系统、数据仓库、传统大数据平台、数据中台之间的关系&#xff0c;其中的箭头表示数据的主…

腾讯云~Kafka 监控 Kafka Eagle 图形化版本

文章目录1. 安装包下载2. 开启kafka JMX3. 安装JDK&#xff0c;配置JAVA_HOME4. 上传安装包、解压5. 配置Kafka-eagle环境变量6. 配置Kafka_eagle7. 配置ke.sh8. 启动Kafka_eagle9. 防火墙10. 访问Kafka eagle1. 安装包下载 官网地址&#xff1a;EFAK 本文使用3.0.1版本 2. …

维大杀器来了,未来云上服务器或将实现无人值守

云原生时代下&#xff0c;企业的IT运维面临架构复杂化、业务需求多样化和运维数据海量化等挑战&#xff0c;如何能够实现精准告警、异常智能诊断、根因定位、异常预测和异常自动修复&#xff0c;已成为企业数字化转型的急迫需求。 9月26日&#xff0c;阿里巴巴高级技术专家滕圣…

一家化纤工厂的数字化转型之路

在数字经济的浪潮中&#xff0c;零售业被公认为是数字化程度最高的行业&#xff0c;而与此形成鲜明对比的中国传统制造业&#xff0c;大部分还处于观望状态。当前&#xff0c;国内外形势正在发生深刻复杂的变化&#xff0c;越来越多的制造企业希望通过业务数字化与智能化&#…

java安全编码指南之:异常处理

异常简介 先上个图&#xff0c;看一下常见的几个异常类型。 所有的异常都来自于Throwable。Throwable有两个子类&#xff0c;Error和Exception。 Error通常表示的是严重错误&#xff0c;这些错误是不建议被catch的。 注意这里有一个例外&#xff0c;比如ThreadDeath也是继承自…

变局之际,聊聊物联网的过去、现在和未来

来源 | 鲜枣课堂头图 | 下载于视觉中国大家好&#xff0c;我是小枣君。前两天&#xff0c;我去上海参观了 IOTE物联网展。通过在现场的见闻&#xff0c;以及和专家们的交流探讨&#xff0c;我深刻感受到&#xff0c;物联网行业已经来到了一个重要的十字路口&#xff0c;将会发生…

130 秒揭秘 EDAS 3.0 如何平滑应对突发流量高峰,为您的业务保驾护航

云原生时代下&#xff0c;企业的IT运维面临架构复杂化、业务需求多样化和运维数据海量化等挑战&#xff0c;如何能够实现精准告警、异常智能诊断、根因定位、异常预测和异常自动修复&#xff0c;已成为企业数字化转型的急迫需求。 9月26日&#xff0c;阿里巴巴高级技术专家滕圣…

不重新打包,只修改 jar 包中的某个文件、某个类

用到的工具&#xff1a;WinRAR 特别注意&#xff1a;不能使用 7z&#xff0c;等其他打包工具&#xff08;或者如果测试其他打包工具可以用&#xff0c;可以补充留言&#xff09; 问题&#xff0c;一个已经打好的 jar 包&#xff0c;我只修改了其中一个类&#xff0c;如何替换。…

Spark On MaxCompute如何访问Phonix数据

简介&#xff1a; 如何使用Spark On MaxCompute连接Phonix&#xff0c;将Hbase的数据写入到MaxCompute的对应表中&#xff0c;目前没有对应的案例&#xff0c;为了满足用户的需求。本文主要讲解使用Spark连接Phonix访问Hbase的数据再写入到MaxCompute方案实践。该方案的验证是使…

码住!Flink Contributor 速成指南

简介&#xff1a; 不管初衷是什么&#xff0c;Flink 都非常欢迎大家一起建设和完善社区。在开始具体的贡献步骤之前&#xff0c;我们先简要介绍一下参与贡献的几种途径&#xff0c;以及 Clarify 关于开源贡献的一些固有印象。 作者&#xff1a;伍翀&#xff08;云邪&#xff0…

手机访问真机调试显示: Cannot add property markTimeline, object is not extensible 怎么解决

实战 \SpringBootVue3 项目实战&#xff0c;打造企业级在线办公系统 3-2 用户登陆系统的流程说明 手机访问真机调试显示&#xff1a; Cannot add property markTimeline, object is not extensible 解决方案&#xff1a; 手机开热点让电脑连接&#xff0c;windows防火墙关闭…

浅谈MaxCompute资源规划管理及评估

简介&#xff1a; 本文主要介绍如何进行MaxCompute存储资源和计算资源的评估及规划管理。 一、MaxCompute资源规划背景介绍 MaxCompute资源主要有两类&#xff1a;存储资源、计算资源(包含cpu和内存)。存储资源用于存储MaxCompute的库表数据&#xff0c;计算资源用于运行sql、…

如何无缝迁移 SpringCloud/Dubbo 应用到 Serverless 架构

作者 | 行松 阿里巴巴云原生团队 本文整理自《Serverless 技术公开课》&#xff0c;“Serverless”公众号后台回复“入门”&#xff0c;即可获取系列文章 PPT。 背景 通过前面几节课程的学习&#xff0c;相信大家对于 SAE 平台已经有了一定的了解&#xff0c;SAE 基于 IaaS 层…

从程序媛到启明星辰集团云安全总经理,郭春梅博士揭秘云时代安全攻防之道...

从无序中寻找踪迹&#xff0c;从眼前事探索未来。2021 年正值黄金十年新开端&#xff0c;CSDN 以中立技术社区专业、客观的角度&#xff0c;深度探讨中国前沿 IT 技术演进&#xff0c;推出年度重磅企划栏目——「拟合」&#xff0c;通过对话企业技术高管大咖&#xff0c;跟踪报…

汽车仿真效率30%↑、药物研发效率20倍↑,阿里云获HPC CHINA 2020“最佳行业应用奖”

简介&#xff1a; 近日&#xff0c;HPC CHINA 2020 大会以线上线下——双线联动的形式同步召开&#xff0c;近 300 位重量级高性能计算&#xff08;超算&#xff09;领域专家学者与业界精英人士、CCF 高专委委员汇聚郑州&#xff0c;共同探索高性能计算的发展。 在本届 HPC CH…

linux 安装mysql5.7.25_生产版本

文章目录一、配置安装1. 部署总览2. 下载软件3. 解压重命名4. 创建组5. 安装数据库6. 配置my.cnf7. 添加开机启动8. 配置数据木库9. 启动mysql10. 登录修改密码11. 允许远程连接一、配置安装 1. 部署总览 服务器端口说明192.168.52.1223306master 2. 下载软件 mkdir /app cd…

山石网科发布重磅容器安全产品“山石云铠”,云安全版图再下一城

编辑 | 宋 慧 出品 | CSDN云计算 5月18日&#xff0c;山石网科正式发布了云安全的重磅新品——山石云铠。至此&#xff0c;山石网科云计算安全版图补全“容器安全”板块&#xff0c;已完成目前主流虚拟化技术及云服务场景网络安全产品的全面覆盖。 虽然是非常重要的产品发布&…