pandas教程:Reading and Writing Data in Text Format (以文本格式读取和写入数据)

文章目录

  • Chapter 6 Data Loading, Storage, and File Formats(数据加载,存储,文件格式)
  • 6.1 Reading and Writing Data in Text Format (以文本格式读取和写入数据)
  • 1 Reading Text Files in Pieces(读取一部分文本)
  • 2 Writing Data to Text Format (写入数据到文本格式)
  • 3 Working with Delimited Formats
  • 4 JSON Data
  • 5 XML and HTML: Web Scraping (网络爬取)
    • Parsing XML with lxml.objectify

Chapter 6 Data Loading, Storage, and File Formats(数据加载,存储,文件格式)

inputoutput大多可以分为几类:读取文本文件或其他一些存储在磁盘上的格式,从数据库加载数据,利用web API来获取网络资源。

6.1 Reading and Writing Data in Text Format (以文本格式读取和写入数据)

pandas有很多用来读取表格式数据作为dataframe的函数,下面列出来一些。其中read_csvread_tabel是最经常用到的:

这里我们给出这些函数的大致功能,就是把test data变为dataframe。这些函数的一些可选参数有以下几类:

  • Indexing(索引)

    能把返回的一列或多列作为一个dataframe。另外也可以选择从文件中获取列名或完全不获取列名

  • Type inference and data conversion(类型推测和数据转换)

    这个包括用户自己定义的转换类型和缺失值转换

  • Datetime parsing(日期解析)

    包含整合能力,可以把多列中的时间信息整合为一列

  • Iterating(迭代)

    支持对比较大的文件进行迭代

  • Unclean data issues(未清洗的数据问题)

    跳过行或柱脚,评论,或其他一些小东西,比如csv中的逗号

因为现实中的数据非常messy(杂乱),所以有一些数据加载函数(特别是read_csv)的轩轩也变得越来越多。对于众多参数感觉不知所措是正常的(read_csv有超过50个参数)。具体的可以去看pandas官网给出的例子。

一些函数,比如pandas.read_csv实现type inference,因为column data type不是数据类型的一种。这意味着我们没有必要指定哪些columns是数值,哪些是整数,哪些是字符串。其他一些数据格式,比如HDF5,数据类型是在格式里的。

先来一个CSV文件热热身(CSV文件指的是用逗号隔开数据的文件):

!cat ../examples/ex1.csv
a,b,c,d,message
1,2,3,4,hello
5,6,7,8,world
9,10,11,12,foo

catunix下的一个shell command。如果是用windows,用type代替cat

import pandas as pd
df = pd.read_csv('../examples/ex1.csv')
df
abcdmessage
01234hello
15678world
29101112foo

我们也可以用read_table来指定分隔符:

pd.read_table('../examples/ex1.csv', sep=',')
abcdmessage
01234hello
15678world
29101112foo

一个文件不会总是有header row(页首行),考虑下面的文件:

!cat ../examples/ex2.csv
1,2,3,4,hello
5,6,7,8,world
9,10,11,12,foo

读取这样的文件,设定column name:

pd.read_csv('../examples/ex2.csv', header=None)
01234
01234hello
15678world
29101112foo
pd.read_csv('../examples/ex2.csv', names=['a', 'b', 'c', 'd', 'message'])
abcdmessage
01234hello
15678world
29101112foo

如果想要从多列从构建一个hierarchical index(阶层型索引),传入一个包含列名的list

!cat ../examples/csv_mindex.csv
key1,key2,value1,value2
one,a,1,2
one,b,3,4
one,c,5,6
one,d,7,8
two,a,9,10
two,b,11,12
two,c,13,14
two,d,15,16
parsed = pd.read_csv('../examples/csv_mindex.csv',index_col=['key1', 'key2'])
parsed
value1value2
key1key2
onea12
b34
c56
d78
twoa910
b1112
c1314
d1516

在一些情况下,一个table可能没有固定的分隔符,用空格或其他方式来分隔。比如下面这个文件:

list(open('../examples/ex3.txt'))
['            A         B         C\n','aaa -0.264438 -1.026059 -0.619500\n','bbb  0.927272  0.302904 -0.032399\n','ccc -0.264273 -0.386314 -0.217601\n','ddd -0.871858 -0.348382  1.100491\n']

可以看到区域是通过不同数量的空格来分隔的。这种情况下,可以传入一个正则表达式给read_table来代替分隔符。用正则表达式为\s+,我们得到:

result = pd.read_table('../examples/ex3.txt', sep='\s+')
result
ABC
aaa-0.264438-1.026059-0.619500
bbb0.9272720.302904-0.032399
ccc-0.264273-0.386314-0.217601
ddd-0.871858-0.3483821.100491

因为列名比行的数量少,所以read_table推测第一列应该是dataframeindex

这个解析器功能有很多其他参数能帮你解决遇到文件格式异常的问题(可以见之后的表格)。比如,我们要跳过第一、三、四行,使用skiprows:

!cat ../examples/ex4.csv
# hey!
a,b,c,d,message
# just wanted to make things more difficult for you
# who reads CSV files with computers, anyway?
1,2,3,4,hello
5,6,7,8,world
9,10,11,12,foo
pd.read_csv('../examples/ex4.csv', skiprows=[0, 2, 3])
abcdmessage
01234hello
15678world
29101112foo

对于缺失值,pandas使用一些sentinel value(标记值)来代表,比如NANULL

!cat ../examples/ex5.csv
something,a,b,c,d,message
one,1,2,3,4,NA
two,5,6,,8,world
three,9,10,11,12,foo
result = pd.read_csv('../examples/ex5.csv')
result
somethingabcdmessage
0one123.04NaN
1two56NaN8world
2three91011.012foo
pd.isnull(result)
somethingabcdmessage
0FalseFalseFalseFalseFalseTrue
1FalseFalseFalseTrueFalseFalse
2FalseFalseFalseFalseFalseFalse

na_values选项能把我们传入的字符识别为NA,导入必须是list

result = pd.read_csv('../examples/ex5.csv', na_values=['NULL'])
result
somethingabcdmessage
0one123.04NaN
1two56NaN8world
2three91011.012foo

我们还可以给不同的column设定不同的缺失值标记符,这样的话需要用到dict

sentinels = {'message': ['foo', 'NA'],'something': ['two']}
# 把message列中的foo和NA识别为NA,把something列中的two识别为NApd.read_csv('../examples/ex5.csv', na_values=sentinels)
somethingabcdmessage
0one123.04NaN
1NaN56NaN8world
2three91011.012NaN

1 Reading Text Files in Pieces(读取一部分文本)

对于一些比较大的文件,我们想要一次读取一小部分,或者每次迭代一小部分。在我们看一个比较大的文件前,先设置一下pandas中显示的数量:

pd.options.display.max_rows = 10
result = pd.read_csv('../examples/ex6.csv')
result
onetwothreefourkey
00.467976-0.038649-0.295344-1.824726L
1-0.3588931.4044530.704965-0.200638B
2-0.5018400.659254-0.421691-0.057688G
30.2048861.0741341.388361-0.982404R
40.354628-0.1331160.283763-0.837063Q
..................
99952.311896-0.417070-1.409599-0.515821L
9996-0.479893-0.6504190.745152-0.646038E
99970.5233310.7871120.4860661.093156K
9998-0.3625590.598894-1.8432010.887292G
9999-0.096376-1.012999-0.657431-0.5733150

10000 rows × 5 columns

如果只是想要读取前几行(不读取整个文件),指定一下nrows:

pd.read_csv('../examples/ex6.csv', nrows=5)
onetwothreefourkey
00.467976-0.038649-0.295344-1.824726L
1-0.3588931.4044530.704965-0.200638B
2-0.5018400.659254-0.421691-0.057688G
30.2048861.0741341.388361-0.982404R
40.354628-0.1331160.283763-0.837063Q

读取文件的一部分,可以指定chunksize:

chunker = pd.read_csv('../examples/ex6.csv', chunksize=1000)
chunker
<pandas.io.parsers.TextFileReader at 0x1121558d0>

pandas返回的TextParser object能让我们根据chunksize每次迭代文件的一部分。比如,我们想要迭代ex6.csv, 计算key列的值的综合:

chunker = pd.read_csv('../examples/ex6.csv', chunksize=1000)tot = pd.Series([])
for piece in chunker:tot = tot.add(piece['key'].value_counts(), fill_value=0)tot = tot.sort_values(ascending=False)
tot[:10]
E    368.0
X    364.0
L    346.0
O    343.0
Q    340.0
M    338.0
J    337.0
F    335.0
K    334.0
H    330.0
dtype: float64

TextParser有一个get_chunk方法,能返回任意大小的数据片段:

chunker = pd.read_csv('../examples/ex6.csv', chunksize=1000)chunker.get_chunk(10)
onetwothreefourkey
00.467976-0.038649-0.295344-1.824726L
1-0.3588931.4044530.704965-0.200638B
2-0.5018400.659254-0.421691-0.057688G
30.2048861.0741341.388361-0.982404R
40.354628-0.1331160.283763-0.837063Q
51.8174800.7422730.419395-2.251035Q
6-0.7767640.935518-0.332872-1.875641U
7-0.9131351.530624-0.5726570.477252K
80.358480-0.497572-0.3670160.507702S
9-1.740877-1.160417-1.6378302.172201G

2 Writing Data to Text Format (写入数据到文本格式)

可以输出位csv格式:

data = pd.read_csv('../examples/ex5.csv')
data
somethingabcdmessage
0one123.04NaN
1two56NaN8world
2three91011.012foo
data.to_csv('../examples/out.csv')
!cat ../examples/out.csv
,something,a,b,c,d,message
0,one,1,2,3.0,4,
1,two,5,6,,8,world
2,three,9,10,11.0,12,foo

其他一些分隔符也可以使用(使用sys.stdout可以直接打印文本,方便查看效果):

import sys
data.to_csv(sys.stdout, sep='|')
|something|a|b|c|d|message
0|one|1|2|3.0|4|
1|two|5|6||8|world
2|three|9|10|11.0|12|foo

缺失值会以空字符串打印出来,我们可以自己设定缺失值的指定符:

data.to_csv(sys.stdout, na_rep='NULL')
,something,a,b,c,d,message
0,one,1,2,3.0,4,NULL
1,two,5,6,NULL,8,world
2,three,9,10,11.0,12,foo

如果不指定,行和列会被自动写入。当然也可以设定为不写入:

data.to_csv(sys.stdout, index=False, header=False)
one,1,2,3.0,4,
two,5,6,,8,world
three,9,10,11.0,12,foo

你可以指定只读取一部分列,并按你选择的顺序读取:

data.to_csv(sys.stdout, index=False, columns=['a', 'b', 'c'])
a,b,c
1,2,3.0
5,6,
9,10,11.0

series也有一个to_csv方法:

import numpy as np
dates = pd.date_range('1/1/2000', periods=7)ts = pd.Series(np.arange(7), index=dates)ts.to_csv('../examples/tseries.csv')
!cat ../examples/tseries.csv
2000-01-01,0
2000-01-02,1
2000-01-03,2
2000-01-04,3
2000-01-05,4
2000-01-06,5
2000-01-07,6

3 Working with Delimited Formats

对于大部分磁盘中的表格型数据,用pandas.read_table就能解决。不过,有时候一些人工的处理也是需要的。

当然,有时候,一些格式不正确的行能会把read_table绊倒。为了展示一些基本用法,这里先考虑一个小的CSV文件:

!cat ../examples/ex7.csv
"a","b","c"
"1","2","3"
"1","2","3"

对于单个字符的分隔符,可以使用python内建的csv方法。只要给csv.reader一个打开的文件即可:

import csv
f = open('../examples/ex7.csv')
reader = csv.reader(f)

迭代这个reader:

for line in reader:print(line)
['a', 'b', 'c']
['1', '2', '3']
['1', '2', '3']

接下来,我们可以根据自己的需要来处理数据。一步步来,首先,把文件读取成一个list of lines:

with open('../examples/ex7.csv') as f:lines = list(csv.reader(f))

把lines分成header line和data lines:

header, values = lines[0], lines[1:]

然后我们可以用一个字典表达式来构造一个有列的字典,以及用zip(\*values)反转行为列:

data_dict = {h: v for h, v in zip(header, zip(*values))}
data_dict
{'a': ('1', '1'), 'b': ('2', '2'), 'c': ('3', '3')}
header
['a', 'b', 'c']
print([x for x in zip(*values)])
[('1', '1'), ('2', '2'), ('3', '3')]

CSV有很多功能。我们可以定义一个新的分隔符格式,比如字符串的引号,行结束时的回车,这里我们利用csv.Dialect来构造一个子类:

class my_dialect(csv.Dialect):lineterminator = '\n'delimiter = ';'quotechar = '"'quoting = csv.QUOTE_MINIMALf = open('../examples/ex7.csv')    
reader = csv.reader(f, dialect=my_dialect)
for line in reader:print(line)
['a,"b","c"']
['1,"2","3"']
['1,"2","3"']

当然,也可以设定一个分隔符参数给csv.reader,而不用单独定义一个子类:

reader = csv.reader(f, delimiter='|')
for line in reader:print(line)f.close()

对于一些更复杂的文件,比如用多种字符来做分隔符,就不能知网用csv模块来处理了。这种情况下,要先做stringsplit,或者用re.split

写入的话,可以用csv.write。它可以写入与csv.reader中设定一样的文件:

with open('../examples/mydata.csv', 'w') as f:writer = csv.writer(f, dialect=my_dialect)writer.writerow(('one', 'two', 'three'))writer.writerow(('1', '2', '3'))writer.writerow(('4', '5', '6'))writer.writerow(('7', '8', '9'))
!cat ../examples/mydata.csv 
one;two;three
1;2;3
4;5;6
7;8;9

4 JSON Data

JSON (short for JavaScript Object Notation)已经是发送HTTP请求的标准数据格式了。这种格式比起表个性的CSV更自由一些:

obj = """ 
{"name": "Wes", "places_lived": ["United States", "Spain", "Germany"], "pet": null, "siblings": [{"name": "Scott", "age": 30, "pets": ["Zeus", "Zuko"]}, {"name": "Katie", "age": 38, "pets": ["Sixes", "Stache", "Cisco"]}] 
} 
"""

JSON是很接近python代码的,除了他的缺失值为null和一些其他的要求。基本的类型是object(dicts), array(lists), strings, numbers, booleans, and nulls. 所以的key必须是string。有很多读取JSON的库,这里用json,它也是python内建的库。把JSON string变为python格式,用json.loads:

import json
result = json.loads(obj)
result
{'name': 'Wes','pet': None,'places_lived': ['United States', 'Spain', 'Germany'],'siblings': [{'age': 30, 'name': 'Scott', 'pets': ['Zeus', 'Zuko']},{'age': 38, 'name': 'Katie', 'pets': ['Sixes', 'Stache', 'Cisco']}]}

使用json.dumps,可以把python object转换为JSON

asjson = json.dumps(result)

如何把JSON转变为DataFrame或其他一些结构呢。可以把a list of dicts(JSON object)传给DataFrame constructor而且可以自己指定传入的部分:

siblings = pd.DataFrame(result['siblings'], columns=['name', 'age'])
siblings
nameage
0Scott30
1Katie38

pandas.read_json可以自动把JSON数据转变为seriesDataFrame

!cat ../examples/example.json
[{"a": 1, "b": 2, "c": 3},{"a": 4, "b": 5, "c": 6},{"a": 7, "b": 8, "c": 9}]

5, “c”: 6},
{“a”: 7, “b”: 8, “c”: 9}]

pandas.read_json假设JSON数组中的每一个Object,是表格中的一行:

data = pd.read_json('../examples/example.json')
data
abc
0123
1456
2789

如果想要输出结果为JSON,用to_json方法:

print(data.to_json())
{"a":{"0":1,"1":4,"2":7},"b":{"0":2,"1":5,"2":8},"c":{"0":3,"1":6,"2":9}}
print(data.to_json(orient='records'))
[{"a":1,"b":2,"c":3},{"a":4,"b":5,"c":6},{"a":7,"b":8,"c":9}]

orient='records'表示输出的数据结构是 列->值 的形式:

records : list like [{column -> value}, ... , {column -> value}]

5 XML and HTML: Web Scraping (网络爬取)

python有很多包用来读取和写入HTMLXML格式。比如:lxml, Beautiful Soup, html5lib。其中lxml比较快,其他一些包则能更好的处理一些复杂的HTMLXML文件。

pandas有一个内建的函数,叫read_html, 这个函数利用lxmlBeautiful Soup这样的包来自动解析HTML,变为DataFrame。这里我们必须要先下载这些包才能使用read_html:

conda install lxml 
pip install beautifulsoup4 html5lib

pandas.read_html函数有很多额外选项,但是默认会搜索并试图解析含有<tagble>tag的表格型数据。结果是a list of dataframe:

tables = pd.read_html('../examples/fdic_failed_bank_list.html')
len(tables)
1
tables
[                             Bank Name             City  ST   CERT  \0                          Allied Bank         Mulberry  AR     91   1         The Woodbury Banking Company         Woodbury  GA  11297   2               First CornerStone Bank  King of Prussia  PA  35312   3                   Trust Company Bank          Memphis  TN   9956   4           North Milwaukee State Bank        Milwaukee  WI  20364   ..                                 ...              ...  ..    ...   542                 Superior Bank, FSB         Hinsdale  IL  32646   543                Malta National Bank            Malta  OH   6629   544    First Alliance Bank & Trust Co.       Manchester  NH  34264   545  National State Bank of Metropolis       Metropolis  IL   3815   546                   Bank of Honolulu         Honolulu  HI  21029   Acquiring Institution        Closing Date  \0                           Today's Bank  September 23, 2016   1                            United Bank     August 19, 2016   2    First-Citizens Bank & Trust Company         May 6, 2016   3             The Bank of Fayette County      April 29, 2016   4    First-Citizens Bank & Trust Company      March 11, 2016   ..                                   ...                 ...   542                Superior Federal, FSB       July 27, 2001   543                    North Valley Bank         May 3, 2001   544  Southern New Hampshire Bank & Trust    February 2, 2001   545              Banterra Bank of Marion   December 14, 2000   546                   Bank of the Orient    October 13, 2000   Updated Date  0    November 17, 2016  1    November 17, 2016  2    September 6, 2016  3    September 6, 2016  4        June 16, 2016  ..                 ...  542    August 19, 2014  543  November 18, 2002  544  February 18, 2003  545     March 17, 2005  546     March 17, 2005  [547 rows x 7 columns]]
failures = tables[0]
failures.head()
Bank NameCitySTCERTAcquiring InstitutionClosing DateUpdated Date
0Allied BankMulberryAR91Today's BankSeptember 23, 2016November 17, 2016
1The Woodbury Banking CompanyWoodburyGA11297United BankAugust 19, 2016November 17, 2016
2First CornerStone BankKing of PrussiaPA35312First-Citizens Bank & Trust CompanyMay 6, 2016September 6, 2016
3Trust Company BankMemphisTN9956The Bank of Fayette CountyApril 29, 2016September 6, 2016
4North Milwaukee State BankMilwaukeeWI20364First-Citizens Bank & Trust CompanyMarch 11, 2016June 16, 2016

这里我们做一些数据清洗和分析,比如按年计算bank failure的数量:

close_timestamps = pd.to_datetime(failures['Closing Date'])
close_timestamps.dt.year.value_counts()
2010    157
2009    140
2011     92
2012     51
2008     25... 
2004      4
2001      4
2007      3
2003      3
2000      2
Name: Closing Date, dtype: int64

Parsing XML with lxml.objectify

XML(eXtensible Markup Language)是另一种常见的数据格式,支持阶层型、嵌套的数据。这里我们演示如何用lxml来解析一个XML格式文件。

纽约都会交通局发布了巴士和地铁的时间表。每一个地跌或巴士都有一个不同的文件(比如Performance_NNR.xml对应Metro-North Railroad):

<INDICATOR><INDICATOR_SEQ>373889</INDICATOR_SEQ> <PARENT_SEQ></PARENT_SEQ><AGENCY_NAME>Metro-North Railroad</AGENCY_NAME><INDICATOR_NAME>Escalator Availability</INDICATOR_NAME><DESCRIPTION>Percent of the time that escalators are operational systemwide. The availability rate is based on physical observations performed the morning of regular business days only. This is a new indicator the agency began reporting in 2009.</DESCRIPTION><PERIOD_YEAR>2011</PERIOD_YEAR> <PERIOD_MONTH>12</PERIOD_MONTH> <CATEGORY>Service Indicators</CATEGORY> <FREQUENCY>M</FREQUENCY> <DESIRED_CHANGE>U</DESIRED_CHANGE> <INDICATOR_UNIT>%</INDICATOR_UNIT> <DECIMAL_PLACES>1</DECIMAL_PLACES> <YTD_TARGET>97.00</YTD_TARGET> <YTD_ACTUAL></YTD_ACTUAL> <MONTHLY_TARGET>97.00</MONTHLY_TARGET> <MONTHLY_ACTUAL></MONTHLY_ACTUAL> 
</INDICATOR>

使用lxml.objectify,我们可以解析文件,通过getroot,得到一个指向XML文件中root node的指针:

from lxml import objectifypath = '../datasets/mta_perf/Performance_MNR.xml'
parsed = objectify.parse(open(path))
root = parsed.getroot()

root.INDICATOR 返回一个生成器,每次调用能生成一个<INDICATOR>XML元素。每一个记录,我们产生一个dicttag name(比如YTD_ACTUAL)作为字典的key

data = []skip_fields = ['PARENT_SEQ', 'INDICATOR_SEQ', 'DESIRED_CHANGE', 'DECIMAL_PLACES']for elt in root.INDICATOR:el_data = {}for child in elt.getchildren():if child.tag in skip_fields:continueel_data[child.tag] = child.pyvaldata.append(el_data)

然后我们把这个dict变为DataFrame

perf = pd.DataFrame(data)
perf.head()
AGENCY_NAMECATEGORYDESCRIPTIONFREQUENCYINDICATOR_NAMEINDICATOR_UNITMONTHLY_ACTUALMONTHLY_TARGETPERIOD_MONTHPERIOD_YEARYTD_ACTUALYTD_TARGET
0Metro-North RailroadService IndicatorsPercent of commuter trains that arrive at thei...MOn-Time Performance (West of Hudson)%96.9951200896.995
1Metro-North RailroadService IndicatorsPercent of commuter trains that arrive at thei...MOn-Time Performance (West of Hudson)%9595220089695
2Metro-North RailroadService IndicatorsPercent of commuter trains that arrive at thei...MOn-Time Performance (West of Hudson)%96.9953200896.395
3Metro-North RailroadService IndicatorsPercent of commuter trains that arrive at thei...MOn-Time Performance (West of Hudson)%98.3954200896.895
4Metro-North RailroadService IndicatorsPercent of commuter trains that arrive at thei...MOn-Time Performance (West of Hudson)%95.8955200896.695

XML数据能得到比这个例子更复杂的情况。每个tag都有数据。比如一个而HTML链接,也是一个有效的XML

from io import StringIO
tag = '<a href="http://www.google.com">Google</a>'
root = objectify.parse(StringIO(tag)).getroot()

我们可以访问任何区域的tag(比如href):

root
<Element a at 0x114860948>
root.get('href')
'http://www.google.com'
root.text
'Google'

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/134647.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

如何提高企业竞争力?CRM管理系统告诉你

随着竞争形势和商业环境的加剧&#xff0c;企业需要迅速适应不断变化的消费需求。不少企业使用CRM客户管理系统来优化业务流程&#xff0c;管理客户信息&#xff0c;实现更多的业绩增长。那么我们来说说&#xff0c;CRM系统如何提高企业竞争力&#xff1f; 强大的数据管理&…

HarmonyOS ArkTS基础知识

概述 上一节&#xff0c;学习了TypeScript的基础语法&#xff0c;而在鸿蒙开发当中&#xff0c;有基于自己的编程语言&#xff0c;便是ArkTS。它是一种声明式UI的编程范式的语言&#xff0c;开发框架如下图所示&#xff1a; 根据框架图&#xff0c;分析&#xff0c;我将它大致…

pycharm pro v2023.2.4(Python开发)

PyCharm是一种Python集成开发环境&#xff08;IDE&#xff09;&#xff0c;PyCharm提供了强大的功能&#xff0c;包括语法突出显示、智能代码完成、代码检查、自动重构和调试等特性&#xff0c;这些都可以帮助Python开发人员更加高效地编写代码。 PyCharm Pro是PyCharm的高级版…

【图】:常用图搜索(图遍历)算法

目录 概念图遍历深度优先搜索 (DFS)DFS 适用场景DFS 优缺点 广度优先搜索 (BFS)BFS 适用场景BFS 优缺点 DFS & BFS 异同点 图搜索Dijkstra算法A*算法Floyd算法Bellman-Ford算法SPFA算法 概念 图遍历和图搜索是解决图论问题时常用的两种基本操作。 图遍历是指从图中的某一个…

JVM 三大性能调优参数

JVM的性能调优是Java应用程序优化的重要部分&#xff0c;其中三大性能调优参数为&#xff1a; jvm三大性能调优参数 1. 堆内存大小(-Xmx和-Xms参数)&#xff1a;堆内存是Java应用程序中最重要的内存区域&#xff0c;存储对象实例和数组等数据。增大堆内存的大小可以提高Java应…

nssm部署nginx

nssm install Nginx8098 --安装nginx nssm start Nginx8098 --启用nginx nginx 选择nginx路径&#xff0c;安装

免费API接口集合, 让你的开发无烦恼

六位图片验证码生成&#xff1a;包括纯数字、小写字母、大写字母、大小写混合、数字小写、数字大写、数字大小写等情况。 四位图片验证码生成&#xff1a;四位图片验证码生成&#xff0c;包括纯数字、小写字母、大写字母、大小写混合、数字小写、数字大写、数字大小写等情况。…

易云维®工厂能耗管理平台系统方案,保证运营质量,推动广东制造企业节能减排

我国《关于完整准确全面贯彻新发展理念推进碳达峰碳中和工作的实施意见》出台&#xff0c;提出了推进碳达峰碳中和工作的总体目标。到2025年&#xff0c;广东具备条件的地区、行业和企业率先实现碳达峰&#xff0c;为全省实现碳达峰、碳中和奠定坚实基础&#xff1b;2030年前实…

玩具乐器展示预约小程序的内容是什么

玩具乐器产品的受众非常广&#xff0c;随着互联网电商深入&#xff0c;很多传统线下经营的商家开始转变为线上经营&#xff0c;入驻第三方平台或自建线上商城卖货等&#xff0c;当然除了直接卖产品外&#xff0c;还有产品展示预约咨询场景&#xff0c;因此很多商家也会选择制作…

c#笔记整理

1、【精选】NPOI使用手册 &#xff08;操作Excel&#xff09;-CSDN博客 2、NPOI导入Excel日期格式的处理 - 附类型格式匹配表 https://www.cnblogs.com/keitsi/p/8572093.html 3、[编程工具]使用NPIO(C#)读取xls,xlsx(Excel)表格 http://t.csdnimg.cn/PPiya

redis主从复制玩法全过程笔记(redis7+版本)

目录标题 环境目的实操一主多仆服务器和本地主机配置环境docker 环境配置 薪火相传反客为主 主从复制的流程主从复制的特性主从复制的缺点本篇结语 环境 我的环境介绍window环境VM虚拟机一台并安装centos7&#xff0c;一台阿里云Linux服务器&#xff0c;另一台Linux系统主机并…

Mybatis-Plus使用Wrapper自定义SQL

文章目录 准备工作Mybatis-Plus使用Wrapper自定义SQL注意事项目录结构如下所示domain层Controller层Service层ServiceImplMapper层UserMapper.xml 结果如下所示&#xff1a;单表查询条件构造器单表查询&#xff0c;Mybatis-Plus使用Wrapper自定义SQL联表查询不用&#xff0c;My…

C# OpenCvSharp 去除字母后面的杂线

效果 项目 代码 using OpenCvSharp; using System; using System.Drawing; using System.Windows.Forms;namespace OpenCvSharp_Demo {public partial class frmMain : Form{public frmMain(){InitializeComponent();}string image_path "";private void Form1_Loa…

最近的总结(2023.11.8)

菜鸟本来是不打算写文章的&#xff0c;奈何1500的曝光券让我心痒难耐 菜鸟主要是想把这篇博客&#xff08;平凡人的一生的意义是什么&#xff1f;&#xff09;推出去&#xff0c;看看大家的看法&#xff01; 不过既然写&#xff0c;菜鸟自然要好好写&#xff0c;就来聊聊最近…

如何选择SVM中最佳的【核函数】

参数“kernel"在sklearn中可选以下几种 选项&#xff1a; 接下来我们 就通过一个例子&#xff0c;来探索一下不同数据集上核函数的表现。我们现在有一系列线性或非线性可分的数据&#xff0c;我们希望通过绘制SVC在不同核函数下的决策边界并计算SVC在不同核函数下分类准确…

NeRF神经辐射场渲染过程详解,三维重建渲染过程基本原理_光线采样sample_pdf()和光线渲染render_rays ()代码详解

目录 1 神经辐射场 1.1 基本原理 1.2 基本流程 1.3 数学解释 2 三维场景图像渲染详解 2.1射线采样 2.2 NeRF 模型预测 2.3 体积渲染 3 采样与渲染代码详解 &#xff08;rending.py&#xff09; 3.1 神经体积渲染代码解析 3.2 sample_pdf 函数 3.3 render_rays 函数 …

持续集成交付CICD:Jenkins Pipeline与远程构建触发器

目录 一、实验 1.Jenkins Pipeline本地构建触发器 2.Jenkins Pipeline与远程构建触发器&#xff08;第一种方式&#xff09; 3.Jenkins Pipeline与远程构建触发器&#xff08;第二种方式&#xff09; 4.Jenkins Pipeline与远程构建触发器&#xff08;第三种方式&#xff0…

pytorch 学习率衰减策略

##学习率衰减策略 import torch.nn.functional as F import torch import torch.nn as nn import matplotlib.pyplot as plt#初始化模型 class Net(nn.Module):def __init__(self):super(Net, self).__init__()self.conv1 = nn.Conv2d(1, 10, kernel_size=5)self.conv2 = nn.Co…

3.JMeter高级使用-让你与众不同

目录 概述插件下载与安装插件下载配置插件 服务器硬件资源监控(精简版)配置服务端代理JMeter配置监控CPU监控网络 JMeter下载结束 概述 今日目标&#xff1a; 插件下载与安装Basic Graphs 主要点 Average Response Time 平均响应时间Active Threads 活动线程数Successful/Fai…

windows11使用docker部署安装minio

时间 2023-11-08 windows11使用docker部署安装minio 目录 1.docker 下载镜像2.docker安装镜像3.访问控制台4.安装问题解决5.使用教程 1.docker 下载镜像 调整镜像源到国内&#xff0c;否则会很慢 docker pull minio/minio2.docker安装镜像 设置用户名和密码时需要注意&…