Python数据分析的数据导入和导出

news2024/11/20 18:39:29

数据分析的数据的导入和导出

  • 前言
  • 一、导入数据
    • 导入Excel表格数据
      • read_excel
      • 示例
    • 导入CSV格式数据
      • read_csv()
      • 示例
    • 导入JSON格式数据
      • JSON简介
      • pandas导入JSON数据
        • read_json()
    • 导入txt文件
      • read_table
      • 示例
    • 导入(爬取)网络数据
      • read_html()
      • 示例
  • 二、输出数据
    • CSV格式数据输出
      • to_csv
      • 示例
    • xlsx格式数据输出
      • to_excel
      • 示例1
      • 示例2


前言

数据分析的数据的导入和导出是数据分析流程中至关重要的两个环节,它们直接影响到数据分析的准确性和效率。在数据导入阶段,首先要确保数据的来源可靠、格式统一,并且能够满足分析需求。这通常涉及到数据清洗和预处理的工作,比如去除重复数据、处理缺失值、转换数据类型等,以确保数据的完整性和一致性。

导入数据后,接下来就需要进行数据的探索和分析。在这一阶段,分析师会利用各种统计方法和可视化工具来揭示数据背后的规律和趋势。通过对数据的深入挖掘,可以发现隐藏在数据中的有用信息,为决策提供支持。

然而,数据分析的目的不仅仅是为了理解和解释数据,更重要的是将数据转化为有价值的信息和知识。这就需要将分析结果以易于理解和使用的形式导出,供其他人使用。数据导出通常包括生成报告、制作图表、提供数据接口等方式,以便将分析结果直观地展示给决策者、业务人员或其他相关人员。

在数据导出时,还需要注意数据的安全性和隐私保护。对于敏感数据,要进行适当的脱敏处理,避免数据泄露和滥用。同时,导出的数据格式也要考虑接收方的需求和使用习惯,确保数据的可用性和易用性。


一、导入数据

导入Excel表格数据

Excel文件有两种格式,分别为xls格式和xlsx格式。这两种格式的文件都可以用Python的Pandas模块的read_excel方法导入。

read_excel

pandas库提供了多种方式来读取Excel文件,其中最常用的是read_excel()函数。该函数可以将Excel文件读取为一个DataFrame对象,具体用法如下:

import pandas as pd

# 导入Excel表格
data = pd.read_excel('文件路径/文件名.xlsx', sheet_name='工作表名称', header=行索引, index_col=列索引, skiprows=跳过行数, usecols=使用的列范围)

# 打印数据
print(data)

参数说明:
read_excel()函数的参数说明如下:

pd.read_excel(io, sheet_name=0, header=0, names=None, index_col=None, usecols=None, squeeze=False, dtype=None, engine=None, converters=None, true_values=None, false_values=None, skiprows=None, nrows=None, skip_footer=0, na_values=None, parse_dates=False, date_parser=None, thousands=None, decimal='.', keep_default_na=True, thousands=None, decimal='.', keep_default_na=True, thousands=None, decimal='.', keep_default_na=True, verbose=False, parse_dates=False, date_parser=None, thousands=None, decimal='.', keep_default_na=True, verbose=False, convert_float=True, has_index_names=None, converters=None, true_values=None, false_values=None, index_col=None, nrows=None, na_values=None, squeeze=False, skiprows=None, skip_footer=0, verbose=False, parse_dates=False, date_parser=None, thousands=None, decimal='.', keep_default_na=True, true_values=None, false_values=None, squeeze=False, parse_dates=False, date_parser=None, thousands=None, decimal='.', keep_default_na=True, converters=None, dtype=None, usecols=None, engine=None)

参数说明:

  • io:指定要读取的文件路径(字符串)、字节流对象、URLExcelFile对象或类似对象(如xlrdopenpyxlpyxlsb)。
  • sheet_name:指定要读取的工作表名称。可以是字符串、整数(表示工作表索引)或list(表示要读取的多个工作表)。
  • header:指定哪一行作为列名。默认为0,表示第一行作为列名。可以设置为整数(表示第几行)或list(表示多级列名)。
  • names:指定自定义列名。可以是listNone
  • index_col:指定哪一列作为行索引。默认为None,表示不设置行索引。可以是整数(表示第几列)或列名。
  • usecols:指定要读取的列范围。可以是整数(表示第几列)或列名列表。例如,usecols='A:C'表示只读取A、B和C列。
  • dtype:指定每列的数据类型。可以是字典(列名为键,数据类型为值)或None
  • skiprows:指定要跳过的行数。可以是整数(表示跳过多少行)或列表(表示要跳过的行号)。
  • skip_footer:指定要跳过的末尾行数。默认为0,表示不跳过末尾行。
  • na_values:指定要替换为NaN的值。可以是标量、字符串、列表或字典。
  • parse_dates:指定是否解析日期列。默认为False
  • date_parser:指定用于解析日期的函数。默认为None
  • thousands:指定千分位分隔符的字符。默认为None,表示没有千分位分隔符。
  • decimal:指定小数点字符。默认为’.'。
  • converters:指定自定义的转换函数。可以是字典(列名为键,转换函数为值)或None
  • dtype:指定结果的数据类型。默认为None,表示按推断得出数据类型。
  • verbose:指定是否显示详细信息。默认为False

以上是read_excel()函数的一些常用参数,还有其他参数可以在需要时进行了解。
read_excel()函数还支持其他参数,例如sheet_name=None可以导入所有工作表,na_values可以指定要替换为NaN的值等。你可以查阅pandas官方文档了解更多详细信息。

ps:read_excel方法返回的结果是DataFrame, DataFrame的一列对应着Excel的一列。

示例

在这里插入图片描述

nrows 导入前5行数据

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

usecols 控制输入第一列和第三列
在这里插入图片描述

在这里插入图片描述

导入CSV格式数据

CSV是一种用分隔符分割的文件格式。由于Excel文件在存放巨量数据时会占用极大空间,且导入时也存在占用极大内存的缺点,因此,巨量数据常采用CSV格式。

read_csv()

在Python中,导入CSV格式数据通过调用pandas模块的read_csv方法实现。

read_csv()函数的参数说明如下:

  • filepath_or_buffer(必选):要读取的csv文件的路径或文件对象。可以是本地文件路径、URL、文件对象或包含以上类型的迭代器。

  • sep(可选,默认为逗号):指定csv文件中数据的分隔符。

  • delimiter(可选,默认为None):与sep参数功能相同,用于指定分隔符。

  • header(可选,默认为’infer’):指定csv文件中的行作为列名的行数,默认为第一行。如果设置为None,则表示文件没有列名。

  • names(可选,默认为None):用于指定列名的列表,如果header=None,则需要通过该参数来指定列名。

  • index_col(可选,默认为None):用于指定哪些列作为索引列,可以是单列索引或多列索引。

  • usecols(可选,默认为None):用于指定需要读取的列,可以是列名或列索引的列表。

  • squeeze(可选,默认为False):用于指定是否将只有一列的数据读取为Series对象而不是DataFrame对象。

  • prefix(可选,默认为None):用于给列名添加前缀。

  • mangle_dupe_cols(可选,默认为True):用于处理重复的列名。

  • dtype(可选,默认为None):用于指定每列的数据类型。可以是Python的基本数据类型或pandas的数据类型。

  • engine(可选,默认为’C’):用于指定用于解析的引擎。

  • converters(可选,默认为None):用于指定需要对某些列进行转换的函数。

  • true_values(可选,默认为None):用于指定哪些值表示True

  • false_values(可选,默认为None):用于指定哪些值表示False

  • skiprows(可选,默认为None):用于跳过指定的行数。

  • skipfooter(可选,默认为0):用于跳过文件末尾指定的行数。

  • nrows(可选,默认为None):用于限制读取的行数。

  • na_values(可选,默认为None):用于指定哪些值表示缺失值。

  • keep_default_na(可选,默认为True):用于指定是否保留默认的缺失值标识符。

  • na_filter(可选,默认为True):用于指定是否将缺失值解析为NaN

  • verbose(可选,默认为False):用于指定是否打印读取过程中的详细信息。

  • parse_dates(可选,默认为False):用于指定需要解析为日期时间类型的列。

  • infer_datetime_format(可选,默认为False):用于是否尝试自动解析日期时间格式。

  • keep_date_col(可选,默认为False):用于指定是否保留原始日期列。

  • date_parser(可选,默认为None):用于指定自定义日期时间解析函数。

  • dayfirst(可选,默认为False):用于指定是否将日期中的天作为第一位。

  • cache_dates(可选,默认为True):用于指定是否缓存解析的日期时间数据。

  • thousands(可选,默认为None):用于指定千位分隔符。

  • decimal(可选,默认为’.'):用于指定小数点分隔符。

  • lineterminator(可选,默认为None):用于指定行终止符。

  • quotechar(可选,默认为’"'):用于指定引用字符。

  • quoting(可选,默认为0):用于指定引用的规则。

  • doublequote(可选,默认为True):用于指定是否将引用字符中的引号转义。

  • escapechar(可选,默认为None):用于指定转义字符。

  • comment(可选,默认为None):用于指定注释字符。

  • encoding(可选,默认为None):用于指定文件的编码格式。

  • dialect(可选,默认为None):用于指定CSV格式的方言。

  • error_bad_lines(可选,默认为True):用于指定是否跳过包含错误的行。

  • warn_bad_lines(可选,默认为True):用于指定是否显示跳过包含错误的行的警告信息。

  • on_bad_lines(可选,默认为’warn’):用于指定错误处理机制。

  • skip_blank_lines(可选,默认为True):用于指定是否跳过空行。

  • delimiter_whitespace(可选,默认为False):用于指定是否使用空格作为分隔符。

  • compression(可选,默认为’infer’):用于指定文件的压缩格式。

除了上述参数外,还有一些其他参数,可以通过查看pandas官方文档来获取更详细的信息。

示例

假如encoding 如果是utf-8 的话就是乱码在这里插入图片描述

在这里插入图片描述
usecols控制输出第一列和第三列

在这里插入图片描述
列名重命名

在这里插入图片描述

导入JSON格式数据

JSON简介

JSON是一种轻量级的数据交换格式,容易阅读,也容易被机器扫描,在互联网应用中很常见。有时候从后台系统里导出来的数据就是JSON格式。

JSON文件实际存储的时一个JSON对象或者一个JSON数组。JSON对象是由多个键值对组成的,类似于Python的字典;

JSON数组由多个JSON对象组成,类似于Python列表。

在这里插入图片描述

pandas导入JSON数据

read_json()

read_json函数是一个读取JSON文件的函数。它的作用是将指定的JSON文件加载到内存中并将其解析成Python对象。这个函数通常用于读取存储数据的JSON文件,以便在程序中对数据进行操作和处理。

参数说明:

  • file_path:必需,一个字符串,表示要读取的JSON文件的路径。
  • encoding:可选,一个字符串,表示要使用的编码方式。默认为'utf-8'
  • errors:可选,一个字符串,表示遇到解码错误时的处理方式。默认为'strict'
  • object_hook:可选,一个函数,用于将解析的JSON对象转换为自定义的Python对象。默认为None
  • parse_float:可选,一个函数,用于将解析的浮点数转换为自定义的Python对象。默认为None
  • parse_int:可选,一个函数,用于将解析的整数转换为自定义的Python对象。默认为None
  • parse_constant:可选,一个函数,用于将解析的JSON常量转换为自定义的Python对象。默认为None
  • object_pairs_hook:可选,一个函数,用于将解析的JSON键值对转换为自定义的Python对象。默认为None
  • **kw:可选,一些其他参数,用于控制解析过程的细节。例如,kw={'allow_comments': True}表示允许在JSON文件中包含注释。

返回值:

  • Python对象:将JSON数据解析后得到的Python对象。

注意事项:

  • 读取的JSON文件必须存在并且格式正确,否则函数将会抛出异常。
  • JSON文件可以包含不同类型的数据,如字符串、数字、布尔值、列表、字典等。
  • 解析后的Python对象的类型将根据JSON文件中的数据类型进行推断。

示例用法:

data = read_json("data.json")

print(data)

输出结果:

{
  "name": "John",
  "age": 25,
  "is_student": true,
  "courses": ["Math", "Science", "English"],
  "address": {"street": "123 Main St", "city": "New York"}
}

导入txt文件

当需要导入存在于txt文件中的数据时,可以使用pandas模块中的read_table方法。它的参数和用法与read_csv方法类似。

read_table

read_table函数是pandas库中的一个函数,用于将一个表格文件读入为一个DataFrame对象。

函数语法:

pd.read_table(filepath_or_buffer, sep='\t', header='infer', names=None, index_col=None, dtype=None, na_values=None, converters=None, skiprows=None, skipfooter=0, nrows=None, quotechar=None, encoding=None, engine=None)

参数说明:

  • filepath_or_buffer:文件的路径或者打开的文件对象。
  • sep:分隔符,默认为制表符(‘\t’)。
  • header:指定数据中的哪一行作为表头,默认为‘infer’,表示自动推断。
  • names:用于指定列名,默认为None,即使用表头作为列名。
  • index_col:用于指定哪一列作为索引,默认为None,即不使用列作为索引。
  • dtype:指定数据类型,默认为None
  • na_values:用于指定缺失值的表示方式,默认为None
  • converters:用于指定某些列的转换函数,默认为None
  • skiprows:用于指定需要跳过的行数,默认为None
  • skipfooter:用于指定需要跳过的尾部行数,默认为0。
  • nrows:用于指定读取的行数,默认为None,表示读取所有行。
  • quotechar: 用于指定字段值的引号,默认为None
  • encoding: 用于指定文件的编码,默认为None,表示使用系统默认编码。
  • engine: 用于指定读取文件的引擎,默认为None,表示自动选择。

返回值:返回一个DataFrame对象,表示读取的表格数据。

示例

在这里插入图片描述

导入(爬取)网络数据

在Python的数据分析中,除了可以导入文件和数据库中的数据,还有一类非常重要的数据就是网络数据。网络中每天都会产生大量数据,这些数据具有实时性、种类丰富的特点,因此对于数据分析而言是十分重要的一类数据来源。

关键技术:爬取网络表格类数据, pandasread_html()方法。

read_html()

read_html方法用于导入带有table标签的网页表格数据。

使用该方法前,首先要确定网页表格是否为table标签。

具体方法为,鼠标右键单击网页中的表格,在弹出的菜单中选择"查看元素”,查看代码中是否含有表格标签<table> </table>的字样,确定后才可以使用read_html方法。

read_html()函数是pandas库中的一个功能,它可以用于从HTML文件或URL中读取表格数据并将其转换为DataFrame对象。

函数的语法如下:

pandas.read_html(io, match=None, flavor=None, header=None, index_col=None, skiprows=None, attrs=None, parse_dates=False, thousands=',', encoding=None, decimal='.', converters=None, na_values=None)

参数说明:

  • io:可以是一个包含HTML文本的字符串、本地HTML文件的路径或URL。
  • match:可以是一个字符串或正则表达式,用于匹配解析出的表格的名称。
  • flavor:指定解析器的名称。可选值是"bs4"(使用BeautifulSoup解析器)或"html5lib"(使用html5lib解析器)。
  • header:指定表格的表头行,默认为0,即第一行。
  • index_col:设置作为索引列的列号或列名,默认为None,即不设置索引列。
  • skiprows:指定要跳过的行数。可以是一个整数(表示跳过的行数)或一组整数(表示要跳过的行号)。
  • attrs:一个字典,用于设置表格的属性。可以使用键值对指定属性名称和属性值。
  • parse_dates:如果为True,则尝试解析日期并将其转换为datetime对象。
  • thousands:设置千位分隔符的字符,默认为英文逗号","。
  • encoding:指定文件的编码格式。
  • decimal:设置小数点的字符,默认为英文句点"."。
  • converters:一个字典,用于指定不同列的数据类型转换函数。
  • na_values:一个列表或字符串,用于指定需要识别为缺失值的特殊字符串。

返回值:

  • 如果HTML文件中只有一个表格,则返回一个DataFrame对象。
  • 如果HTML文件中有多个表格,则返回一个包含所有表格的列表,每个表格都以DataFrame对象的形式存储在列表中。

使用read_html()函数可以方便地将HTML中的表格数据读取为DataFrame对象,以便进行后续的数据处理和分析。

示例

【例】爬取A股公司营业收入排行榜。
中商情报网是专业的产业情报分享云平台,主要提供研究报告、行业分析、市场调研等数据。

在本案例中,通过爬取中商情报网中A股公司营业收入排行榜表格获取相应的金融数据,数据网址为

https://s.askci.com/stock/a/

在这里插入图片描述

二、输出数据

CSV格式数据输出

to_csv

to_csv函数是pandas库中的一个方法,用于将DataFrame对象保存为CSV文件。CSV文件是一种常用的文本文件格式,用于存储表格数据。该函数可以将DataFrame对象的数据保存为CSV文件,以便后续可以通过其他程序或工具进行读取和处理。

函数的语法如下:

DataFrame.to_csv(path_or_buf=None, sep=',', na_rep='', float_format=None, columns=None, header=True, index=True, index_label=None, mode='w', encoding=None, compression='infer', quoting=None, quotechar='"', line_terminator=None, chunksize=None, date_format=None, doublequote=True, escapechar=None, decimal='.', errors='strict')

参数说明:

  • path_or_buf:保存CSV文件的路径或文件对象(文件名、文件路径、文件描述符等)
  • sep:指定数据字段之间的分隔符,默认为逗号(,)
  • na_rep:在数据中代表缺失值的字符串,默认为空字符串
  • float_format:浮点数格式,指定数据中浮点数的输出格式,默认为None(即按照默认格式输出)
  • columns:指定保存的列,默认为None,表示保存所有列。也可以自己指定需要保存的列名列表
  • header:是否保存列名,默认为True
  • index:是否保存行索引,默认为True
  • index_label:行索引列的列名,默认为None
  • mode:文件打开模式,默认为’w’,即覆盖写入。也可以设置为’a’,表示在已有文件末尾追加写入
  • encoding:文件编码格式,默认为None,即使用系统默认编码格式
  • compression:文件压缩格式,默认为’infer’,表示自动推断。也可以设置为’gzip’、‘bz2’、'zip’等压缩格式
  • quoting:控制CSV文件中的引号常量,默认为None,表示无引号。也可以设置为’none’、‘nonnumeric’、‘minimal’、'all’等
  • quotechar:指定引号字符,默认为双引号("
  • line_terminator:行结束符,默认为None。可以设置为’\r\n’、‘\n’、'\r’等
  • chunksize:一次性写入的行数,默认为None,表示全部写入
  • date_format:日期格式,默认为None。可以设置为’%Y-%m-%d’等日期格式字符串
  • doublequote:是否双引号转义,默认为True
  • escapechar:转义字符,默认为None
  • decimal:浮点数输出的小数点分隔符,默认为点号(.
  • errors:报错模式,默认为’strict’,表示严格模式。也可以设置为’ignore’、'replace’等

示例

【例】导入sales.csv文件中的前10行数据,并将其导出为sales_new.csv文件。

关键技术: pandas库的to_csv方法。

在该例中,首先通过pandas库的read_csv方法导入sales.csv文件的前10行数据,然后使用pandas库的to_csv方法将导入的数据输出为sales_new.csv文件。在这里插入图片描述

xlsx格式数据输出

to_excel

to_excel函数是pandas库中的一个方法,用于将DataFrame对象保存到Excel文件中。

函数的语法为:

DataFrame.to_excel(excel_writer, sheet_name='Sheet1', index=True, header=True)

参数说明:

  • excel_writer:要保存的Excel文件名或文件路径,可以是字符串类型或ExcelWriter对象。
  • sheet_name:要保存到的Sheet的名称,默认为’Sheet1’。
  • index:是否保存索引列,默认为True
  • header:是否保存列名,默认为True
  • startrow:写入数据时的起始行位置,默认为0。
  • startcol:写入数据时的起始列位置,默认为0。
  • merge_cells:是否合并单元格,默认为False
  • encoding:保存Excel文件时的字符编码,默认为utf-8
  • engine:使用的Excel写入引擎,默认为None,表示使用pandas的默认引擎。

示例用法:

import pandas as pd

data = {'Name': ['John', 'Emily', 'Michael'],
        'Age': [25, 30, 35],
        'City': ['New York', 'Paris', 'London']}

df = pd.DataFrame(data)

df.to_excel('data.xlsx', sheet_name='Sheet1', index=False, header=True, startrow=2, startcol=1, merge_cells=True, encoding='utf-8', engine=None)

以上代码将DataFrame对象df保存为名为’data.xlsx'的Excel文件,在Sheet1中写入数据,不保存索引列,保存列名,数据从第3行第2列开始,合并单元格,使用utf-8编码,使用pandas的默认引擎。

另外,to_excel方法还支持其他参数,如startrowstartcol等,用于设置写入数据的起始行、起始列位置。详细使用方法可参考pandas官方文档。

示例1

【例】如销售文件格式为sales.xlsx文件,这种情况下该如何处理?

关键技术: DataFrame对象的to_excel方法

与上例相似,该例首先利用Pandas库的read_excel方法读入sales.xlsx文件,然后使用to_excel方法导出新文件。

在这里插入图片描述

示例2

【例】将sales.xlsx文件中的前十行数据,导出到sales_new.xlsx文件中名为df1sheet页中,将sales.xlsx文件中的后五行数据导出到sales_new.xlsx文件中名为df2sheet页中。

关键技术: Pandas库中的ExcelWriter方法。

解决该问题,首先在sales_new.xlsx文件中建立名为df1df2sheet页,然后使用pd.ExcelWriter方法打开sales_new.xlsx文件,再使用to_excel方法将数据导入到指定的sheet页中。
在这里插入图片描述


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1657025.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

5月9日不同路径+不同路径Ⅱ

62.不同路径 一个机器人位于一个 m x n 网格的左上角 &#xff08;起始点在下图中标记为 “Start” &#xff09;。 机器人每次只能向下或者向右移动一步。机器人试图达到网格的右下角&#xff08;在下图中标记为 “Finish” &#xff09;。 问总共有多少条不同的路径&#…

<网络安全>《76 概念讲解<第十课 物联网常用协议-网络层协议>》

协议简称全称名称内容说明IPv4互联网通信协议第四版IPv4是互联网的核心IPv6互联网协议第6版TCPTransmission Control Protocol传输控制协议TCP旨在适应支持多网络应用的分层协议层次结构。连接到不同但互连的计算机通信网络的主计算机中的成对进程之间依靠TCP提供可靠的通信服务…

【递归、回溯和剪枝】二叉树中的深搜

⼆叉树中的深搜深度优先遍历&#xff08;DFS&#xff0c;全称为 Depth First Traversal&#xff09;&#xff0c;是我们树或者图这样的数据结构中常⽤的⼀种遍历算法。这个算法会尽可能深的搜索树或者图的分⽀&#xff0c;直到⼀条路径上的所有节点都被遍历完毕&#xff0c;然后…

【AI大模型】AI大模型热门关键词解析与核心概念入门

&#x1f680; 作者 &#xff1a;“大数据小禅” &#x1f680; 文章简介 &#xff1a;本专栏后续将持续更新大模型相关文章&#xff0c;从开发到微调到应用&#xff0c;需要下载好的模型包可私。 &#x1f680; 欢迎小伙伴们 点赞&#x1f44d;、收藏⭐、留言&#x1f4ac; 目…

微电子领域常用材料简介(三)氮化镓

微电子领域常用材料简介&#xff08;三&#xff09;氮化镓 氮化镓&#xff08;GaN&#xff09;是一种具有重要战略意义的第三代半导体材料&#xff0c;因其独特的物理和化学性质&#xff0c;在多个领域展现出广泛的应用潜力。 基本特性 宽禁带&#xff1a;氮化镓具有宽带隙&a…

崇贸烧录器支持PUYA普冉半导体的32位微控制器PY32F403R1DT6

芯片烧录行业领导者-崇贸技术近日发布最新的烧录软件更新及新增支持的芯片型号列表&#xff0c;其中PUYA普冉半导体的32位微控制器PY32F403R1DT6已经被崇贸的通用烧录平台AP8000所支持。 PY32F403R1DT6微控制器是基于ArmCortexM4核的32位通用微控制器产品。内置的FPU和DSP功能…

C语言 变量的作用域

今天 我们来说变量的作用域和存储类型 每种事物 都有自己作用的范围限制 例如 汽车只能在路上跑 轮船只能在海洋 飞机只能通行于天空 函数的参数 也只有在函数被调用过程中分配内存资源 函数执行结束 空间也会被立即释放 这也说明了 行参变量只有在函数内才有效 离开了该函数 …

程序员的实用神器,16款程序员生产力工具推荐

前言 在软件开发的海洋中&#xff0c;程序员的实用神器如同航海中的指南针&#xff0c;帮助他们导航、加速开发、优化代码质量&#xff0c;并最终抵达成功的彼岸。这些工具覆盖了从代码编写、版本控制到测试和部署的各个环节。 一、程序员开发工具 Intellij IDEA IntelliJ I…

【Linux网络编程】HTTPS协议

【Linux网络编程】HTTPS协议 目录 【Linux网络编程】HTTPS协议HTTPS介绍加密常见的加密方式HTTPS的工作过程探究&#xff08;重点&#xff09;常见问题完整流程总结 作者&#xff1a;爱写代码的刚子 时间&#xff1a;2024.5.9 前言&#xff1a;本篇博客将会介绍HTTPS协议 HTTPS…

Linux-笔记 uboot修改设备树

1. FDT介绍 扁平设备树&#xff08;Flattened Device Tree&#xff0c;FDT&#xff09;&#xff0c;也叫平坦设备树&#xff0c;是设备树的一种二进制表示形式&#xff0c;提高了在嵌入式系统中的传输和解析效率&#xff1b; 2. 在U-Boot中使用FDT 2.1. 进入U-Boot 开发板上…

企业级通用业务 Header 处理方案

目录 01: 处理 PC 端基础架构 02: 通用组件&#xff1a;search 搜索框能力分析 03: 通用组件&#xff1a;search 搜索框样式处理 04: 通用组件&#xff1a;Button 按钮能力分析 05: 通用组件&#xff1a;Button 按钮功能实现 06: 通用组件&#xff1a;完善 search 基本…

【漏洞复现】GB28181摄像头管理平台api接口处存在未授权漏洞

免责声明&#xff1a;文章来源互联网收集整理&#xff0c;请勿利用文章内的相关技术从事非法测试&#xff0c;由于传播、利用此文所提供的信息或者工具而造成的任何直接或者间接的后果及损失&#xff0c;均由使用者本人负责&#xff0c;所产生的一切不良后果与文章作者无关。该…

【北京迅为】《iTOP-3588开发板nfstftp烧写手册》

RK3588是一款低功耗、高性能的处理器&#xff0c;适用于基于arm的PC和Edge计算设备、个人移动互联网设备等数字多媒体应用&#xff0c;RK3588支持8K视频编解码&#xff0c;内置GPU可以完全兼容OpenGLES 1.1、2.0和3.2。RK3588引入了新一代完全基于硬件的最大4800万像素ISP&…

力扣HOT100 - 4. 寻找两个正序数组的中位数

解题思路&#xff1a; 两个数组合并&#xff0c;然后根据奇偶返回中位数。 class Solution {public double findMedianSortedArrays(int[] nums1, int[] nums2) {int m nums1.length;int n nums2.length;int[] nums new int[m n];if (m 0) {if (n % 2 0) return (nums2…

若依集成mybatis-plus 超详细教程(亲测可用)

文章目录 简介步骤第一步第二步第三步第四步第五步第六步 使用QueryWrapperservice层impl 实现接口类层Mapper层 简介 话不多说 直接跟着下面的教程操作&#xff0c;如果有报错私信我&#xff0c;或者通过博文下面的微信名片加我微信&#xff0c;免费解答哦&#xff01; 步骤 …

代码随想录刷题随记31-贪心5

代码随想录刷题随记31-贪心5 435. 无重叠区间 leetcode链接 按照右边界排序&#xff0c;从左向右记录非交叉区间的个数。 此时问题就是要求非交叉区间的最大个数。 这里记录非交叉区间的个数还是有技巧的&#xff0c;如图&#xff1a; 左边界排序可不可以呢&#xff1f; 也是…

Unity数据持久化之XML

目录 数据持久化XML概述XML文件格式XML基本语法XML属性 C#读取存储XMLXML文件存放位置C#读取XML文件C#存储XML文件 实践小项目必备知识点XML序列化&#xff08;不支持字典&#xff09;XML反序列化IXmlSerializable接口让Dictionary支持序列化反序列化 数据持久化XML概述 什么是…

Docker入门指南:Docker镜像的使用(二)

&#x1f340; 前言 博客地址&#xff1a; CSDN&#xff1a;https://blog.csdn.net/powerbiubiu &#x1f44b; 简介 在本章节中&#xff0c;将深入探讨 Docker 镜像的概念&#xff0c;以及如何使用镜像的一系列操作。 &#x1f4d6; 正文 1 什么是镜像 1.1 Docker镜像的简…

cocos=》带你全面、系统的了解周期函数(含源码分析)

目录 简介 第一 初步了解周期函数 第二 进一步认识周期函数 一、结合节点树来了解一下周期函数 二、节点激活、脚本组件启用 三、node.parent、setParent、addChild 与 周期函数 四、addComponent 与周期函数 五、exectionOrder 与 周期函数 第三 从源码中 学习周期函…